[go: up one dir, main page]

MX2014010244A - Dispositivo de deteccion de objetos tridimensionales. - Google Patents

Dispositivo de deteccion de objetos tridimensionales.

Info

Publication number
MX2014010244A
MX2014010244A MX2014010244A MX2014010244A MX2014010244A MX 2014010244 A MX2014010244 A MX 2014010244A MX 2014010244 A MX2014010244 A MX 2014010244A MX 2014010244 A MX2014010244 A MX 2014010244A MX 2014010244 A MX2014010244 A MX 2014010244A
Authority
MX
Mexico
Prior art keywords
threshold value
difference
image
light source
dimensional object
Prior art date
Application number
MX2014010244A
Other languages
English (en)
Other versions
MX349873B (es
Inventor
Yasuhisa Hayakawa
Osamu Fukata
Original Assignee
Nissan Motor
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor filed Critical Nissan Motor
Publication of MX2014010244A publication Critical patent/MX2014010244A/es
Publication of MX349873B publication Critical patent/MX349873B/es

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/262Analysis of motion using transform domain methods, e.g. Fourier domain methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20064Wavelet transform [DWT]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Geometry (AREA)

Abstract

El dispositivo de detección de objetos tridimensionales se caracteriza en que cuenta con un medio (10) de captura de imágenes, para capturar un área predeterminada detrás de un vehículo principal; un medio (31) de conversión de la imagen para convertir el punto de vista de una imagen capturada para crear una imagen de vista a ojo de pájaro; y un medio (32, 33, 34) de detección de objetos tridimensionales para generar la información de la forma de onda de la diferencia al contar el número de pixeles que indican la diferencia, que tienen un primer valor de umbral o superior o en la imagen de la diferencia de las imágenes de vista a ojo de pájaro alineadas, para formar una distribución de frecuencia, y detectar un objeto tridimensional presente, con base en la información de la forma de onda de la diferencia cuando la información de la forma de onda de la diferencia está en un segundo valor de umbral predeterminado o superior en un marco de detección establecido dentro de un área predeterminada, en donde el medio (32, 33, 34) de detección de objetos tridimensionales establece el primer valor de umbral o el segundo valor de umbral más bajos, de modo tal que los objetos tridimensionales se detectan más fácilmente en el área hacia atrás, más atrás que una línea que conecta el medio (10) de captura de imágenes y la fuente de luz detectada por la unidad 34 de establecimiento de las referencias de detección, que en un área hacia adelante, hacia delante de la línea en el área predeterminada.

Description

DISPOSITIVO DE DETECCIÓN DE OBJETOS TRIDIMENSIONALES CAMPO TÉCNICO La presente invención se refiere a un dispositivo de detección de objetos tridimensionales.
Esta solicitud reivindica los derechos de prioridad con base en la Solicitud de Patente Japonesa No. 2012.045352 presentada el 1° de marzo de 2012, y en los estados designados los cuales aceptan la incorporación de un documento como referencia, los contenidos descritos en la solicitud citada anteriormente se incorporan aquí como referencia y se consideran como parte de la descripción de la presente solicitud.
ANTECEDENTES DE LA INVENCIÓN En la técnica conocida convencionalmente, dos imágenes capturadas en diferentes momentos se convierten en una imagen de vista a ojo de pájaro, y los obstáculos se detectan con base en la diferencia de las dos imágenes de vista a ojo de pájaro, convertidas (véase el documento relacionado con patentes 1) .
DOCUMENTOS DE LA TÉCNICA PREVIA Documentos Relacionados con Patentes Documento Relacionado con Patentes 1: Solicitud de Patente Japonesa Abierta a Inspección Pública, No. 2008-227646 BREVE DESCRIPCIÓN DE LA INVENCIÓN Problemas a ser Resueltos por la Invención Cuando, durante la noche otro vehículo que viaja en un carril adyacente, adyacente al carril en el cual está viajando el vehículo host, debe ser detectado usando una imagen en la cual ha sido capturada la parte posterior del vehículo host, y cuando la luz de los faros de otro vehículo que viaja en un carril adyacente al carril adyacente (llamado también carril adyacente-adyacente en el texto siguiente) , iluminan las áreas de detección, puede haber casos en los cuales la imagen de la luz de los faros se detecta erróneamente como un vehículo adyacente que viaja en un carril adyacente.
El problema a ser resuelto por la presente invención es eliminar el efecto de la luz emitida desde los faros de otro vehículo que viaja en un carril adyacente-adyacente, adyacente al carril adyacente, cuando debe ser detectado un objeto tridimensional (otro vehículo) presente en el carril adyacente, adyacente al carril en el cual está viajando el vehículo .
Medios Usados para Resolver los Problemas Mencionados Anteriormente La presente invención resuelve el problema al detectar las fuentes de luz presentes en la parte posterior del vehículo host, reduciendo el valor de umbral para detectar otro vehículo que viaja en un carril adyacente, de modo tal que los objetos tridimensionales en el área hacia atrás de una linea que conecta las fuentes de luz detectadas y un dispositivo de captura de imágenes, se detectan más fácilmente que en área hacia delante de la linea.
La luz de los faros de otro vehículo que viaja en un carril adyacente-adyacente resplandece hacia adelante desde una línea que conecta las fuentes de luz de los mismos y un dispositivo de captura de imágenes, y la imagen de los objetos tridimensionales presentes en un carril adyacente aparecen hacia atrás de la línea que conecta la fuente de luz y el dispositivo de captura de imágenes. Por lo tanto, se establece un valor de umbral más bajo para detectar otro vehículo que viaja en un carril adyacente, de modo tal que el objeto tridimensional se detecta fácilmente hacia atrás de la línea que conecta los faros (la fuente de luz) y el dispositivo de captura de imágenes, haciendo posible, por lo tanto, detectar adecuadamente un objeto tridimensional presente en un carril adyacente .
BREVE DESCRIPCIÓN DE LOS DIBUJOS [FIG. 1] Diagrama esquemático de un vehículo en el cual ha sido instalado un dispositivo de detección de objetos tridimensionales de acuerdo con la primera modalidad.
[FIG. 2] Vista plana que ilustra el estado de avance del vehículo de la FIG. 1.
[FIG. 3] Diagrama de bloques que ilustra los detalles de la computadora de acuerdo con la primera modalidad.
[FIGS. 4(a) y 4(b)] Vistas para describir un panorama general del procesamiento de la unidad de alineación de acuerdo con la primera modalidad; la FIG. 4 (a) es una vista plana que ilustra el estado de movimiento del vehículo, y la FIG. 4(b) es una imagen que ilustra un panorama general de la alineación .
[FIG. 5] Vista esquemática que ilustra la manera en la cual se genera la forma de onda de la diferencia por la unidad de detección de objetos tridimensionales de acuerdo con la primera modalidad.
[FIG. 6] Vista que ilustra el método para detectar un vehículo adyacente de acuerdo con la primera modalidad.
[FIG. 7] Vista que ilustra un ejemplo de la relación entre la luminancia en las posiciones de detección en las áreas de detección Al, A2 , y el valor de umbral a.
[FIG. 8] Vista que muestra un ejemplo de la ganancia del valor de umbral o¡ establecido de acuerdo con la relación posicional entre la cámara y la fuente de luz.
[FIGS. 9(A) y 9(B)] Vistas que describen el método para ajustar la ganancia del valor de umbral a ilustrada en la FIG. 8.
[FIGS. 10(A) y 10(B)] Vistas que describen el método para ajustar la ganancia del valor de umbral , ilustrada en la FIG. 8.
[FIG. 11] Vista que describe el método para ajustar la ganancia del valor de umbral OÍ que corresponde a la distancia L.
[FIG. 12] Vista que describe el método para ajustar la ganancia del valor de umbral OÍ que corresponde a la distancia L.
[FIG. 13] Vista que ilustra el área pequeña dividida por la unidad de detección de objetos tridimensionales de acuerdo con la primera modalidad.
[FIG. 14] Vista que ilustra un ejemplo de histograma obtenido por la unidad de detección de objetos tridimensionales de acuerdo con la primera modalidad.
[FIG. 15] Vista que ilustra la ponderación usada por la unidad de detección de objeto tridimensionales de acuerdo con la primera modalidad.
[FIG. 16] Vista que ilustra otro ejemplo del histograma obtenido por la unidad de detección de objetos tridimensionales de acuerdo con la primera modalidad.
[FIG. 17] Diagrama de flujo que ilustra el método para detectar un vehículo adyacente de acuerdo con la primera modalidad .
[FIG. 18] Diagrama de flujo que ilustra el proceso para establecer el valor de umbral a en la etapa S105.
[FIG. 19] Diagrama de bloques que ilustra los detalles de la computadora de acuerdo con la segunda modalidad.
[FIGS. 20(a) y 20(b)] Vistas que ilustran el estado de avance del vehículo; la FIG. 20(a) es una vista plana que ilustra la relación posicional entre el área de detección y las similares, y la FIG. 20(b) es una vista en perspectiva que ilustra la relación posicional entre el área de detección y las similares en el espacio real.
[FIGS. 21(a) y 21(b)] Vistas para describir la operación de la unidad de cálculo de la diferencia de luminancia de acuerdo con la segunda modalidad, la FIG. 21(a) es una vista que ilustra la relación posicional entre la línea de atención, la línea de referencia, el punto de atención, y el punto de referencia en una imagen de vista a ojo de pájaro, y la FIG. 21(b) es una vista que ilustra la relación posicional entre la línea de atenuación, la línea de referencia, el punto de atenuación, y el espacio real del punto de referencia.
[FIGS. 22(a) y 22(b)] Vistas para describir la operación detallada de la unidad de cálculo de la diferencia de luminancia de acuerdo con la segunda modalidad; FIG. 22(a) es una vista que ilustra las áreas de detección en la imagen de vista a ojo de pájaro, y la FIG. 22(b) es una vista que ilustra la relación posicional entre la línea de referencia, el punto de atenuación, y el punto de referencia en la imagen de vista a ojo de pájaro.
[FIG. 23] Vista que ilustra un ejemplo de imagen para describir la operación de detección del borde.
[FIG. 24] Vista que ilustra un ejemplo de la relación entre la luminancia en las áreas de detección Al, A2 , y el valor de umbral ß .
[FIG. 25] Vista que ilustra un ejemplo de la ganancia en el valor de umbral ß, establecida de acuerdo con la posición de la fuente de luz .
[FIGS. 26(a) y 26(b)] Vistas que ilustran la línea de borde y la distribución de luminancia sobre la línea de borde; FIG. 26(a) es una vista que ilustra la distribución de la luminancia cuando un objeto tridimensional (vehículo adyacente) está presente en el área de detección., y la FIG. 26 (b) es una vista que ilustra la distribución de luminancia cuando un objeto tridimensional no está presente en el área de detección .
[FIG. 27] Diagrama de flujo que ilustra el método para detectar un vehículo adyacente de acuerdo con la segunda modalidad.
DESCRIPCIÓN DETALLADA DE LA INVENCIÓN Modalidades Preferidas de la Invención Modalidad 1 La FIG. 1 es un diagrama estructural, esquemático de un vehículo en el cual ha sido instalado un dispositivo de detección de objetos tridimensionales de acuerdo con la primera modalidad. El objetivo del dispositivo 1 de detección de objetos tridimensionales de acuerdo con la presente modalidad es detectar otro(s) vehículo (s) (puede conocerse en lo sucesivo como "vehículo adyacente") presente (s) en un carril adyacente donde es posible el contacto si un vehículo principal VI cambia de carriles. El dispositivo 1 de detección de objetos tridimensionales de acuerdo con la presente modalidad cuenta con una cámara 10, un detector 20 de velocidad, y una computadora 30, como se ilustra en la FIG. 1.
La cámara 10 se fija al vehículo principal VI de modo tal que su eje óptico esté en un ángulo T hacia abajo de la horizontal en una ubicación, a una altura h, en la parte trasera del vehículo principal VI, como se ilustra en la FIG. 1. Desde esta posición, la cámara 10 captura un área predeterminada del ambiente circundante del vehículo principal VI. El detector 20 de velocidad detecta la velocidad de avance del vehículo principal VI y calcula la velocidad del vehículo a partir de la velocidad de las ruedas, detectada, por ejemplo, por un detector de velocidad de las ruedas, para detectar la velocidad de rotación de las ruedas. La computadora 30 detecta los vehículos adyacentes presentes en los carriles adyacentes, hacia atrás del vehículo principal.
La FIG. 2 es una vista plana que ilustra el estado de avance del vehículo principal VI de la FIG. 1. Como se ilustra en el dibujo, la cámara 10 captura el lado trasero del vehículo en un ángulo de visión predeterminado a. En este momento, el ángulo de visión a de la cámara 10 se ajusta a un ángulo de visión que permite que los carriles a la derecha y a la izquierda (los carriles adyacentes) sean capturados además del carril en el cual está viajando el vehículo principal VI.
Las FIGS . 4(a) y 4(b) son unas vistas que ilustra los detalles de la computadora 30 de la FIG. 1. La cámara 10 y el detector 20 de velocidad también se ilustran en la FIG. 3, con el fin de indicar claramente las relaciones de conexión.
Como se ilustra en la FIG. 3, la computadora 30 cuenta con una unidad 31 de conversión del punto de vista, una unidad 32 de alineación, una unidad 33 de detección de objetos tridimensionales, y una unidad 34 de establecimiento de las referencias de detección. La configuración de estas unidades se describe a continuación.
Los datos de la imagen capturada del área predeterminada, obtenidos por la captura llevada a cabo por la cámara 10, se introducen a la unidad 31 de conversión del punto de vista, y los datos de la imagen así introducidos, se convierten a datos de imagen de vista a ojo de pájaro, la cual es un de vista a ojo de pájaro. El estado de vista a ojo de pájaro es un estado de observación desde el punto de vista de una cámara imaginaria que está observado hacia abajo, desde un punto superior, por ejemplo verticalmente hacia abajo. La conversión del punto de vista puede ser llevada a cabo de la forma descrita, por ejemplo, en la Solicitud de Patente Japonesa Abierta a Inspección Pública, No. 2008.219063. La razón de que los datos de la imagen capturada se conviertan a datos de imagen a vista de ojo de pájaro, se basa en el principio de que los bordes perpendiculares únicos para un objeto tridimensional sean convertidos en un grupo de líneas rectas que pasan a través de un punto fijo específico, por la conversión del punto de vista a datos de imagen de vista a ojo de pájaro, y utilizar este principio permite los objetos planos y los objetos tridimensionales sean diferenciados.
Los datos de la imagen a vista de ojo de pájaro obtenidos por la conversión del punto de vista llevada a cabo por la unidad 31 de conversión del punto de vista se introducen posteriormente a la unidad 32 de alineación, y las posiciones introducidas de los datos de imagen a vista de ojo de pájaro en diferentes tiempos se alinean. Las FIGS. 4(a) y 4 (b) son unas vistas para describir el panorama general del procesamiento de la unidad 32 de alineación, la FIG. 4 (a) es una vista plana que ilustra el estado de movimiento del vehículo principal VI, y la FIG. 4(b) es una imagen que ilustra un panorama general de la alineación.
Como se ilustra en la FIG. 4(a) , el vehículo principal VI en el momento actual está posicionado en Plf y el vehículo principal VI, en el momento anterior, se posiciona en Pi' . Se asume que un vehículo adyacente V2 se posiciona en la dirección del lado posterior del vehículo principal VI y está viajando paralelo al vehículo principal VI, y que el vehículo adyacente V2 , en el momento actual, está posicionado en P2, y que el vehículo adyacente V2 en un momento determinado, está posicionado en P2' . También, se asume que el vehículo principal VI se ha movido una distancia d en un momento determinado. La fase "en un momento previo determinado" puede ser un momento, un tiempo establecido de antemano en el pasado (por ejemplo, un ciclo de control individual) desde el momento actual, o puede ser un momento, un tiempo arbitrario en el pasado .
En tal estado, una imagen de vista a ojo de pájaro PB, en el momento actual, se ilustra en la FIG. 4 (b) . Las lineas blancas dibujadas sobre la superficie de la carretera son rectangulares en esta imagen de la vista a ojo de pájaro y son relativamente exactas en una vista plana, peo el vehículo adyacente V2 (la posición P2) está colapsado. Lo mismo se aplica a la imagen de vista a ojo de pájaro PBt-i en un único momento previo; las líneas blancas dibujadas sobre la superficie de la carretera son rectangulares y son relativamente exactas en una vista plana, pero el vehículo adyacente V2 (posición P2' ) está colapsado. Como se describe previamente, los bordes perpendiculares de un objeto tridimensional (los bordes que permanecen verticales en el espacio tridimensional, desde la superficie de la carretera, también se incluyen en el significado estricto del borde perpendicular) aparecen como un grupo de líneas rectas en la dirección de colapso, debido al proceso de conversión del punto de vista a los datos de imagen de vista a ojo de pájaro, pero, puesto que una imagen plana sobre la superficie de la carretera no incluye los bordes perpendiculares, tal colapso no ocurre aun cuando el punto de vista ha sido convertido.
La unidad 32 de alineación alinea las imágenes de vista a ojo de pájaro PBt y PBt-i, tales como aquellas descritas anteriormente, en términos de los datos. Cuando se lleva a cabo esto, la unidad 32 de alineación desplaza la imagen de la vista a ojo de pájaro PBt-i, a un momento previo, y hace que concuerde con la posición de la imagen de vista a ojo de pájaro PBt en el momento actual. La imagen del lado izquierdo y la imagen central de la FIG. 4(b) ilustran el estado de desplazamiento por una distancia de movimiento d' . La cantidad de desplazamiento d' es la cantidad de movimiento en los datos de la imagen de vista a ojo de pájaro que corresponde a la distancia de movimiento d del vehículo principal VI ilustrada en la FIG. 4(a), se decide, con base en una señal del detector 20 de velocidad y el tiempo desde el único momento previo al momento actual.
Después de la alineación, la unidad 32 de alineación obtiene la diferencia entre las imágenes de vista a ojo de pájaro PBt y PBt-i, y genera los datos de la imagen de diferencia PDt. En la presente modalidad, la unidad 32 de alineación toma el valor absoluto de la diferencia en valores de pixel, de las imágenes de vista a ojo de pájaro PBt y PBt-i, para hacerlo corresponder a la variación en el ambiente de iluminación, cuando el valor absoluto es igualo o mayor al valor de umbral predeterminado th, los valores de pixel de la imagen de diferencia PDt se sitúan en "1", y cuando el valor absoluto es menor que un valor de umbral predeterminado th, los valores de pixel de la imagen de diferencia PDt se sitúan en "0", lo cual permite que se generen los datos de la imagen de diferencia, tal como se ilustra en el lado derecho de la FIG. 4 (b) .
Regresando a la FIG. 3, la unidad 33 de detección de objetos tridimensionales detecta un objeto tridimensional con base en los datos de la imagen de diferencia PDt ilustrada en la FIG. 4 (b) . En este caso, la unidad 33 de detección de objetos tridimensionales calcula la distancia de movimiento del objeto tridimensional en el espacio real. La unidad 33 de detección de objetos tridimensionales genera primero una forma de onda de la diferencia, cuando se detecta el objeto tridimensional y la distancia de movimiento debe ser calculada .
Para la generación de la forma de onda de la diferencia DWt, la unidad 33 de detección de objetos tridimensionales establece el área de detección en la imagen de diferencia PDt. El objetivo del dispositivo 1 de detección de objetos tridimensionales del presente ejemplo, es calcular la distancia de movimiento para el vehículo adyacente con el cual existe la posibilidad de contacto si el vehículo principal VI cambia de carriles. Por consiguiente, en el presente ejemplo, las áreas de detección Al, A2 se establecen detrás del vehículo principal VI, como se ilustra en la FIG. 2. Tales áreas de detección Al, A2 pueden ser establecidas a partir de la posición relativa del vehículo principal VI, o pueden ser establecidas con base en la posición de las líneas blancas. Cuando se establecen con base en la posición de las líneas blancas, el dispositivo 1 de detección de objetos tridimensionales puede usar, por ejemplo, las técnicas conocidas para el reconocimiento de las líneas blancas.
La unidad 33 de detección de objetos tridimensionales reconoce, como líneas del suelo Ll, L2, los bordes de las áreas de detección Al, A2 se establecen por lo tanto del lado del vehículo principal VI (el lado en la dirección de avance) , como se ilustra en la FIG. 2. Por lo general, líneas del suelo se refiere a las líneas en las cuales, un objeto tridimensional está en contacto con el suelo, pero en la presente modalidad, las líneas del suelo no son líneas en contacto con el suelo, sino más bien se establecen de la manera descrita anteriormente. Aun en tal caso, la diferencia entre las líneas del suelo de acuerdo con la presente modalidad y las líneas del suelo normales, determinadas a partir de la posición del vehículo adyacente, no es excesivamente grande cuando se determina por la experiencia, y actualmente no representa un problema.
La FIG. 5 es una vista esquemática que ilustra la manera en la cual se genera la forma de onda de la diferencia por la unidad 33 de detección de objetos tridimensionales. Como se ilustra en la FIG. 5, la unidad 33 de detección de objetos tridimensionales genera una forma de onda de la diferencia DWt a partir la porción que corresponde a las áreas de detección Al, A2 en la imagen de la diferencia PDt (dibujada a la derecha en la FIG. 4(b)) calculada por la unidad 32 de alineación. En este caso, la unidad 33 de detección de objetos tridimensionales genera una forma de onda de la diferencia DWt en la dirección de colapso del objeto tridimensional por la conversión del punto de vista. En el ejemplo ilustrado en la FIG. 5, solo se describirá el área de detección Al, por motivos de conveniencia, pero la forma de onda de la diferencia DWt se genera también para el área de detección A2, usando el mismo procedimiento.
Más específicamente, la unidad 33 de detección de objetos tridimensionales define primero una linea La, en la dirección en la cual se colapsa el objeto tridimensional en los datos de la imagen de la diferencia PDt. La unidad 33 de detección de objetos tridimensionales cuenta entonces el número de pixeles de diferencia DP que indican una diferencia predeterminada sobre la línea La. En la presente modalidad, los pixeles de diferencia DP, que indican una diferencia predeterminada, tienen valores de pixel en la imagen de la diferencia PDt, que están representados por "0" y "1", y los pixeles indicados por "1" se cuentan como los pixeles de la diferencia DP.
La unidad 33 de detección de objetos tridimensionales cuenta el número de pixeles de la diferencia DP, y determina después el punto de cruce CP de la linea La y la linea del suelo Ll . La unidad 33 de detección de imágenes tridimensionales correlaciona entonces el punto de cruce CP y el número contabilizado, decide la posición en el eje horizontal, es decir, la posición sobre el eje en la dirección vertical, en el dibujo a la derecha de la FIG. 5, con base en la posición el punto de cruce CP, decide la posición en el eje vertical, es decir, la posición sobre el eje en la dirección lateral, en el dibujo a la derecha de la FIG. 5, a partir del número del conteo, y gráfica las posiciones como el número del cinteo en el punto de cruce CP.
De forma similar, la unidad 33 de detección de objetos tridimensionales define las lineas Lb, Le, ... en la dirección en la cual se colapsa el objeto tridimensional, cuenta el número de pixeles de la diferencia DP, decide la posición en el eje horizontal, con base en la posición de cada punto de cruce CP, decide la posición en el eje vertical a partir del número del conteo (el número de pixeles de la diferencia DP) , y gráfica las posiciones. La unidad 33 de detección de objetos tridimensionales repite lo anterior en secuencia, para formar una distribución de frecuencia y por lo tanto genera una forma de onda de la diferencia D t, como se ilustra en el dibujo a la derecha de la FIG. 5.
Aquí, los pixeles de diferencia PD en los datos de la imagen de la diferencia PDt, son pixeles, los cuales han cambiado en la imagen, en diferentes momentos, en otras palabras, las posiciones que pueden ser consideradas como dónde estuvo presente el objeto tridimensional. Por consiguiente, en las ubicaciones donde estuvo presente un objeto tridimensional, el número de pixeles se cuenta en la dirección en la cual se colapsa el objeto tridimensional para formar una distribución de frecuencia y genera por lo tanto una forma de onda de la diferencia DWt. En particular, el número de pixeles se cuenta en la dirección en la cual se colapsa el objeto tridimensional, y la forma de onda de la diferencia DWt se genera por lo tanto a partir de la información en la dirección de la altura con relación al objeto tridimensional.
Las lineas La y Lb en la dirección en la cual se colapsa el objeto tridimensional tienen diferentes distancias que se traslapan al área de detección Al, como se ilustra en el dibujo a la izquierda de la FIG. 5. Por consiguiente, el número de pixeles de la diferencia DP es mayor en la linea La que en la linea Lb cuando se asume que el área de detección Al está llena con los pixeles de la diferencia DP. Por esta razón, la unidad 33 de detección de objetos tridimensionales lleva a cabo la normalización con base en la distancia en que las lineas La, Lb, en la dirección en la cual se colapsa el objeto tridimensional y el área de detección Al se traslapan, cuando la posición en el eje vertical se decide a partir del número del conteo de los pixeles de la diferencia DP. En un ejemplo especifico, hay seis pixeles de diferencia DP sobre la linea La y cinco pixeles de diferencia DP sobre la linea Lb en el dibujo a la izquierda en la FIG. 5. Por consiguiente, cuando la posición sobre el eje vertical se decide a partir del número del conteo, en la FIG. 5, la unidad 33 de detección de objetos tridimensionales divide el número del conteo entre la distancia de traslape o lleva a cabo la normalización de otra forma. Los valores de la forma de onda de diferencia DWt que corresponden a las lineas La, Lb en la dirección en la cual se colapsa el objeto tridimensional, se vuelven por ello sustancialmente los mismos.
Después que ha sido generada la forma de onda de la diferencia DWt, la unidad 32 de detección de objetos tridimensionales detecta un vehículo adyacente presente en un carril adyacente con base en la forma de onda de la diferencia DWt generada. Aquí, la FIG. 6 es una vista para describir el método para detectar un vehículo adyacente, llevado a cabo por la unidad 33 de detección de objetos tridimensionales, e ilustra un ejemplo de la forma de onda de la diferencia D t, y el valor de umbral para detectar un vehículo adyacente. La unidad 33 de detección de objetos tridimensionales determina si el pico de la forma de onda de la diferencia DWt, generada, es igual o mayor al valor de umbral a correspondiente a la posición del pico de la forma de onda de la diferencia DWt, como se ilustra en la FIG. 6. La unidad 33 de detección de objetos tridimensionales determina entonces gue el vehículo adyacente no está presente en las áreas de detección Al, A2, cuando el pico de la forma de onda de la diferencia DWt es menor gue el valor de umbral predeterminado , y por el contrario, determina gue un vehículo adyacente está presente en la áreas de detección Al, A2, cuando el pico de la forma de onda de la diferencia DWt es el valor de umbral a predeterminado o mayor, para detectar por ello un vehículo adyacente presente en un carril adyacente.
Por lo tanto, la forma de onda de la diferencia DWt es el modo de la información distribuida de los pixeles, gue indica una diferencia predeterminada en la luminancia, y "la información distribuida de los pixeles", en la presente modalidad puede ser posicionada con la información gue indica el estado de distribución de "los pixeles que tienen una diferencia en la luminancia gue es igual o mayor que un valor de umbral predeterminado" detectada en la dirección en la cual se colapsa el objeto tridimensional cuando la imagen capturada se convierte en la imagen de vista a ojo de pájaro. En otras palabras, cuando la unidad 33 de detección de objetos tridimensionales detecta, en la imagen de vista a ojo de pájaro, obtenida por la unidad 31 de conversión del punto de vista, la información distribuida de los pixeles en la cual, la diferencia de la luminancia es un valor de umbral predeterminado th o mayor, como la forma de onda de la diferencia DWt en la dirección en la cual se colapsa el objeto tridimensional cuando se convierte el punto de vista de la imagen capturada para crear la imagen a vista de ojo de pájaro, y además detecta un objeto tridimensional con base en la forma de onda de la diferencia DWt cuando la extensión de la distribución de los pixeles (el número del conteo de los pixeles de diferencia DP en la forma de onda de la diferencia DWt) en la dirección en la cual se colapsa el objeto tridimensional, es el valor de umbral a o más grande.
A continuación, se describe el método para establecer el valor de umbral a para detectar un vehículo adyacente.
El valor de umbral a se establece por la unidad 34 de establecimiento de las referencias de detección ilustrada en la FIG. 3. La unidad 34 de establecimiento de las referencias de detección establece el valor de umbral a para detectar el vehículo adyacente, de acuerdo con la luminancia en las posiciones de detección en las áreas de detección Al, A2 (por ejemplo, la luminancia promedio en los pixeles de diferencia do sobre las líneas La, Lb, Le, ... den la dirección en la cual se colapsa el objeto tridimensional, como se ilustra en el dibujo a la izquierda en la FIG. 5) y la relación posicional entre la cámara 10 y la fuente de luz, para cada posición en las áreas de detección Al, A2 (conocidas de aqui en delante como las posiciones de detección en las áreas de detección Al, A2) que corresponden a las lineas La, Lb, Le,... en la dirección en la cual se colapsa el objeto tridimensional, como se ilustra en el dibujo a la izquierda en la FIG. 5. En este caso, la FIG. 7 es una gráfica que ilustra un ejemplo de la relación entre la luminancia en las posiciones de detección en las áreas de detección Al, A2 y el valor de umbral , y la FIG. 8 es una vista gue muestra un ejemplo de la ganancia del valor de umbral o¡ establecido de acuerdo con la relación posicional entre la cámara 10 y la fuente de luz.
Específicamente, la unidad 34 de establecimiento de las referencias de detección establece el primer valor de umbral correspondiente a las posiciones de detección de las áreas de detección Al, A2, en un valor más alto, de modo comprable a la luminancia más alta en las posiciones de detección en las áreas de detección Al, A2, como se ilustra en la FIG. 7. El pico de la forma de onda de la diferencia DWt con base en la luz de los faros de un vehículo adyacente es menor que el primer valor de umbral OÍ y el efecto de la luz de los faros del vehículo adyacente-adyacente puede ser eliminado aun cuando, por ejemplo, la luz de los faros del vehículo adyacente-adyacente (el vehículo presente en el carril adyacente-adyacente dos carriles más allá del carril del vehículo principal) que tienen luminancia alta ilumine el carril adyacente. Por lo tanto es posible evitar de forma efectiva que la imagen de la luz de los faros del vehículo adyacente-adyacente sea detectada erróneamente como un vehículo adyacente.
La unidad 34 de establecimiento de las referencias de detección modifica además la ganancia del valor de umbral a de acuerdo con la posición de las posiciones de detección en la dirección de avance del vehículo principal. En la presente modalidad, la posición de referencia P0 ilustrada en la FIG. 8, corresponde a la posición de los faros del vehículo adyacente-adyacente u otra fuente de luz, como se describe a continuación, y la ganancia del valor de umbral a se establece por lo tanto más alta hacia adelante desde la posición de referencia P0 en comparación con la dirección hacia aras desde la posición de referencia PQ, como se ilustra en la FIG. 8; y como resultado, el valor de umbral a se establece más alto hacia delante de la posición de referencia P0 en comparación con la dirección hacia atrás desde la posición de referencia Po- Por otro lado, ya que la ganancia del valor de umbral a se establece más baja hacia atrás, desde la posición de referencia PQ, en comparación con la dirección hacia adelante desde la posición de referencia P0, el valor de umbral o¡ se establecerá más bajo hacia atrás desde la posición de referencia P0, que hacia adelante desde la posición de referencia P0 cuando la luminancia es la misma, como se ilustra en la FIG. 8.
También, en la presente modalidad, la unidad 34 de establecimiento de las referencias de detección ajusta la ganancia en el valor de umbral a ilustrado en la FIG. 8, de acuerdo con la relación posicional entre la cámara 0 y la fuente de luz. A continuación se describe el método para ajustar la ganancia del valor de umbral a ilustrada en la FIG. 8, con referencia a las FIGS. 9 y 10. Las FIGS. 9 y 10 son dibujos para describir el método para ajustar la ganancia en el valor de umbral ilustrado en la FIG. 8.
En otras palabras, la unidad 34 de diseño de la referencia de detección detecta los faros de un vehículo adyacente-adyacente V3 u otras fuentes de luz, de una imagen capturada por la cámara 10, como se ilustra en el dibujo a la derecha en la FIG. 9(A). La unidad 34 de establecimiento de las referencias de detección detecta entonces la posición del centroide de la fuente de luz detectada, y establece una línea Le que pasa a través de la posición del centroide de la fuente de luz y la posición central de la cámara 10. Además, la unidad 34 de establecimiento de las referencias de detección calcula el punto de cruce 0 entre la línea Le y el lado (lado en la dirección de avance) L2' del lado del carril adyacente- adyacente del área de detección A2. El método para detectar una fuente de luz, llevado a cabo por la unidad 34 de establecimiento de las referencias de detección se describe más adelante.
La unidad 34 de establecimiento de las , referencias de detección ajusta la ganancia en el valor de umbral a en la FIG. 8 de modo tal que el punto de cruce 0 y la posición de referencia PQ ilustrada en la FIG. 8 coincidan entre si, como se ilustra en el dibujo a la izquierda de la FIG. 9(A) . Aquí, la FIG. 9(B) proporciona un ejemplo de una situación en la cual, el vehículo adyacente-adyacente V3 se ha aproximado al vehículo principal VI desde la situación ilustrada en la FIG. 9(A) . En la situación ilustrada en la FIG. 9(B), el vehículo adyacente-adyacente V3 se ha aproximado al vehículo principal VI, y el punto de cruce 0 entre la línea Le y la línea L2' en el área de detección A2 se ha movido por lo tanto más hacia adelante (dirección negativa del eje Y) del punto de cruce 0 ilustrado en la FIG. 9(A) . Por consiguiente, cuando ganancia en el valor de umbral ilustrada en la FIG. 8 es ajustada por la unidad 34 de establecimiento de las referencias de detección, de modo tal que el punto de cruce O ilustrado en el dibujo a la derecha en la FIG. 9(A) coincide con la posición de referencia P0 ilustrada en la FIG. 8, como se ilustra en el dibujo a la izquierda en la FIG. 10(B), la ganancia en el valor de umbral ilustrada en la FIG. 8 se desplaza hacia adelante (dirección negativa del eje Y) en términos generales, como se ilustra en el dibujo a la izquierda en la FIG. 9(B), en comparación con la ganancia en el valor del umbral a ilustrada en el dibujo a la izquierda en la FIG . 9(A), y la posición de la fuente de luz y la posición de referencia P0 ilustradas en la FIG. 8 coinciden por lo tanto.
La ganancia en el valor de umbral a en la posición de la fuente de luz es máxima por lo tanto en la posición de la fuente de luz, y la ganancia en el valor de umbral a se incrementa en las posiciones cernas a la fuente de luz, como se ilustra en las FIGS. 8 y 9. Por consiguiente, el valor de umbral a para detectar un vehículo adyacente se establece en su valor más alto en la posición de la fuente de luz, y el valor de umbral o¡ para detectar un vehículo adyacente se establece en un valor alto en las posiciones cercanas a la fuente de luz. Como resultado, es posible evitar efectivamente que los faros (fuente de luz) de un vehículo adyacente-adyacente sean detectados erróneamente como un vehículo adyacente cuando la fuente de luz de un vehículo adyacente-adyacente ilumina un carril adyacente.
Cuando la(s) fuente (s) de luz es (son) los faros de un vehículo adyacente, pueden haber casos en los cuales los neumáticos/ruedas de un vehículo adyacente posicionado hacia atrás de los faros (la fuente de luz) sean difíciles de detectar en un área Rr hacia atrás de la fuente de luz. Por otro lado, la posibilidad de que los neumáticos/llantas de un vehículo adyacente estén presentes en el área Rr hacia atrás de la fuente de luz es alta. En vista de este hecho, en la presente modalidad, el área RR hacia atrás de la fuente de luz se determina como un área en la cual, la posibilidad de que esté presente un vehículo adyacente está en un valor predeterminado o más alto, y la ganancia en el valor de umbral a se establece más baja en el área RR hacia atrás de la fuente de luz, como se ilustra en las FIGS. 8 y 9, haciendo posible por lo tanto, detectar un vehículo adyacente posicionado hacia atrás de la fuente de luz.
También, la ganancia del valor de umbral a se establece alta en el área Rf hacia delante de la fuente de luz (es decir, el área en la cual Y<kX, donde la dirección Y es la dirección de avance del vehículo principal y la dirección X es la dirección transversal del vehículo en un plano XY, 0 es la posición de la cámara 10 en la dirección Y, Y>0 es hacia delante de la cámara, y Y=kX es la línea Le) , como se ilustra en las FIGS. 8 y 9, y la ganancia en el valor de umbral a se establece baja en el área Rr hacia atrás de los faros (la fuente de luz) (es decir, el área en la cual Y>kX, donde la dirección Y es la dirección de avance del vehículo principal y la dirección X es la dirección transversal del vehículo en el plano XY, 0 es la posición de la cámara 10 en la dirección Y, y>0 es hacia atrás de la cámara 10, e Y=kX es la línea Le) .
Por consiguiente cuando la luminancia es la misma, el valor de umbral OÍ se establece alto en el área Rf hacia atrás de la fuente de luz, y el valor de umbral se establece bajo en el área RR hacia delante de los faros (la fuente de luz) .
Además, la unidad 34 de establecimiento de las referencias de detección ajusta la ganancia al valor de umbral o¡ ilustrado en la FIG. 8, de acuerdo con la distancia L en la dirección transversal del vehículo (la dirección del eje X) , desde la posición central de la cámara 10, a la posición de la fuente de luz, como se ilustra en las FIGS. 8 y 9. Específicamente, la unidad 34 de establecimiento de las referencias de detección reduce el rango de reducción dh de la ganancia al valor de umbral , hacia atrás de la posición de referencia PQ (el rango de reducción dh con respecto a la ganancia del valor de umbral o¡ en la posición de referencia P0 ilustrada en la FIG. 8) de modo tal que el valor de umbral a establecido hacia atrás de la posición de referencia P0 es mayor de un modo comparable a la distancia más grande L desde la posición central de la cámara 10 a la posición del centroide de la fuente de luz. Por ejemplo, en el caso de la ganancia del valor umbral a ilustrada en la FIG. 8, en la situación ilustrada en la FIG. 10(A), la unidad 34 de establecimiento de las referencias de detección ajusta la ganancia del valor de umbral ilustrada en la FIG. 8 de modo tal que el rango de reducción dh de la ganancia del valor de umbral a es menor que el rango de reducción dh del valor de umbral a ilustrada en la FIG. 8, como se ilustra en la FIG. 11, cuando la distancia L de la posición central de la cámara 10 a la posición del centroide de la fuente de luz ha aumentado en comparación con la FIG. 10(A), como se ilustra en la FIG. 10(B). La unidad 34 de establecimiento de las referencias de detección pueden establecer por consiguiente un valor de umbral OÍ que servirá como la referencia de detección, de modo tal que es más difícil detectar el objeto tridimensional cuando la distancia L en la dirección transversal del vehículo, desde la posición central de la cámara 10 a la posición del centroide de la fuente de luz, aumenta en el área RR hacia atrás de los faros (la fuente de luz) .
En lugar de una configuración en la cual, la unidad 34 de establecimiento de las referencias de detección modifica el rango de reducción dh de la ganancia en el valor de umbral a, de acuerdo con la distancia L desde la posición centra de la cámara 10 a la posición del centroide de la fuente de luz, como se ilustra en la FIG. 11, o además de esta configuración, también es posible usar una configuración en la cual, la unidad de establecimiento de las referencias de detección reduce el rango dw en el cual, la ganancia en el valor de umbral a cambia a un valor más bajo (un rango que corresponde a los neumáticos/ruedas de un vehículo adyacente presente hacia atrás de la fuente de luz) con respecto a la ganancia en el valor de umbral OÍ en la posición de referencia Pc, de modo comparable con el aumento en la distancia L desde la posición central de la cámara 10 a la posición del centroide de la fuente de luz, como se ilustra en la FIG. 12. Por ejemplo, cuando la ganancia en el valor de umbral , ilustrada en la FIG. 8, debe ser obtenida en la situación ilustrada en la FIG. 10 (A) , la unidad 34 de establecimiento de las referencias de detección reduce el rango dw en el cual, la ganancia en el valor de umbral a se reduce con respecto a la posición de referencia P0, como se ilustra en la FIG. 12, cuando la distancia L desde la posición central de la cámara 10 a la posición del centroide de la fuente de luz ha aumentado en comparación con la FIG. 10 (A) , como se ilustra en la FIG. 10 (B) . También en este caso, ya que se incrementa el rango en el cual el valor de umbral a se establece alto, hacia atrás de la posición de referencia P0 correspondiente a la posición de la fuente de luz, el efecto de los faros de un vehículo adyacente-adyacente V3 puede ser eliminado adecuadamente cuando la posibilidad de que un vehículo adyacente-adyacente V3 está presente en el área Rr sea alta, más delante de la fuente de luz.
La unidad 34 de establecimiento de las referencias de detección modifica el valor de umbral a con el fin de evitar efectivamente que la luz de los faros de un vehículo adyacente-adyacente, que iluminan un carril adyacente, sea detectada erróneamente como un vehículo adyacente. Por consiguiente, en la presente modalidad, la modificación del valor de umbral por unidad 34 de establecimiento de las referencias de detección puede ser configurada para ser llevada a cabo solamente por la niche cuando las luces de un vehículo adyacente-adyacente V2 están encendidas. La unidad 34 de establecimiento de las referencias de detección puede determinar que es durante la noche cuando, por ejemplo la luminancia de la imagen capturada por la cámara 10 está en un valor predeterminado o menos.
Enseguida se dará continuación a la descripción de la unidad 33 de detección de objetos tridimensionales. Después que ha sido detectado un objeto tridimensional presente en un carril adyacente, la unidad 33 de detección de objetos tridimensionales calcula la distancia de movimiento del objeto tridimensional presente en el vehículo adyacente al comparar la forma de onda de la diferencia DWt en el momento actual y la forma de onda de la diferencia DWt-i en un único momento previo. En otras palabras, la unidad 33 de detección de objetos tridimensionales calcula la distancia de movimiento a partir del cambio en el tiempo de las formas de onda de la diferencia, DWt, DWt-i.
Más específicamente, la unidad 33 de detección de objetos tridimensionales divide la forma de onda de la diferencia DWt en una pluralidad de áreas pequeñas, DWti a DWtn (donde n es un entero arbitrario igual o mayor a 2), como se ilustra en la FIG. 13. La FIG. 13 es una vista que ilustra las áreas pequeñas DWti a DWtn generadas por la unidad 33 de detección de objetos tridimensionales. Las áreas pequeñas DWti a DWtn se generan para traslaparse mutuamente, como se ilustra en, por ejemplo, la FIG. 13. Por ejemplo, el área pequeña DWti y el área pequeña DWt2 se traslapan entre si, y el área pequeña DWt2 y el área pequeña DWt3 se traslapan entre si.
Enseguida, la unidad 33 de detección de objetos tridimensionales determina la cantidad de desplazamiento (la cantidad de movimiento en la dirección del eje horizontal (la dirección vertical en la FIG. 13) de la forma de onda de la diferencia) para cada una de las áreas pequeñas DWti a D tn. Aquí, la cantidad de desplazamiento se determina a partir de la diferencia (la distancia en la dirección del eje horizontal) entre la forma de onda de la diferencia DWti en un único momento previo y la forma de onda de la diferencia DWt en el momento actual. En este caso, la unidad 33 de detección de objetos tridimensionales mueve la forma de onda de la diferencia DWti en un único momento previo en la dirección del eje horizontal para cada una de las áreas pequeñas DWti a DWtn, y acto seguido evalúa la posición (la posición en la dirección del eje horizontal) en la cual el error de la forma de onda de la diferencia DWt, en el momento actual, está en un mínimo y determina, como la cantidad de desplazamiento, la cantidad de movimiento en la dirección del eje horizontal, en la posición en la cual, el error de la posición original de la forma de onda de la diferencia DWti, está en un mínimo. La unidad 33 de detección de objetos tridimensionales cuenta entonces la cantidad de desplazamiento determinada para cada una de las áreas pequeñas DWti a DWtn y forma un histograma.
La FIG. 14 es una vista que ilustra un ejemplo del histograma obtenido por la unidad 33 de detección de objetos tridimensionales. Como se ilustra en la FIG. 14, cierta cantidad de variabilidad ocurre en la cantidad de desplazamiento, la cual es la distancia de movimiento en la cual, el error entre las áreas pequeñas D ti a DWtn y l forma de onda de la diferencia D ti, en un único momento previo, está en un mínimo. Por consiguiente, la unidad 33 de detección de objetos tridimensionales integra las cantidades de desplazamiento, que incluyen la variabilidad, en un histograma, y calcula la distancia de movimiento a partir del histograma. En este punto, la unidad 33 de detección de objetos tridimensionales calcula la distancia de movimiento del objeto tridimensional, a partir del valor máximo en el histograma. En otras palabras, en el ejemplo ilustrado en la FIG. 14, la unidad 33 detección de objetos tridimensionales calcula la cantidad de desplazamiento que indica el valor máximo del histograma, como la distancia de movimiento r* . De esta forma, en la presente modalidad, puede ser calculada una distancia de movimiento muy precisa a partir del valor máximo, aun cuando exista variabilidad en la cantidad de desplazamiento. La distancia de movimiento r* es la distancia del movimiento relativo del objeto tridimensional con relación al vehículo principal. Por consiguiente, la unidad 33 de detección de objetos tridimensionales calcula la distancia de movimiento absoluta con base en la distancia de movimiento r*, obtenida de esta manera y el detector 20 de velocidad, cuando la distancia de movimiento absoluta debe ser calculada.
De esta forma, en la presente modalidad, la distancia de movimiento del objeto tridimensional se calcula a partir el cantidad de desplazamiento de la forma de onda de la diferencia DWt cuando el error en la forma de onda de la diferencia D t, generada en diferentes momentos, está en un mínimo, y esto permite que la distancia de movimiento sea calculada a partir de la cantidad de desplazamiento, la cual es la información sobre una dimensión en una forma de onda, y permite que el costo de computo se mantenga bajo cuando se calcula la distancia de movimiento. También, dividir la forma de onda de la diferencia DWt en una pluralidad de áreas pequeñas DWti a DWtn, generadas en diferentes momentos permite que se obtenga una pluralidad de formas de onda que representan las posiciones de los objetos tridimensionales, permitiéndose por ello que la cantidad de desplazamiento en capa posición de los objetos tridimensionales sea determinada y permitiendo que la distancia de movimiento sea determinada a partir de una pluralidad de cantidades de desplazamiento. Por lo tanto, la precisión del cálculo de la distancia de movimiento puede ser mejorada. En la presente modalidad, la distancia de movimiento del objeto tridimensional se calcula a partir del cambio en el tiempo de la forma de onda de la diferencia D t, la cual incluye la información en la dirección de altura. En consecuencia, en contraste a que la atención se centre solamente en el movimiento de un único punto, la posición de detección antes del cambio en el tiempo y la posición de detección después del cambio en el tiempo se especifican con la información de la dirección de altura incluida y por consiguiente que se llegue fácilmente a la misma ubicación; la distancia de movimiento se calcula a partir del cambio en el tiempo en la misma posición; y la precisión para calcular la distancia de movimiento puede ser mejorada .
Cuando se debe integrar un histograma, la unidad 33 de detección de objetos tridimensionales puede impartir una ponderación a la pluralidad de áreas pequeñas DWt_ a DWtn, y el conteo de las cantidades de desplazamiento, determinadas para cada una de las áreas pequeñas D ti a D tn de acuerdo con la ponderación para formar el histograma. La FIG. 15 es una vista que ilustra la ponderación usada por la unidad 33 de detección de objetos tridimensionales.
Como se ilustra en la FIG. 15, el área pequeña DWm (donde m es un entero igual o mayor a l e igual o menor a n-1) es plana. En otras palabras, en el área pequeña DWm, hay una pequeña diferencia entre los valores máximo y mínimo del conteo del número de pixeles que indican una diferencia predeterminada. La unidad 33 de detección de objetos tridimensionales reduce la ponderación de este tipo de área pequeña DWm. Esto se debe a que el área pequeña plana DWm carece de una característica y hay una gran posibilidad de que el error sea magnificado cuando se calcula la cantidad de desplazamiento .
Por otro lado, un área pequeña DWm+k (donde k es un entero igual o menor a n-m) tiene abundantes ondulaciones. En otras palabras, en el área pequeña DWm, hay diferencia considerable entre los valores máximo y mínimo del conteo del número de pixeles que indican una diferencia predeterminada. La unidad 33 de detección de objetos tridimensionales incrementa la ponderación de este tipo de área pequeña D m. Esto se debe a que el área pequeña DWm+k con ondulaciones abundantes es característica y existe una alta posibilidad de que la cantidad de deslazamiento será calculada con precisión. La ponderación de las áreas pequeñas de esta forma, hace posible mejorar la precisión para calcular la distancia del movimiento .
La forma de onda de la diferencia DWt se divide en una pluralidad de áreas pequeñas DWti a D tn en la presente modalidad, con el fin de aumentar la precisión para calcular la distancia de movimiento, pero la división en áreas pequeñas DWti a D tn no se requiere cuando la precisión para calcular la distancia de movimiento no es necesaria. En este caso, la unidad 33 de detección de objetos tridimensionales calcula la distancia de movimiento a partir de la cantidad de desplazamiento de la forma de onda de la diferencia DWt cuando el error entre la forma de onda de la diferencia DWt y la forma de onda de la diferencia DWt-i está en un mínimo. En otras palabras, el método para determinar la cantidad de desplazamiento entre la forma de onda de la diferencia DWt-i en un único momento previo y la forma de onda de la diferencia DWt en el momento actual no se limita a los detalles descritos anteriormente .
La unidad 33 de detección de objetos tridimensionales en la presente modalidad determina la velocidad de movimiento del vehículo principal VI (cámara 10) y determina la cantidad de desplazamiento para un objeto estacionario, a partir de la velocidad de movimiento determinada. Después que ha sido determinada la cantidad de desplazamiento del objeto estacionario, la unidad 33 de detección de objetos tridimensionales ignora la cantidad de desplazamiento que corresponde al objeto estacionario, dentro del valor máximo del histograma, y calcula la distancia de movimiento del vehículo adyacente.
La FIG. 16 es una vista que ilustra otro ejemplo del histograma obtenido por la unidad 33 de detección de objetos tridimensionales. Cuando, dentro del ángulo de visión de la cámara 10 está presente un objeto estacionario distinto al objeto tridimensional, dos valores máximos t?, t2 aparecen en el histograma. En este caso, uno de los dos valores máximos t?, t2 es la cantidad de desplazamiento del objeto estacionario. En consecuencia, la unidad 33 de detección de objetos tridimensionales determina la cantidad de desplazamiento para el objeto estacionario, a partir de la velocidad de movimiento, ignora el valor máximo que corresponde a la cantidad de desplazamiento, y calcula la distancia de movimiento del objeto tridimensional, usando el valor máximo restante. Es posible, por lo tanto, evitar una situación en la cual se reduce la precisión para calcular la distancia de movimiento del objeto tridimensional por el objeto estacionario.
Aun cuando se ignore la cantidad de desplazamiento correspondiente al objeto estacionario, puede haber una pluralidad de objetos tridimensionales dentro del ángulo de visión de la cámara 10 cuando hay una pluralidad de valores máximos. Sin embargo, la pluralidad de objetos tridimensionales presentes dentro de las áreas Al, A2 se presenta muy rara vez. Por consiguiente la unidad 33 de detección de objetos tridimensionales deja de calcular la distancia de movimiento. En la presente modalidad, es posible por lo tanto evitar una situación en la cual se calcula la distancia del movimiento errónea, por ejemplo hay una pluralidad de valores máximos.
Enseguida se describe el proceso para detectar un vehículo adyacente de acuerdo con la presente modalidad. La FIG. 17 es un diagrama de flujo que ilustra el proceso para detectar un vehículo adyacente de acuerdo con la presente modalidad. Primero, los datos de la imagen capturada P son adquiridos por la computadora 30, desde la cámara 10 (etapa S101) , y se generan los datos de una imagen de vista a ojo de pájaro (etapa S102) por la unidad 31 de conversión del punto de vista, con base en los datos de la imagen capturada P, así adquirida, como se ilustra en la FIG. 17.
Enseguida,-- la unidad 33 de alineación alinea los datos de la imagen de vista a ojo de pájaro PBt y los datos de la imagen de vista a ojo de pájaro PBt-i en un único momento previo, y genera los datos de la imagen de diferencia PDt (etapa S103) . La unidad 33 de detección de objetos tridimensionales cuenta entonces el número de pixeles de diferencia DP que tienen el valor de "1", para generar por ello la forma de onda de la diferencia DWt, a partir de los datos de la imagen de diferencia PDt (etapa S104).
La unidad 34 de establecimiento de las referencias de detección establece el valor de umbral OÍ para detectar un vehículo adyacente (etapa S105) . Aquí, la FIG. 18 es un diagrama de flujo que ilustra el proceso para establecer el valor de umbral a de la etapa S105. La unidad 34 de establecimiento de las referencias de detección detecta primero los faros de un vehículo adyacente-adyacente o de otra fuente de luz, de la imagen capturada, capturada por la cámara 10 (etapa S201), como se ilustra en la FIG. 18.
Aquí, la unidad 34 de establecimiento de las referencias de detección detecta el área de la imagen, de la imagen capturada, que tiene el tamaño de un valor predeterminado si o mayor, y en la cual, la diferencia en el brillo con los alrededores está en un valor predeterminado sd o mayor, con el fin de eliminar el efecto del ruido y detectar de forma adecuada los faros de otro vehículo como la fuente de luz.
Por consiguiente, la unidad 34 de establecimiento de las referencias de detección somete primero la imagen capturada al procesamiento de bordes y detecta las áreas en las cuales, la diferencia en el brillo con relación a los alrededores, está en el valor predeterminado sd o mayor, estas áreas que son candidatos de la fuente de luz. En la presente modalidad, la unidad 34 de establecimiento de las referencias de detección no se limita al valor predeterminado Sd que es un valor fijo, y puede modificar el valor predeterminado Sd con base en, por ejemplo, la distancia hacia atrás desde la cámara 10 al candidato de la fuente de luz, o la luminancia del área en la cual está presente el candidato de la fuente de luz, con el fin de detectar de forma adecuada la fuente de luz. Por ejemplo, la unidad 34 de establecimiento de las referencias de detección puede tener un mapa de valores de umbral en el cual se establece el valor predeterminado Sd de acuerdo con la luminancia y un mapa de valores de umbral en el cual se establece el valor predeterminado sd de acuerdo con la distancia hacia atrás desde la cámara 10 al candidato de la fuente de luz, compara los dos mapas de valores de umbral, y selecciona el valor predeterminado Sd, más alto, entre el valor predeterminado s¿, obtenido a partir de estos mapas de valores de umbral, como el valor predeterminado sd, para detectar el candidato de la fuente de luz.
La unidad 34 de establecimiento de las referencias de detección detecta entonces el área correspondiente a la fuente de luz, el área de la imagen que tiene el tamaño de un valor predeterminado si o mayor, entre los candidatos de la fuente de luz detectados. El valor predeterminado si tampoco está limitado a ser un valor fijo, y la unidad 34 de establecimiento de las referencias de detección puede modificar el valor predeterminado si de acuerdo con, por ejemplo, la distancia hacia aras desde la cámara 10 al candidato de la fuente de luz. Por ejemplo, cuando la longitud de las áreas de detección Al, A2, en la dirección de avance del vehículo principal es de 10 m, la unidad 34 de establecimiento de las referencias de detección divide las áreas de detección Al, A2 en tres áreas, comenzando desde la posición en las áreas de detección Al, A2 más cercana a la cámara 10: el área Rl, la cual se encuentra de 0 a 1.5 m en la dirección de avance del vehículo principal; el área R2, la cual se encuentra de 1.5 a 6 m; y el área R3, la cual se encuentra de 6 m a 10 m. la unidad 34 de establecimiento de las referencias de detección detecta un área de la imagen en la cual, la longitud y el ancho son, por ejemplo de 5x5 pixeles o más, como el área correspondiente a la fuente de la luz en el área Rl más cercana al vehículo principal y el área R3 más lejana al vehículo principal en las áreas de detección Al, A2, y detecta el área de la imagen en la cual, la longitud y el ancho son, por ejemplo, 7x7 pixeles o más, como el área correspondiente a la fuente de luz en el área R2 en el centro de las áreas de detección Al, A2.
Cuando la fuente de la luz no puede ser detectada en la etapa S201, el valor de umbral . ilustrado en la FIG. 7 se calcula como el valor de umbral para detectar un vehículo adyacente, y se termina el proceso para establecer el valor de umbral a, de la etapa S105.
Enseguida, la unidad 34 de establecimiento de las referencias de detección establece la línea Le que pasa a través de la posición del centroide de la fuente de luz y la posición central de la cámara 10 (etapa S202) , como se ilustra en el dibujo de la derecha de la FIG. 10(A), y la unidad 34 de establecimiento de las referencias de detección calcula además el punto de cruce O entre la linea Le así establecida y el lado L2' en el lado del vehículo adyacente-adyacente del área de detección A2 (etapa S203) . La unidad 34 de establecimiento de las referencias de detección ajusta la ganancia en el valor de umbral de modo tal que el punto de cruce O, calculado en la etapa S203 y la posición de referencia P0, ilustrada en la FIG. 8, coincidan (etapa S204) como se ilustra en el dibujo de la izquierda en la FIG. 10(B) .
La unidad 34 de establecimiento de las referencias de detección modifica el valor de umbral a establecido de acuerdo con la luminancia, usando la ganancia en el valor de umbral a ajustada en la etapa S204, como se ilustra en la FIG. 7, para calcular por ello el valor de umbral a para detectar un vehículo adyacente (etapa S205) . La unidad 34 de establecimiento de las referencias de detección calcula entonces el valor de umbral a para todas las posiciones de detección en las áreas de detección Al, A2, y calcula el valor de umbral a para todas las posiciones de detección en las áreas de detección Al, A2 (etapa S206 = Sí) establece el valor de umbral a para detectar un vehículo adyacente con base en la forma de onda de la diferencia D t, como se ilustra en la FIG.
Regresando a la FIG. 17, la unidad 33 de detección de objetos tridimensionales determina (etapa S106) si el pico de la forma de onda de la diferencia DWt, generada en la etapa S104 es igual o mayor al valor de umbral a que corresponde a la posición en la cual fue detectado el pico de la forma de onda de la diferencia DWt, con base en el valor de umbral establecido en la etapa S105. Cuando el pico de la forma de onda de la diferencia DWt no está en el valor de umbral o superior, es decir, cuando esencialmente no hay diferencia, es posible considerar que no está presente un objeto tridimensional en la imagen capturada P. Por consiguiente, cuando se ha determinado que el pico de la forma de onda de la diferencia DWt no está en el valor de umbral a o mayor (etapa S106=No) , la unidad 33 de estimación de objetos tridimensionales determina que no está presente otro vehículo en el carril adyacente (etapa S115) y termina el proceso ilustrado en la FIG. 17.
Por otro lado, cuando se determina que el pico en la forma de onda de la diferencia DWt está en un valor umbral o¡ o superior (etapa S106= Sí) , la unidad 33 de estimación de objetos tridimensionales determina que un objeto tridimensional está presente en el carril adyacente y procede a la etapa S107, y la forma de onda de la diferencia DWt se divide en una pluralidad de áreas pequeñas DWti a DWtn por la unidad 33 de detección de objetos tridimensionales. La unidad 33 de detección de objetos tridimensionales imparte enseguida una ponderación a cada una de las áreas pequeñas DWti a DWtn (etapa S108), calcula la cantidad de desplazamiento para cada una de las áreas pequeñas DWtl a DWtn (etapa S109) , y genera un histograma con la consideración dada a las ponderaciones (etapa S110) .
La unidad 33 de detección de objetos tridimensionales calcula entonces la distancia de movimiento relativo, la cual es la distancia de movimiento del vehículo adyacente con relación al vehículo principal, con base en el histograma (etapa Slll) . La unidad 33 detección de objetos tridimensionales calcula además la velocidad del movimiento relativo del vehículo adyacente, a partir de la distancia de movimiento relatico (etapa S112) . En este punto, la unidad 33 de detección de objetos tridimensionales diferencia en el tiempo la distancia del movimiento relativo para calcular la velocidad del movimiento relativo y agrega la velocidad del vehículo principal detectada por el detector 20 de velocidad, para calcular la velocidad de movimiento absoluta del vehículo adyacente .
La unidad 33 de detección de objetos tridimensionales determina después si la velocidad de movimiento absoluta del vehículo adyacente es de 10 km/h o más y si la velocidad del movimiento relativo del vehículo adyacente, con relación al vehículo principal, es de +60 km/h o menos (etapa S113) . Cuando ambas condiciones se satisfacen (etapa S113=Si) , la unidad 33 de detección de objetos tridimensionales determina que un vehículo adyacente está presente en el carril adyacente (etapa S114). El proceso ilustrado en la FIG. 17 se termina entonces. Por otro lado, cuando alguna de las condiciones no se satisface (etapa S113=No) , la unidad 33 de detección de objetos tridimensionales determina que no está presente ningún vehículo en el carril adyacente (etapa S115) . El proceso ilustrado en la FIG. 17 se termina entonces.
En la presente modalidad, las áreas de detección Al, A2 son las dirección del lado hacia atrás del vehículo principal, y la atención se enfoca en si el vehículo principal puede hacer contacto posiblemente con un vehículo adyacente si se hace un cambio de carril. Por consiguiente, el proceso de la etapa S113 se ejecuta. En otras palabras, asumiendo que el sistema en la presente modalidad se activa en una autopista, cuando la velocidad de un vehículo adyacente es menor de 10 km/h, rara vez sería un problema si un vehículo adyacente estuviera presente puesto que el vehículo adyacente estaría ubicado muy por detrás del vehículo principal cuando se hace un cambio de carril. De forma similar, cuando la velocidad del movimiento relativo de un vehículo adyacente es superior a +60 km/h con relación al vehículo principal (es decir, cuando el vehículo adyacente se está moviendo a una velocidad de 60 km/h superior a la velocidad del vehículo principal) , rara vez sería un problema puesto que el vehículo adyacente estaría ubicado adelante del vehículo principal cuando se hace el cambio de carril. En consecuencia, se puede considerar que la etapa S113 determina los vehículos adyacentes que serían un problema cuando se haga el cambio de carril.
En la etapa S113, se determina si la velocidad de movimiento absoluta el vehículo adyacente es de 10 km/h o superior, y si la velocidad del movimiento relativo del vehículo adyacente, con relación al vehículo principal es de +60 km/h, obteniéndose por ello el siguiente efecto. Por ejemplo, un posible caso es que la velocidad de movimiento absoluta de un objeto estacionario se detecta como de varios kilómetros por hora dependiendo del error de fijación de la cámara 10. Por consiguiente, determinar si la velocidad es de 10 km/h o mayor hace posible reducir la posibilidad de que los objetos estacionarios sean vehículos adyacentes. También es posible que la velocidad relativa de un vehículo adyacente, con relación al vehículo principal será detectada como superior a +60 km/h debido al ruido. Por consiguiente, determinar si la velocidad relativa es +60 km/h o menor hace posible reducir la posibilidad de la detección errónea debido al ruido.
En lugar del procesamiento de la etapa S113, se puede determinar que la velocidad del movimiento relativo del vehículo adyacente no es un valor negativo, o no es de 0 km/h. También, en la presente modalidad, ya que la atención se centra en si existe la posibilidad de que se hará contacto si el vehículo principal hace un cambio de carril, un sonido de advertencia puede ser emitido al conductor del vehículo principal, o se puede proporcionar un despliegue correspondiente a una advertencia, por medio de un dispositivo de visualización predeterminado, cuando un vehículo adyacente ha sido detectado en la etapa S114.
Por lo tanto, en la primera modalidad, las áreas de detección Al, A2 hacia atrás del vehículo principal son capturadas en diferentes momentos, las imágenes capturadas, así capturadas, se convierten en imágenes de vista a ojo de pájaro, y una imagen de la diferencia PDt se genera con base en la diferencia entre las imágenes de vista a ojo de pájaro en diferentes momentos. El número de pixeles que indica una diferencia predeterminada se cuenta en la dirección en la cual se colapsa el objeto tridimensional debido a la conversión del punto de vista y se forma una distribución de la frecuencia para generar por ello una forma de onda de la diferencia DWt a partir de los datos de la imagen de la diferencia PDt. se determina entonces si el pico en la forma de onda de la diferencia DWt está en un valor de umbral a establecido de acuerdo con la distancia hacia atrás desde la cámara 10 o la relación posicional entre la cámara 10 y la fuente de luz, y cuando el pico en la forma de onda de la diferencia DWt está en el valor de umbral a o superior, se determina que un vehículo adyacente está presente en el carril adyacente, y el vehículo adyacente presente en el carril adyacente puede ser detectado por ello adecuadamente.
En otras palabras, en la presente modalidad, el valor de umbral a se modifica de acuerdo con la luminancia, como se ilustra en la FIG. 7. En la detección de un vehículo adyacente, es posible por lo tanto eliminar el efecto de la luz de los faros de un vehículo adyacente-adyacente que tienen alta luminancia, y detectar adecuadamente un vehículo adyacente. Además, en la presente modalidad, se detectan las fuentes de luz atrás y al lado del vehículo principal, y el valor de umbral a para reducir un vehículo adyacente, se modifica de acuerdo con la posición de las fuentes de luz detectadas. Específicamente, en la presente modalidad, la ganancia en el valor de umbral a se establece alta hacia adelante de la posición de referencia P0 correspondiente a la posición de la fuente de luz, y baja hacia atrás de la posición de referencia P0, como se ilustra en la FIG. 8. De acuerdo con la presente modalidad, ya que el valor de umbral para detectar un vehículo adyacente, puede ser establecido bajo hacia atrás de los faros (fuente de luz), es posible detectar de forma adecuada los neumáticos/ruedas de un vehículo adyacente presente hacia atrás de los faros (fuente de luz) aun cuando, por ejemplo, la iluminancia en la vecindad de los faros (fuente de luz) sea alta debido a la suciedad sobre la lente de la cámara 10, y los neumáticos/ruedas del vehículo adyacente ubicado hacia atrás de los faros (fuente de luz) .
Cuando la luz de los faros (fuente de luz) de un vehículo adyacente-adyacente ilumina el carril adyacente, la luz de los faros (fuente de luz) puede ser reflejada en el carril adyacente y la luz reflejada puede ser detectada en el área hacia delante de los faros (fuente de luz) . Aun en tal caso, de acuerdo con la presente modalidad, el valor de umbral OÍ para detectar un vehículo adyacente en el área hacia delante de los faros (fuente de luz) puede ser aumentado con respecto a la luminancia, y se puede evitar de forma efectiva que la imagen de la luz reflejada que se refleja en un vehículo adyacente se detecte como un vehículo adyacente.
Además, en la presente modalidad, la ganancia del valor de umbral a ilustrada en las FIGS. 9(A) y 9(B) se ajustan de acuerdo con la distancia L en la dirección trasversal del vehículo, desde la posición central de la cámara 10 a la posición del centroide de la fuente de luz. Específicamente, el rango de reducción dh de la ganancia en el valor de umbral a hacia atrás de la posición de referencia Po se reduce, de modo tal que mientras más grande sea la distancia L desde la posición central de la cámara 10 a la posición del centroide de la fuente de luz, mayor está en el valor de umbral a hacia atrás de la fuente de luz, como se ilustra en la FIG. 11. Aquí, mientras más separados estén los faros detectados (fuente de luz) de la cámara 10 en la dirección transversal del vehículo (la dirección del eje X) la posibilidad de que los faros detectados sean los faros de un vehículo adyacente-adyacente, será mayor que la posibilidad de que los faros detectados sean los faros de un vehículo adyacente. Por consiguiente, en la presente modalidad, mientras más grande sea la distancia L desde la posición central de la cámara 10 a la posición del centroide de la fuente de luz, los faros detectados se determinan como aquellos faros del vehículo adyacente-adyacente, y el rango de reducción dh de la ganancia en el valor de umbral OÍ, hacia atrás de la posición de referencia P0 se reduce, como se ilustra en la FIG. 11. El valor de umbral a hacia atrás de la posición de referencia P0, la cual corresponde a la posición de la fuente de luz, puede ser aumentada por ello, en comparación con el caso ilustrado en la FIG. 8, y el efecto de los faros de un vehículo adyacente-adyacente puede ser eliminado más adecuadamente en el área hacia atrás de la fuente de luz. También, de modo similar, el efecto de los faros de un vehículo adyacente-adyacente puede ser aluminado más adecuadamente aun cuando el rango dw en el cual se reduce la ganancia en el valor de umbral a se reduce, se estrecha con respecto a la ganancia del valor de umbral en la posición de referencia P0 de modo comparable con el aumento en la distancia L desde la posición central de la cámara 10 a la posición del centroide de la fuente de luz, como se ilustra en la FIG. 12.
Modalidad 2 Enseguida se describe un dispositivo la de detección de objetos tridimensionales de acuerdo con la segunda modalidad. El dispositivo la de detección de objetos tridimensionales de acuerdo con la segunda modalidad es igual al de la primera modalidad, excepto que se proporciona una computadora 30a en lugar de la computadora 30 de la primera modalidad, como se ilustra en la FIG. 19, y la operación es como se describe a continuación. Aquí, la FIG. 19 es un diagrama de bloques que ilustra los detalles de la computadora 30a de acuerdo con la segunda modalidad.
El dispositivo la de detección de objetos tridimensionales de acuerdo con la segunda modalidad cuenta con una cámara 10 y una computada 30a como se ilustra en la FIG. 19. La computadora 30a cuenta con una unidad 31 de conversión del punto de vista, una unidad 35 de cálculo de la diferencia de luminancia, y una unidad 36 de detección de las lineas de borde, una unidad 33a de detección de objetos tridimensionales, y una unidad 34a de establecimiento de las referencias de detección. Las configuraciones del dispositivo la de detección de objetos tridimensionales de acuerdo con la segunda modalidad se describen a continuación.
Las FIGS. 20(a) y 20(b) son unas vistas que ilustran el rango de captura de imagen de la cámara 10 en las FIGS. 10(A) y 10(B), la FIG. 20(a) es una vista plana, y la FIG. 20(b) es una vista en perspectiva, en el espacio real hacia atrás del vehículo principal VI. La cámara 10 se fija en un ángulo de visión predeterminado a, y el lado hacia atrás del vehículo principal VI incluido en el ángulo de visión a se captura, como se ilustra en la FIG. 20(a) . el ángulo de visión a de la cámara 10 se ajusta de modo tal que los carriles adyacentes sean incluidos en el rango de captura de la cámara 10 además del carril en el cual está viajando el vehículo VI, de la misma forma como se ilustra en la FIG. 2.
Las áreas de detección Al, A2 en el presente ejemplo son trapezoidales en una vista plana (el estado de vista a ojo de pájaro) , la posición, el tamaño, y la forma de las áreas de detección Al, A2 se deciden con base en las distancias, di a d . Las áreas de detección Al, A2 del ejemplo ilustrado en el dibujo no se limitan a ser trapezoidales, y también pueden ser rectangulares o de otra forma, en el estado de vista a ojo de pájaro, como se ilustra en la FIG. 2.
Aquí, la distancia di es la distancia desde el vehículo principal VI a las líneas Ll, L2. Las líneas del suelo Ll, L2 se refieren a una línea en la cual, el objeto tridimensional, el cual está presente en un carril adyacente al carril en el cual está viajando el vehículo principal VI, está en contacto con el suelo. En la presente modalidad, el objetivo es detectar un vehículo adyacente V2 o los similares (incluyendo los vehículos de dos ruedas o los similares) que viajan en el carril a la izquierda o a la derecha detrás del vehículo principal VI y adyacentes al carril del vehículo principal VI. Por consiguiente, la distancia di, la cual es la posición de las líneas del suelo Ll, L2 del vehículo adyacente V2 puede ser decidida para ser sustancialmente fijas, a partir de la distancia dll desde el vehículo principal VI a una línea blanca W y la distancia dl2 desde la línea blanca W a la posición en la cual se supone que el vehículo V2 está viajando.
La distancia di no se limita a ser decidida de forma constante, y puede ser variable. En este caso, la computadora 30a reconoce la posición de la línea blanca con relación al vehículo principal VI, usando reconocimiento de líneas blancas u otra técnica, y la distancia dll se decide con base en la posición de la línea blanca reconocida W. La distancia di se establece de forma variable por lo tanto, usando la distancia decidida dll. En la presente modalidad descrita a continuación, la posición en la cual está viajando el vehículo adyacente V2 (la distancia dl2 desde la línea blanca W) y la posición en la cual está viajando el vehículo principal VI (la distancia dll) desde la línea blanca W) en la mayoría de los casos es predecible, y la distancia di se decide como constante .
La distancia d2 es la distancia que se extiende desde la parte de extremo posterior del vehículo principal VI en la dirección de avance del vehículo. La distancia d2 se decid de modo tal que las áreas de detección Al, A2 estén alojadas dentro de al menos el ángulo de visión a de la cámara 10. En la presente modalidad, en particular, la distancia d2 se establece para estar en contacto con un rango dividido dentro del ángulo de visión a. la distancia d3 indica la longitud de las áreas de detección Al, A2 en la dirección de avance del vehículo. La distancia d3 se decide con base en el tamaño del objeto tridimensional a ser detectado. En la presente modalidad, el objeto a ser detectado es un vehículo adyacente V2 o los similares, y por lo tanto, la distancia d3 se ajusta a una longitud que incluya el vehículo adyacente V2.
La distancia d4 indica la altura, la cual ha sido ajustada de modo tal que los neumáticos del vehículo adyacente V2 o los similares sean incluidos en el espacio real, como se ilustra en la FIG. 20(b) . En la imagen de vista a ojo de pájaro, la distancia d4 es la longitud ilustrada en la FIG. 20(a) . La distancia d4 también puede ser una longitud que no incluye los carriles adyacentes a la izquierda y a la derecha de los carriles adyacentes, en la imagen de vista a ojo de pájaro (es decir, los carriles adyacentes-adyacentes dos carriles más allá) . Es decir, puesto que cuando se incluyen los carriles, dos carriles más allá desde el carril del vehículo principal VI, ya no es posible distinguir si un vehículo adyacente V2 está presente en los carriles adyacentes a la izquierda y a la derecha del carril en el cual está viajando el vehículo principal VI, o si un vehículo adyacente-adyacente está presente en un carril adyacente dos carriles más allá.
Como se describe anteriormente, las distancias di a d4 se deciden, y la posición, el tamaño, y la forma de las áreas de detección Al, A2 se deciden por lo tanto. Más específicamente la posición del lado superior bl de las áreas de detección Al, A2 que forman un trapezoide, se decide por la distancia di. La posición inicial Cl del lado superior bl se decide por la distancia d2. La posición final C2 del lado superior bl se decide por la distancia d3. El lado lateral b2 de las áreas de detección Al, A2 que forma un trapezoide se decide por la línea recta L3 que se extiende desde la cámara 10 hacia la posición inicial Cl. De forma similar, el lado lateral b3 de las áreas de detección Al, A2 que forman un trapezoide, se decide por una línea recta L4 que se extiende desde la cámara 10 hacia la posición final C2. La posición del lado inferior b4 de las áreas de detección Al, A2 que forman un trapezoide se decide por la distancia d4. De esta forma, las áreas rodeadas por los lados bl a b4 son las áreas de detección Al, A2. Las áreas de detección Al, A2 son cuadros rectangulares (rectángulos) en el espacio real hacia atrás del vehículo principal VI, como se ilustra en la FIG. 20 (b) . regresando a la FIG. 19, la unidad 31 de conversión del punto de vista adapta la entrada de los datos de la imagen capturada de un área predeterminada capturada por la cámara 10. La unidad 31 de conversión del punto de vista convierte el punto de vista de la imagen capturada en datos de imagen de vista a ojo de pájaro, el cual es un estado de vista a ojo de pájaro. El estado de vista a ojo de pájaro es el estado de visualización desde el punto de vista de una cámara imaginaria que está observando hacia abajo de arriba, por ejemplo verticalmente hacia abajo (o ligeramente inclinada hacia abajo) . La conversión del punto de vista puede ser llevada a cabo usando la técnica descrita en, por ejemplo, la Solicitud de Patente Japonesa Abierta a Inspección Pública, No. 2008.219063.
La unidad 35 de cálculo de la diferencia de luminancia calcula las diferencias de luminancia en los datos de la imagen de vista a ojo de pájaro, los cuales han experimentado la conversión del punto de vista por la unidad 31 de conversión del punto de vista, con el fin de detectar los bordes del objeto tridimensional incluido en la imagen de vista a ojo de pájaro. La unidad 35 de cálculo de la diferencia de luminancia calcula, para cada una de una pluralidad de posiciones a lo largo de una linea imaginaria perpendicular que se extiende en la dirección perpendicular en el espacio real, la diferencia de luminancia entre dos pixeles cerca de cada posición. La unidad 35 de cálculo de la diferencia de luminancia es capaz de calcular la diferencia en la luminancia por medio de un método para establecer una linea imaginaria perpendicular única que se extiende en la dirección perpendicular en el espacio real, o un método para establecer las lineas imaginarias perpendiculares.
A continuación se describe el método especifico para establecer dos lineas imaginarias perpendiculares. La unidad 35 de cálculo de la diferencia de luminancia establece una primera linea imaginaria perpendicular que corresponde al segmento que se extiende en la dirección perpendicular en el espacio real, y una segunda linea imaginaria perpendicular que es diferente de la primera linea imaginaria perpendicular y que corresponde al segundo de linea que se extiende en la dirección perpendicular en el espacio real. La unidad 35 de cálculo de la diferencia de luminancia determina la diferencia de la luminancia entre un punto sobre la primera linea imaginaria perpendicular y un punto sobre la segunda línea imaginaria perpendicular en modo continuo, a lo largo de la primera línea imaginaria perpendicular y la segunda línea imaginaria perpendicular. La operación de la unidad 36 de cálculo de la diferencia de la luminancia se describe en detalle a continuación.
La unidad 35 de cálculo de la diferencia de luminancia establece una primera linea imaginaria perpendicular La (conocida de aquí en adelante como la linea de atención La) que corresponde a un segmento de linea que se extiende en la dirección perpendicular en el espacio real y que pasa a través del área de detección Al, como se ilustra en la FIG. 21(a) . La unidad 35 de cálculo de la diferencia de luminancia establece una segunda linea imaginaria perpendicular Lr (conocida de aquí en adelante como la linea de referencia Lr) que es diferente de la linea de atención La, corresponde al segmento de linea que se extiende en la dirección perpendicular en el espacio real, y pasa a través del área de detección Al. Aqui, la linea de referencia Lr se establece en una posición a una distancia desde la linea de atención La a una distancia predeterminada en el espacio real. Las lineas que corresponden a los segmentos de linea que se extiende en la dirección perpendicular en el espacio real son lineas que se extienden en la dirección radial desde la posición Ps de la cámara 10 en la imagen de vista a ojo de pájaro. Estas lineas que se extienden en la dirección radial son lineas que siguen la dirección de colapso del objeto tridimensional, cuando se convierte a una vista a ojo de pájaro.
La unidad 35 de cálculo de la diferencia de luminancia establece un punto de atención Pa sobre la linea de atención La (un punto sobre la primera linea imaginaria perpendicular) . La unidad 35 de cálculo de la diferencia de la luminancia establece un punto de referencia Pr sobre la linea de referencia Lr (un punto sobre la segunda linea imaginaria perpendicular) . La linea de atención La, el punto de atención Pa, la linea de referencia Lr, y el punto de referencia Pr tienen la relación en el espacio real ilustrada en la FIG. 21(b). Es aparente por la FIG. 21(b) que la linea de atención La y la linea de referencia Lr son lineas que se extienden en la dirección perpendicular en el espacio real, y que el punto de atención Pa y el punto de referencia Pr son puntos establecidos sustancialmente a la misma altura en el espacio real. No se requiere rigurosamente que el punto de atención Pa y el punto de referencia Pr se mantengan a la misma altura, y se permite una cierta cantidad de error que permita que el punto de atención Pa y el punto de referencia Pr sean considerados como a la misma altura.
La unidad 35 de cálculo de la diferencia de la luminancia determina la diferencia de la luminancia entre el punto de atención Pa y el punto de referencia Pr. Si la diferencia en la luminancia entre el punto de atención Pa y el punto de referencia Pr es grande, es posible que el borde esté presente entre el punto de atención Pa y el punto de referencia Pr. En la segunda modalidad en particular, se establece una linea imaginaria perpendicular como un segundo de línea que se extiende en la dirección perpendicular en el espacio real con relación a la imagen de vista a ojo de pájaro, con el fin de detectar un objeto tridimensional presente en las áreas de detección Al, A2. Por lo tanto, existe una alta posibilidad de que haya un borde de un objeto tridimensional en la ubicación donde ha sido establecida la línea de atención La, cuando la diferencia de la luminancia entre la línea de atención La y la línea de referencia Lr es alta. Por consiguiente, la unidad 36 de detección de las líneas de borde ilustrada en la FIG. 19 detecta la línea de borde con base en la diferencia de la luminancia entre el punto de atención Pa y el punto de referencia Pr.
Este punto se describirá con mayor detalle. Las FIGS. 22(a) y 22(b) son unas vistas para describir la operación detallada de la unidad 35 de cálculo de la diferencia de luminancia. La FIG. 22(a) ilustra una imagen de vista a ojo de pájaro del estado de vista a ojo de pájaro, y la FIG. 22(b) es una vista agrandada de la vis a ojo de pájaro de una porción Bl de la imagen de vista a ojo de pájaro de una porción Bl de la imagen de vista a como de pájaro ilustrada en la FIG. 22(a). En las FIGS. 22(a) y 22(b), solo se ilustran y se describe el área de detección Al, pero la diferencia de la luminancia ser calcula usando el mismo procesamiento para el área de detección A2.
Cuando el vehículo adyacente V2 está siendo visualizado en la imagen capturada por la cámara 10, el vehículo adyacente V2 aparece en el área de detección Al en la imagen de vista a ojo de pájaro, como se ilustra en la FIG. 22(a) . La linea de atención La se establece como una porción del caucho de un neumático del vehículo adyacente V2 en la imagen de vista a ojo de pájaro en la FIG. 22(b), como se ilustra en la vista agrandada del área Bl en la FIG. 22(a) . En este estado, primero, la unidad 35 de cálculo de la diferencia de luminancia establece la línea de referencia Lr. La línea de referencia Lr se establece en la dirección perpendicular, en una posición establecida a una distancia predeterminada en el espacio real desde la línea de atención La. Específicamente, en el dispositivo la de detección de objetos tridimensionales de acuerdo con la presente modalidad, la línea de referencia Lr se establece en una posición a una distancia alejada 10 cm, en el espacio real, de la línea de atención La. La línea de referencia Lr se establece por lo tanto sobre la rueda del neumático del vehículo adyacente V2 establecido, por ejemplo, a una distancia que corresponde a 10 cm desde el caucho del neumático del vehículo adyacente V2 en la imagen de vista a ojo de pájaro.
Enseguida, la unidad 35 de cálculo de la diferencia de luminancia establece una pluralidad de puntos de atención Pal a PaN sobre la línea de atención La. En la FIG. 22(b), por motivos de conveniencia de la descripción, se establecen seis puntos de atención (conocidos de aquí en adelante como el punto de atención Pai cuando indica un punto arbitrario) . Un número arbitrario de puntos de atención Pa puede ser establecido sobre la linea de atención La. En la siguiente descripción, N puntos de atención se establecen sobre la linea de atención La.
La unidad 35 de cálculo de la diferencia de luminancia establece posteriormente los puntos de referencia Prl a PrN para que tengan la misma altura que los puntos de atención Pal a PaN en el espacio real. La unidad 35 de cálculo de la diferencia de luminancia calcula la diferencia de la luminancia entre los pares de puntos de atención Pa y puntos de referencia Pr a la misma altura. La unidad 35 de cálculo de la diferencia de luminancia calcula por lo tanto la diferencia de la luminancia entre dos pixeles para cada pluralidad de posiciones (1-N) a lo largo de la linea imaginaria perpendicular que se extiende en la dirección perpendicular en el espacio real. La unidad 35 de cálculo de la diferencia de luminancia calcula la diferencia de la luminancia entre, por ejemplo, un primer punto de atención Pal y un primer punto de referencia Prl, y calcula la diferencia de la luminancia entre un segundo punto de atención Pa2 y un segundo punto de referencia Pr2. La unidad 35 de cálculo de la diferencia de luminancia determina por lo tanto la diferencia de la luminancia en un modo continuo, a lo largo de la linea de atención La y la linea de referencia Lr. En otras palabras, la unidad 35 de cálculo de la diferencia de luminancia determina secuencialmente la diferencia de la luminancia entre el tercero al Nésimo puntos de atención Pa3 a PaN y el tercero al Nésimo puntos de referencia Pr3 a PrN.
La unidad 35 de cálculo de la diferencia de luminancia repite el proceso para el establecimiento de la linea de referencia Lr descrita anteriormente, el establecimiento del punto de atención Pa, el establecimiento del punto de referencia Pr, y el cálculo de la diferencia de la luminancia mientras que se desplaza la linea de atención La dentro del área de detección Al. En otras palabras, la unidad 35 de cálculo de la diferencia de luminancia ejecuta repetidamente el proceso descrito anteriormente mientras que cambia las posiciones de la linea de atención La y la linea de referencia Lr a la misma distancia en el espacio real, en la dirección en la cual se extiende la linea de tierra Ll. La unidad 35 de cálculo de la diferencia de luminancia, por ejemplo, establece la linea que fue la linea de referencia Lr en el proceso previo, para ser la linea de atención La, establece la linea de referencia Lr con relación a la linea de atención La, y determina secuencialmente la diferencia de la luminancia.
De esta forma, en la segunda modalidad, la determinación de la diferencia de la luminancia a partir del punto de atención Pa sobre la linea de atención La y el punto de referencia Pr sobre la linea de referencia Lr, los cuales están sustancialmente a la misma altura en el espacio real, permite que la diferencia de la luminancia sea detectada claramente cuando está presente un borde que se extiende en la dirección perpendicular. La precisión para detectar un objeto tridimensional puede ser mejorada sin que se vea afectado el proceso para detectar el objeto tridimensional aun cuando el objeto tridimensional sea agrandado de acuerdo con su altura desde la superficie de la carretera por la conversión a una imagen de vista a ojo de pájaro, con el fin de comparar la luminancia entre las lineas imaginarias perpendiculares que se extienden en la dirección perpendicular en el espacio real.
Regresando a la FIG. 19, la unidad 36 de detección de las lineas de borde detecta la linea de borde a partir de la diferencia de la luminancia continua, calculada por la unidad 35 de cálculo de la diferencia de la luminancia. Por ejemplo, en el caso ilustrado en la FIG. 22 (b) , el primer punto de atención Pal y el primer punto de referencia Prl se posicionan en la misma porción del neumático, y la diferencia de la luminancia es pequeña por lo tanto. Por otro lado, el segundo al sexto puntos de atención Pa2 a Pa6 se posicionan en porciones del caucho del neumático, y el segundo al sexto puntos de referencia Pr2 a Pr6 se posicionan en la porción de la rueda del neumático. Por lo tanto, la diferencia de la luminancia entre el segundo al sexto puntos de atención Pa2 a Pa2 y el segundo al sexto punto de referencia Pr2 a Pr6 es grande. Por consiguiente, la unidad 36 de detección de las lineas de borde es capaz de detectar que un borde está presente ente el segundo al sexto puntos de atención Pa2 a Pa6 y el segundo al sexto puntos de referencia Pr2 a Pr6, cuando la diferencia de la luminancia es alta.
Específicamente, cuando la línea de borde debe ser detectada, la unidad 36 de detección de las líneas de borde asigna primero un atributo al iésimo punto de atención Pai a partir de la diferencia de la luminancia entre el iesimo punto de atención Pai (coordenadas (xi, yi) ) al _ésimo punto de referencia Pri (coordenadas ( i', yi' ) de acuerdo con la fórmula 1 indicada a continuación.
Fórmula 1 s(xi, yi) = 1 cuando I(xi, yi) > I(xi', yi')+t s(xi, yi) = -1 cuando I (xi, yi) < I (??' , yi')-t s(xi, yi) = 0 cuando lo anterior no resulta cierto.
En la fórmula 1 anterior, t representa un valor de umbral predeterminado, I(xi, yi) representa el valor de la luminancia del iésim° punto de atención, Pai, y I(xi', yi' ) representa el valor de la luminancia del j_ésim° punto de referencia Pri. De acuerdo con la fórmula 1, el atributo s(xi, yi) del punto de atención Pai es ? 1' cuando el valor de la luminancia del punto de atención Pai es mayor que el valor de la luminancia objetivo al sumar el valor de umbral t al punto de referencia Pri. Por otro lado, el atributo s(xi, yi) del punto de atención Pai es cuando el valor de la luminancia del punto de atención Pai es menor que el valor de la luminancia obtenido al restar el valor de umbral t del punto de referencia Pri. El atributo s (xi, yi) del punto de atención Pai es 0' cuando el valor de la luminancia del punto de atención Pai y el valor de la luminancia del punto de referencia Pri tienen una relación distinta a la establecida anteriormente .
Enseguida, la unidad 36 de detección de las lineas de borde evalúa si la linea de atención La es una linea de borde, a partir de la continuidad c(xi, yi) del atributo s a lo largo de la linea de atención La, con base en la siguiente fórmula 2.
Fórmula 2 c(xi, yi) = 1 cuando s(xi, yi) = s(xi+l, yi+1) (excepto cuando 0=0) c(xi, yi)=0 cuando lo anterior no resulta cierto.
La continuidad c(xi, yi) es l' cuando el atributo s (xi, yi) del punto de atención Pai y el atributo s(xi+l, yi+1) del punto de atención Pai+1 son iguales. La continuidad c(xi, yi) es ?0' cuando el atributo s(xi, yi) del punto de atención Pai y el atributo s(xi+l, yi+1) del punto de atención adyacente Pai+1 no son iguales.
Enseguida, la unidad 36 de detección de las lineas de borde determina la suma de las continuidades c de todos los puntos de atención Pa sobre la linea de atención La. La unidad 36 de detección de las lineas de borde divide la sima de las continuidades c asi determinadas por el número N de puntos de atención Pa, para normalizar por ello la continuidad c. la unidad 36 de detección de las lineas de borde determina que la linea de atención La es la linea de borde, cuando el valor normalizado ha excedido el valor de umbral T. el valor de umbral T se establece de antemano por medio de experimentación u otros medios.
En otras palabras, la unidad 36 de detección de las lineas de borde determina si la linea de atención La es una linea de borde, con base en la fórmula 3 indicada a continuación. La unidad 36 de detección de las lineas de borde determina entonces si todas las lineas de atención La dibujadas sobre el área de atención Al, son lineas de borde.
Fórmula 3 ?c(xi, yi)/N > T De esta forma, en la segunda modalidad, el atributo asignado al punto de atención Pa, basado en la diferencia de la luminancia entre el punto de atención Pa sobre la linea de atención La y el punto de referencia Pr sobre la linea de referencia Lr, y se determina si la linea de atención La es una linea de borde, con base en la continuidad c de los atributos a lo largo de la linea de atención La. Por lo tanto, los limites entre las áreas que tienen alta luminancia y las áreas que tienen baja luminancia se detectan como linea de borde, y los bordes pueden ser detectados de acuerdo con los sentidos naturales del humano. Los resultados de lo anterior se describirán a continuación. La FIG. 23 es una vista que un ejemplo de la imagen para describir el procesamiento de la unidad 36 de detección de las lineas de borde. Este ejemplo de la imagen es una imagen en la cual, un primer patrón 101 de bandas y un segundo patrón 102 de bandas están adyacentes uno al otro, el primer patrón 101 de bandas que indica un patrón de bandas en el cual, la áreas de luminancia alta y las áreas de luminancia baja se repiten, y el segundo patrón 102 de bandas que indica un patrón de bandas en el cual, las áreas de luminancia baja y las áreas de luminancia alta se repiten. También, en este ejemplo de imagen, las áreas del primer patrón 101 de bandas, en las cuales la luminancia es alta, y las áreas del segundo patrón 102 de bandas, en las cuales la luminancia es baja, están adyacentes entre si, y las áreas del primer patrón 101 de bandas, en las cuales la luminancia es baja, y las áreas del segundo patrón 102 de bandas, en el cual la luminancia es alta están adyacentes entre si. La ubicación 103 posicionada sobre el limite entre el primer patrón 101 de bandas y el segundo patrón 102 de bandas tiende a no ser percibido como un borde por las lentes humanas.
En contraste, puesto que las áreas de luminancia baja y las áreas de luminancia alta están adyacentes entre si, la ubicación 103 se reconoce como un borde cuando se detecta un borde solamente por la diferencia de la luminancia. Sin embargo, la unidad 36 de detección de las lineas de borde evalúa la ubicación 103 como una linea de borde, solamente cuando hay una continuidad en los atributos de la diferencia de la luminancia. Por lo tanto, la unidad 36 de detección de las lineas de borde es capaz de suprimir la evaluación errónea, en la cual la ubicación 103, la cual no se reconoce como la linea de borde por los sentidos humanos, se reconoce como la linea de borde, y los bordes pueden ser detectados de acuerdo con los sentidos humanos.
Volviendo a la FIG. 19, la unidad 33a de detección de objetos tridimensionales detecta un objeto tridimensional con base en la cantidad de lineas de borde detectadas por la unidad 36 de detección de linea de borde. Como se describe anteriormente, el dispositivo la de detección de objetos tridimensionales de acuerdo con la presente modalidad detecta una linea de borde que se extiende en la dirección perpendicular en el espacio real. Detectar muchas lonas de borde que se extienden en la dirección perpendicular indica que hay una alta posibilidad de que un objeto tridimensional esté presente en las áreas de detección Al, A2. Por consiguiente, la unidad 33a de detección de objetos tridimensionales detecta un objeto tridimensional con base en la cantidad de lineas de borde detectadas por la unidad 36 de detección de lineas de borde. Específicamente, la unidad 33a de detección de objetos tridimensionales determina si la cantidad de línea de borde detectadas por la unidad 36 de detección de líneas de borde es una valor de umbral predeterminado ß o superior, y cuando la cantidad de líneas de borde es un valor de umbral predeterminado ß o superior, las líneas de borde detectadas por la unidad 36 de detección de líneas de borde se determinan como las líneas de borde de un objeto tridimensional, y un objeto tridimensional con base en las líneas de borde se detecta por lo tanto como un vehículo adyacente V2.
Por lo tanto, la forma de onda es un modo de información de distribución de los pixeles que indican una diferencia de luminancia predeterminada, y la "información de distribución de los pixeles", en la presente modalidad, puede ser posicionada con la información que indica el estado de distribución de los "pixeles que tienen una diferencia de la luminancia en un valor de umbral predeterminado o superior" como se detecta en la dirección en la cual se colapsa el objeto tridimensional cuando la imagen convertida se convierte en una imagen de vista a ojo de pájaro. En otras palabras, la unidad 33a de detección de objetos tridimensionales detecta, en la imagen de vista a ojo de pájaro obtenida por la unidad 31 de conversión del punto de vista, la información de distribución de los pixeles en los cuales la diferencia de la luminancia es un valor de umbral t o superior, en la dirección en la cual se colapsa el objeto tridimensional cuando se realiza la conversión en el punto de vista a una imagen de vista a ojo de pájaro, y detecta un objeto tridimensional con base en la información de distribución de los pixeles (lineas de borde) cuando el grado de distribución de los pixeles (cantidad de lineas de borde) en la dirección en la cual se colapsa el objeto tridimensional está en un valor de umbral predeterminado ß o superior.
En la segunda modalidad, el valor de umbral ß para detectar un vehículo adyacente es establecido por la unidad 34 de establecimiento de las referencias de detección. En otras palabras de la misma forma como la primera modalidad, en la segunda modalidad, la unidad 34a de establecimiento de las referencias de detección establece el valor de umbral ß de acuerdo con la luminancia, como se ilustra en la FIG. 24, y además modifica la ganancia en el valor de umbral ß de acuerdo con la posición de la fuente de luz detectada hacia atrás, desde el vehículo principal, como se ilustra en la FIG. 25. Además, de la misma forma como la primera modalidad, la unidad 34 de establecimiento de las referencias de detección hace que la posición de la fuente de luz y la posición de referencia P0, ilustradas en la FIG. 25 coincidan; y ajusta la ganancia en el valor de umbral ß ilustrada en la FIG. 25 y ajusta el rango de reducción dh en la ganancia del valor de umbral ß ilustrada en la FIG. 25, y el rango dw en el cual se reduce la ganancia del valor de umbral ß, de acuerdo con la distancia L en la dirección transversal del vehículo desde la posición central de la cámara 10 a la posición del centroide de la fuente de luz, de la misma forma como la primera modalidad, la unidad 34a de establecimiento de las referencias de detección establece entonces el valor de umbral ß en cada posición en las áreas de detección Al, A2, en la dirección de avance del vehículo principal, de acuerdo con la luminancia, como se ilustra en la FIG. 24, y modifica el valor de umbral ß así establecido, de acuerdo con la ganancia en el valor de umbral ß, la cual ha sido ajustada de acuerdo con la posición de la fuente de luz.
Además, antes de detectar el objeto tridimensional, la unidad 33a de detección de objetos tridimensionales evalúa si las líneas de borde detectadas por la unidad 36 de detección de líneas de borde son correctas. La unidad 33a de detección de objetos tridimensionales evalúa si el cambio en la luminancia sobre las líneas de borde es un valor de umbral predeterminado tb o mayor, a lo largo de las líneas de borde de la imagen de vista a ojo de pájaro. Cuando el cambio en la lurainancia sobre las línea de borde en la imagen de vista a ojo de pájaro es un valor de umbral predeterminado tb o superior, se determina que las líneas de borde han sido detectadas por una evaluación errónea. Por otro lado, cuando el cambio en la luminancia sobre las líneas de borde en la imagen de vista a ojo de pájaro es menor que un valor de umbral predeterminado tb, se determina que las líneas de borde son correctas. El valor de umbral tb se establece de antemano mediante experimentación u otros medios. Las FIGS. 26(a) y 26 (b) son unas vistas que ilustran la distribución de la luminancia de la línea de borde, la FIG. 26(a) ilustra la línea de borde y la distribución de la luminancia cuando un vehículo adyacente V2, como un objeto tridimensional, está presente en el área de detección Al, y la FIG. 26(b) ilustra la línea de borde y la distribución de la luminancia cuando no está presente un objeto tridimensional en el área de detección Al.
Como se ilustra en la FIG. 26(a), se asume que ha sido determinado que la línea de atención La establecida sobre la porción del caucho del vehículo adyacente V2 está sobre una línea de borde en la imagen de vista a ojo de pájaro, en este caso, el cambio en la luminancia sobre la línea de atención La en la imagen de vista a ojo de pájaro es gradual. Esto se debe a que la imagen capturada por la cámara 10, se somete a la conversión del punto de vista a una imagen de vista a ojo de pájaro, por lo cual, los neumáticos del vehículo adyacente se agrandada dentro de la imagen de vista a ojo de pájaro. Por otro lado, se asume que la linea de atención La establecida en la porción del carácter "50" dibujada sobre la superficie de la carretera en la imagen de vista a ojo de pájaro, ha sido determinado de forma errónea como una linea de borde, como se ilustra en la FIG. 26(b) . En este caso, el cambio en la luminancia sobre la linea de atención La en la imagen de vista a ojo de pájaro tienen ondulaciones considerables. Esto se debe a que la carretera y otras porciones de luminancia baja están mezcladas con las porciones de luminancia alta en los caracteres blancos sobre la linea de borde.
La unidad 33a de detección de objetos tridimensionales determina si ha sido detectada una linea de borde por una determinación errónea con base en las diferencias en la distribución de la luminancia sobre la linea de atención La, como se describe anteriormente. La unidad 33a de detección de objetos tridimensionales determina que la linea de borde ha sido detectada por una evaluación errónea cuando el cambio en la luminancia a lo largo de la linea de borde está en un valor de umbral predeterminado tb o superior, y determina que la linea de borde no ha sido provocada por un objeto tridimensional. La reducción en la precisión para detectar un objeto tridimensional se suprime por ello, cuando los caracteres blancos tales como "50" sobre la superficie de la carreta, la vegetación al lado de la carretera, y los similares se determinan como las lineas de borde. Por otro lado, la unidad 33a de detección de objetos tridimensionales determina que una linea de borde es la linea de borde de un objeto tridimensional y determina que un objeto tridimensional está presente cuando los cambios en la luminancia a lo largo de la linea de borde, son menores que un valor de umbral th predeterminado.
Específicamente, la unidad 33a de detección de objetos tridimensionales calcula el cambio en la luminancia de la línea de borde, usando la fórmula 4 o 5 indicadas a continuación. El cambio en la luminancia de la línea de borde corresponde al valor de evaluación en el espacio real, en la dirección perpendicular. La fórmula 4 evalúa la distribución de la luminancia usando el valor total del cuadrado de la diferencia entre el iesimo valor de la luminancia I(xi, yi) y el iésim0+l valor de la luminancia adyacente I(xi+1, yi+1) sobre la línea de atención La. La fórmula 5 evalúa la distribución de la luminancia usando el valor total del valor absoluto de la diferencia entre el iésimo valor de la luminancia I (xi, yi) y el iésimo+l valor de la luminancia adyacente I(xi+1, yi+1) sobre la línea de atención La.
Fórmula 4 Valor de evaluación en la dirección equivalente perpendicular = ?[{I(xi, yi)-I(xi+l, yi+1)2}] Formula 5 Valor de evaluación en la dirección equivalente perpendicular = ? | I (xi, yi)-I(xi+l, yi+1) I No se impone ninguna limitación en el uso de la fórmula 5, y también es posible binarizar el atributo b de un valor adyacente de la luminancia usando un valor de umbral t2, y entonces suma el atributo b binarizado para todos los puntos de atención Pa, como en la fórmula 7 indicada a continuación.
Fórmula 6 Evaluación en la dirección equivalente perpendicular = ?b(xi, yi) donde b(xi, yi) = 1 cuando |I(xi, yi)-I(xi+l, yi+l) |> t2 y b(xi, yi)=0 cuando lo anterior no resulta cierto.
El atributo b(xi, yi) del punto de atención Pa(xi, yi) es ?1' cuando el valor absoluto de la diferencia de la luminancia entre el valor de la luminancia del punto de atención Pai y el valor de la luminancia del punto de referencia Pri es mayor que el valor de umbral t2. Cuando la relación anterior no resulta cierta, el atributo b(xi, yi) del punto de atención Pai es 0' . El valor de umbral t2 se establece de antemano por medio de experimentación u otros medios, de modo tal que no se determine que la linea de atención está sobre el mismo objeto tridimensional. La unidad 33a de detección de objetos tridimensionales suma entonces el atributo b de todos los puntos de atención Pa sobre la línea de atención La y determina el valor de la evaluación en la dirección equivalente perpendicular para determinar por ello si la línea de borde es provocada por un objeto tridimensional y que un objeto tridimensional está presente.
Enseguida, se describirá el método para detectar un vehículo adyacente de acuerdo con la segunda modalidad. La FIG. 27 es un diagrama de flujo que ilustra los detalles del método para detectar un vehículo adyacente de acuerdo con la presente modalidad. En la FIG. 27, el proceso involucrado con el área de detección Al se describirá por motivos de conveniencia, pero el mismo proceso se ejecuta también para el área de detección A2.
Primero, en la etapa S301, un área predeterminada especificada por el ángulo de visión a y la posición de fijación se captura por la cámara 10 y los datos de imagen, de la imagen capturada P, capturada por la cámara 10, zona adquiridos por la computadora 30a. Enseguida, la unidad 31 de conversión del punto de vista realiza la conversión del punto de vista de los datos de la imagen adquiridos, genera los datos de imagen de la vista a ojo de pájaro en la etapa S302.
Enseguida, en la etapa S303, la unidad 35 de cálculo de la diferencia de la luminancia establece la línea de atención La sobre el área de detección Al. En este momento, la unidad 35 de cálculo de la diferencia de la luminancia establece una línea correspondiente a una línea que se extiende en la dirección perpendicular en el espacio real, como la linea de atención La. En la etapa S304, la unidad 35 de cálculo de la diferencia de luminancia establece posteriormente la línea de referencia Lr sobre el área de detección Al. En este punto, la unidad 35 de cálculo de la diferencia de luminancia establece, como la línea de referencia Lr, una línea que corresponde a una línea que se extiende en la dirección perpendicular en el espacio real, la línea también está separada una distancia predeterminada en el espacio real, de la línea de atención La.
Enseguida, en la etapa S305, la unidad 36 de cálculo de la diferencia de luminancia establece una pluralidad de puntos de atención sobre la línea de atención La. También, en este momento, la unidad 35 de cálculo de la diferencia de la luminancia establece un cierto número de puntos de atención Pa que no serán problemáticos durante la detección del borde por la unidad 36 de detección de las líneas de borde. También, en la etapa S306 la unidad 35 de cálculo de la diferencia de luminancia establece los puntos de referencia Pr de modo tal que los puntos de atención Pa y los puntos de referencia Pr están sustancialmente a la misma altura en el espacio real. Los puntos de atención Pa y los puntos de referencia Pr se alinean por lo tanto sustancialmente en la dirección horizontal, y la línea de borde que se extiende en la dirección perpendicular en el espacio real se detecta más fácilmente .
Enseguida, en la etapa S307, la unidad 35 de cálculo de la diferencia de luminancia calcula la diferencia de la luminancia entre los puntos de atención Pa y los puntos de referencia Pr a la misma altura, en el espacio real. La unidad 36 de detección de lineas de borde calcula entonces el atributo s de los puntos de atención Pa de acuerdo con la fórmula 1, descrita anteriormente. En la etapa S308, la unidad 36 de detección de las líneas de borde calcula entonces la continuidad c del atributo s de los puntos de atención Pa, de acuerdo con la fórmula 2 indicada anteriormente. En la etapa S309, la unidad 36 de detección de las líneas de borde determina además si el valor obtenido al normalizar la suma de la continuidad c es mayor que un valor de umbral T de acuerdo con la fórmula 3. Cuando se ha determinado que el valor normalizado es mayor que el valor de umbral T (etapa S309=Sí) , la unidad 36 de detección de las líneas de borde detecta la línea de atención La como la línea de borde en la etapa S3110. El proceso procede entonces a la etapa S311. Cuando se ha determinado que el valor normalizado no es mayor que el valor de umbral T (etapa S309=No) , la unidad 36 de detección de las líneas de borde no detecta que la línea de atención La es una línea de borde, y el proceso procede a la etapa S311.
En la etapa S311, la computadora 30a determina si el proceso de las etapas S303 a S310 ha sido ejecutado para todas las lineas de atención La que pueden ser establecidas sobre el área de detección Al . Cuando se ha determinado que los proceso anteriores no han sido llevados a cabo para todas las lineas de atención La (etapa S311=No) , el proceso regresa a la etapa S303, establece una nueva linea de atención La y repite el proceso hasta la etapa S311. Por otro lado, cuando se ha determinado que los procesos han sido llevados a cabo para todas las lineas de atención La (etapa S311=Si) el proceso procede a la etapa S312.
En la etapa S312, la unidad 33a de detección de objetos tridimensionales calcula el cambio en la luminancia a lo largo de la linea de borde para cada linea de borde detectada en la etapa S310. La unidad 33a de detección de objetos tridimensionales calcula el cambio en la luminancia de las lineas de borde de acuerdo con cualquiera de las fórmulas 4, 5, y 6. Enseguida, en la etapa S313, la unidad 33a de detección de objetos tridimensionales excluye, de entre las lineas de borde, las lineas de borde en las cuales, el cambio en la luminancia está en un valor de umbral predeterminado tb o superior. En otras palabras, cuando una linea de borde que tiene un cambio grande en la luminancia, no se determina como la linea de borde correcta, la linea de borde no se usa para detectar un objeto tridimensional. Como se describe anteriormente, esto se hace con el fin de suprimir la detección de los caracteres sobre la superficie de la carretera, la vegetación al lado de la carreta, y los similares, incluidos en el área de detección Al, como lineas de borde. Por lo tanto, el valor de umbral tb se determina de antemano mediante experimentación u otros medios, y se establece con base en el cambio en la luminancia que ocurre debido a los caracteres sobre la superficie de la carretera, la vegetación al lado de la carretera y los similares, por otro lado, la unidad 33a de detección de objetos tridimensionales determina las lineas de borde que tienen un cambio en la luminancia que es menor que un valor de umbral predeterminado tb, como las lineas de los objetos tridimensionales, y por ello detecta los objetos tridimensionales presentes en un vehículo adyacente.
Enseguida, en la etapa S314, la unidad 34a de establecimiento de las referencias de detección establece el valor de umbral ß para detectar si el objeto tridimensional detectado en la etapa S310 es un vehículo adyacente. Específicamente, en la etapa S314, la unidad 34a de establecimiento de las referencias de detección establece el valor de umbral ß en un valor que permite [un objeto tridimensional] que sea determinado como un vehículo de cuatro ruedas que aparece en las áreas de detección Al, A2 con base en el número de líneas de borde, como se ilustra en la FIG. 24, y modifica el valor de umbral ß así establecido, de acuerdo con la ganancia en el valor de umbral ß establecida de acuerdo con la posición de la fuente de luz, como se ilustra en la FIG. 25, de la misma manera como en la etapa S105 de la primera modalidad. En este caso, la unidad 34a de establecimiento de las referencias de detección hace que la posición de la fuente de luz detectada y la posición de referencia P0 del mapa de control ilustrado en la FIG. 25 coincidan, de la misma forma como en la primera modalidad, ajusta el mapa de control ilustrado en la FIG. 25, y ajusta el mapa de control ilustrado en la FIG. 25, de acuerdo con la distancia L en la dirección transversal del vehículo desde la posición central de la cámara 10, a la posición del centroide de la fuente de luz.
Enseguida, en la etapa S315, se determina, por medio de la unidad 33a de detección de objetos tridimensionales, si la cantidad de las líneas de borde es un valor de umbral ß o superior, como se establece en la etapa S314. Cuando se ha determinado que la cantidad de líneas de borde está en un valor de umbral ß superior (etapa S315=Sí) , la unidad 33a de detección de objetos tridimensionales determina, en la etapa S316, que un vehículo adyacente está presente en el área de detección Al. Por otro lado, cuando la cantidad de líneas de borde determinadas, no está en el valor de umbral ß o superior (etapa S315=No) , la unidad 33a de detección de objetos tridimensionales determina que un vehículo adyacente no está presente en el área de detección Al, en la etapa S317. El proceso ilustrado en la FIG. 27 termina entonces.
Como se describe anteriormente, en la segunda modalidad, una imagen capturada se convierte en una imagen de vista a ojo de pájaro, y la información del borde de un objeto tridimensional se detecta a partir de la imagen de vista a ojo de pájaro. Se determina si la cantidad de las lineas de borde detectadas está en un valor de umbral ß o superior, establecido de acuerdo con la relación posicional entre la cámara 10 y la fuente de luz, y cuando la cantidad de lineas de borde está en el valor de umbral ß o superior, se determina que el objeto tridimensional está presente en el carril adyacente, por lo cual, un objeto tridimensional presente en el carril adyacente puede ser detectado. Además de los efectos de la primera modalidad, en la segunda modalidad, es posible evitar de forma efectiva la detección errónea de un vehículo adyacente debido a la suciedad sobre la lente, o la luz reflejada o las similares, producida cuando la luz de los faros de un vehículo adyacente-adyacente, se ha reflejado desde la superficie de la carretera; y los neumáticos/ruedas de un vehículo adyacente, los cuales son una porción característica de un vehículo adyacente presente hacia atrás de los faros (la fuente de luz), pueden ser detectadas adecuadamente, y los vehículos adyacentes pueden ser detectados de forma adecuada. Además, de acuerdo con la presente modalidad, cuando la distancia L, en la dirección transversal del vehículo, en la posición central de la cámara 10, a la posición del centroide de la fuente de luz, es mayor y la posibilidad de detectar las fuentes de luz, que son los faros de un vehículo adyacente-adyacente, es alta, al detectar un vehículo adyacente con base en la información del borde, el valor de umbral ß en el área hacia atrás de la fuente de luz se establece más alta en comparación a cuando la distancia L, en la dirección transversal del vehículo, desde la posición central de la cámara 10 a la posición del centroide de la fuente de luz, por lo cual puede ser eliminado de forma adecuada el efecto de los faros (la fuente de luz) de un vehículo adyacente-adyacente, y la detección errónea de un vehículo adyacente puede ser evitada de forma efectiva.
Las modalidades descritas anteriormente se describen con el fin de facilitar el entendimiento de la presente invención no se describen con el fin de limitar la presente invención. Por lo tanto, los elementos escritos en las modalidades anteriores tienen la intención de incluir todas las modificaciones de diseño y los equivalentes a las mismas que estén dentro del rango técnico de la presente invención.
En la primera modalidad descrita anteriormente, se dio un ejemplo en el cual se toma el valor absoluto de la diferencia en los valores de pixel de las imágenes de vista a ojo de pájaro PBt y PBt-i, y cuando el valor absoluto es igual o mayor que un valor de umbral predeterminado th, los valores de pixel de la imagen de diferencia PDt se sitúan en "1", y cuando el valor absoluto es menor que un valor de umbral predeterminado th, los valores de pixel de la imagen de diferencia PDt, se sitúan en "0", pero el valor de umbral th puede ser modificado de acuerdo con la relación posicional entre la cámara 10 y la fuente de luz.
Específicamente, también es posible usar una configuración en la cual, la unidad 34 de establecimiento de las referencias de detección aumenta la ganancia del valor de umbral th en el área Rr hacia atrás de la fuente de luz en las áreas de detección Al, A2, más que en área Rf hacia delante de la fuente de luz, como se ilustra en el dibujo a la derecha de la FIG. 9(A) . Ya que el valor de umbral th se establece en un valor bajo con respecto a la luminancia en el área Rr hacia atrás de la fuente de luz, los neumáticos/ruedas de un vehículo adyacente presente hacia atrás de la fuente de luz resultan detectados más fácilmente en términos de la forma de onda de la diferencia DWt, y como resultado, un vehículo adyacente puede ser detectado de forma más adecuada. Además de esta configuración, es posible además usar una configuración en la cual, el valor de umbral th se modifica de acuerdo con la luminancia en las posiciones de detección en las áreas de detección Al, A2.
En este caso, también es posible usar una configuración en la cual, la ganancia en el valor de umbral th se modifica de acuerdo con la distancia L en la dirección transversal del vehículo desde la cámara 10 a la fuente de luz. En otras palabras, es posible usar una configuración en la cual, la ganancia en el valor de umbral th se incrementa hacia atrás desde la fuente de luz, en comparación a cuando la distancia L en la dirección transversal del vehículo desde la cámara 10 a la fuente de luz es corta, en el caso de que la distancia L en la dirección transversal del vehículo desde la cámara 10 a la fuente de luz es grande, y la posibilidad de que la fuente de luz detectada sean los faros de un vehículo adyacente-adyacente es alta. La luz de los faros de un vehículo adyacente-adyacente resultan por lo tanto difíciles de detectar en términos de la forma de onda de la diferencia DWt y se puede evitar efectivamente la detección errónea de un vehículo adyacente, aun hacia atrás de la fuente de luz, cuando la posibilidad de que la fuente de luz sean los faros de un vehículo adyacente-adyacente es alta.
Además, se dio un ejemplo de la configuración en la primera modalidad descrita anteriormente, en la cual, los valores de pixel de la imagen de la diferencia PDt se detectan como 0' y 1' por la unidad 32 de alineación, y los pixeles que tienen un valor de pixel de ? 1' en la imagen de la diferencia PDt, son contados como pixeles de diferencia DP por la unidad 33 de detección de objetos tridimensionales, con base en la imagen de diferencia PDt, para detectar por ello un objeto tridimensional, pero no se imponen limitaciones por ello, y también es posible usar una configuración en la cual, por ejemplo, los valores de pixel de la imagen de diferencia PDt sean detectados por la unidad 32 de alineación usando los valores absolutos de los valores de la diferencia de las imágenes de vista a ojo de pájaro PBt, PBt-i y los pixeles que exceden una valor de umbral de la diferencia, predeterminado, se cuentan como los pixeles de la diferencia DP por la unidad 33 de detección de objetos tridimensionales.
Se dio un ejemplo de una configuración en la primera modalidad descrita anteriormente, en la cual, la imagen capturada del momento actual y una imagen en un único momento previo, se convierten en vistas a ojo de pájaro, las vistas a ojo de pájaro convertidas se alinean, entonces se genera la imagen de la diferencia PDt, y la imagen de la diferencia PDt generada se evalúa en la dirección de colapso (la dirección en la cual se colapsa el objeto tridimensional cuando la imagen capturada se convierte en una vista a ojo de pájaro) para generar una forma de onda de la diferencia DWt, pero no se impone ninguna limitación por esto. Por ejemplo, también es posible usar una configuración en la cual, solo la imagen en un único momento previo se convierte en una vista a ojo de pájaro, la vista a ojo de pájaro convertida se alinea, entonces se convierte otra vez a una imagen capturada equivalente, la imagen de la diferencia PDt se genera usando esta imagen y la imagen en el momento actual, y la imagen de diferencia PDt generada se evalúa en la dirección correspondiente a la dirección de colapso (es decir, la dirección obtenida al convertir la dirección de colapso a una dirección en la imagen capturada) para generar por ello la forma de onda de la diferencia DWt. En otras palabras no se requiere expresamente que sea necesario generar una vista a ojo de pájaro en un único momento previo, siempre y cuando la imagen en el momento actual y la imagen en un único momento previo se alinee, la imagen de la diferencia PDt se genera a partir de la diferencia entre las dos imágenes alineadas, y la imagen de la diferencia PDt puede ser evaluada en la dirección de colapso de un objeto tridimensional, cuando la imagen de la diferencia PDt se convierte en una vista a ojo de pájaro.
En la primera modalidad descrita anteriormente, la velocidad del vehículo principal VI se determina con base en una señal del detector 20 de velocidad, pero no se imponen limitaciones por esta razón, y también es posible usar una configuración en la cual, la velocidad se estima a partir de una pluralidad de imágenes en diferentes momentos. En este caso, el detector 20 de velocidad no se requiere y la configuración puede ser simplificada.
En la segunda modalidad descrita anteriormente se dio un ejemplo de una configuración en la cual, el atributo s(xi, yi) del punto de atención Pai se sitúa en ?1' o ?-1' cuando el valor de la luminancia del punto de atención Pai y el punto de referencia Pri es un valor de umbral t o superior, y una linea de atención La en la cual, el atributo s(xi, yi) del punto de atención Pai y el atributo s(xi+l, yi+1) del punto de atención adyacente Pai+1 son ?1' o de modo consecutivo para el valor de umbral T predeterminado, se detecta como una linea de borde, pero además de esta configuración, es posible modificar el valor de umbral t y el valor de umbral T de acuerdo con la posición de la fuente de luz detectada.
Específicamente, es posible usar una configuración en la cual, la unidad 34a de establecimiento de las referencias de detección aumente la ganancia del valor de umbral t y el valor de umbral T en el área Rr hacia atrás de la fuente de luz, más que en el área Rf hacia delante de la fuente de luz en las áreas de detección Al, A2, como se ilustra, por ejemplo en la FIG. 9(A) . Los neumáticos/llantas de un vehículo adyacente presente hacia atrás de una fuente de luz, se detectan por ello más fácilmente como la línea de borde puesto que el valor de umbral t y el valor de umbral T se establecen en valores bajos con respecto a la luminancia, en el área Rr hacia atrás de la fuente de luz, y como resultado, un vehículo adyacente puede ser detectado adecuadamente. Además de esta configuración, es posible además modificar el valor de umbral t y el valor de umbral de acuerdo con la luminancia en las posiciones de detección en las áreas de detección Al, A2.
En este caso, también es posible usar una configuración en la cual, la ganancia en el valor de umbral t y el valor de umbral a se modifica de acuerdo con la distancia L en la dirección transversal del vehículo desde la cámara 10 a la fuente de luz. En otras palabras, es posible usar una configuración en la cual, la ganancia en el valor de umbral t y el valor de umbral se incrementa hacia atrás desde la fuente de luz, en comparación a cuando la distancia L en la dirección transversal del vehículo desde la cámara 10 a la fuente de luz es corta, en el caso de que la distancia L en la dirección transversal del vehículo desde la cámara 10 a la fuente de luz es grande y la posibilidad de que la fuente de luz detectada sean los faros de un vehículo adyacente-adyacente es alta. La luz de los farios de un vehículo adyacente-adyacente resulta por lo tanto difícil de detectar como líneas de borde y la detección errónea de un vehículo adyacente puede ser evitada de forma más efectiva aun hacia atrás de la fuente de luz, cuando la posibilidad de que la fuente de luz detectada sean las luces de un vehículo adyacente-adyacente sea alta.
Adicionalmente, en la segunda modalidad descrita anteriormente se dio un ejemplo de una configuración en la cual, el cambio en la luminancia de las línea de borde se calcula de acuerdo con cualquiera de las fórmula 4, 5 y 6, y entre las líneas de borde, las líneas de borde en las cuales el cambio en la luminancia está en un valor de umbral tb o superior se excluyen, pero además de esta configuración, el valor de umbral tb puede ser modificado de acuerdo con la posición de la fuente de luz detectada.
Específicamente, es posible usar una configuración en la cual, la unidad 34a de establecimiento de las referencias de detección aumente la ganancia del valor de umbral tb en el área Rr hacia atrás de la fuente de luz, más que en el área Rf hacia adelante de la fuente de luz en las áreas de detección Al, A2, como se ilustra en la FIG. 10(A). las líneas de borde de los neumáticos/ruedas de un vehículo adyacente, presente hacia atrás desde una fuente de luz, pueden ser detectadas por lo tanto de forma más precisa puesto que el valor de umbral tb se establece en valores bajos con respecto a la luminancia en el área Rr hacia atrás de la fuente de luz. Además de esta configuración, es posible además modificar el valor de umbral tb de acuerdo con la luminancia en las posiciones de detección en las áreas de detección Al, A2.
En este caso, también es posible usar una configuración en la cual, la ganancia en el valor de umbral tb se modifica de acuerdo con la distancia L en la dirección transversal del vehículo desde la cámara 10 a la fuente de luz. En otras palabras, es posible usar una configuración en la cual, la ganancia en el valor de umbral tb se incrementa hacia atrás de la fuente de luz, en comparación a cuando la distancia L en la dirección transversal del vehículo, desde la cámara 10 a la fuente de luz, es corta, en el caso en que la distancia L en la dirección transversal del vehículo, desde la cámara 10 a la cuente de luz, es grande, y la posibilidad de que la fuente de luz detectada sean los faros de un vehículo adyacente-adyacente es alta. La luz de los faros de un vehículo adyacente-adyacente resulta por lo tanto difícil de detectar como las líneas de borde y puede ser evitada más efectivamente la detección errónea de un vehículo adyacente, aun hacia atrás de la fuente de luz, cuando la posibilidad de que la fuente de luz detectada sean los faros de un vehículo adyacente-adyacente, es alta.
Además, en las modalidades descritas anteriormente se dio un ejemplo de la configuración en la cual, el valor de umbral u otras referencias de detección se establecen en un valor bajo, de modo tal que un objeto tridimensional sea detectado fácilmente en el área Rr hacia atrás de los faros (fuente de luz) , pero no se impone ninguna limitación por esta configuración, y también es posible usar una configuración en la cual, la referencia de detección se establece en un valor alto de modo tal que los objetos tridimensionales sean detectados fácilmente en el área Rr hacia atrás de los faros (la fuente de luz) cuando un objeto tridimensional debe ser detectado fácilmente de forma comparable a una referencia de detección más alta.
La cámara 10, en la modalidad descrita anteriormente, corresponde al medio de captura de imágenes de la presente invención. La unidad 31 de conversión del punto de vista corresponde al medio de conversión de imágenes de la presente invención, y la unidad 32 de alineación, la unidad 33, 33a de detección de objetos tridimensionales, la unidad 34, 34a de establecimiento de las referencias de detección, la unidad 35 de cálculo de la diferencia de iluminancia, y la unidad 36 de detección de lineas de borde corresponden al medio de detección de objetos tridimensionales, y la unidad 34, 34a de establecimiento de las referencias de detección, corresponde al medio de cálculo de la distancia de la presente invención.
LISTA DE SÍMBOLOS DE REFERENCIA 1, la: dispositivo de detección de objetos tridimensionales 10: cámara 20: detector de velocidad 30, 30a: computadora 31: unidad de conversión del punto de vista 32: unidad de alineación 33, 33a: unidad de detección de objetos tridimensionales 34, 34a: unidad de establecimiento de las referencias de detección 35: unidad de cálculo de la diferencia de luminancia 36: unidad de detección de lineas de borde a: ángulo de visión Al, A2 : área de detección CP: punto de cruce DP: pixeles de diferencia DWt, DWtl: forma de onda de la diferencia DWti a DWm, DWm+k a DWtn: áreas pequeñas Ll, L2 : línea del suelo La, Lb: línea en la dirección en la cual se colapsa el objeto tridimensional P: imagen capturada PBt: imagen de vista a ojo de pájaro PDt: imagen de la diferencia V2 : vehículo principal V2 : vehículo adyacente V3 : vehículo adyacente-adyacente

Claims (7)

REIVINDICACIONES
1. Un dispositivo de detección de objetos tridimensionales, caracterizado porque comprende: un medio de captura de imágenes para capturar un área predeterminado en la cual, un carril adyacente hacia atrás del vehículo principal, se usa como una referencia; un medio de conversión de la imagen, para convertir el punto de vista de una imagen obtenida por el medio de captura de imágenes, para crear una imagen de vista a ojo de pájarcun medio de detección de objetos tridimensionales para alinea, en una vista a ojo de pájaro, las posiciones de las imágenes de vista a ojo de pájaro en diferentes momentos por el medio de conversión de la imagen, generar la información de la forma de onda de la diferencia al contar el número de pixeles que indica la diferencia que tienen un primer valor de umbral predeterminado en una imagen de la diferencia de las imágenes de vista a ojo de pájaro, para formar una distribución de la frecuencia, y detectar un objeto tridimensional presente en el carril adyacente, con base en la información de la forma de onda de la diferencia cuando la información de la forma de onda de la diferencia está en un segunda valor de umbral predeterminado o superior; y un medio de detección de la fuente de luz, para detectar una fuente de luz presente hacia atrás del vehículo principal, con base en la imagen capturada obtenida por el medio de captura de imágenes, el medio de detección de objetos tridimensionales que establece el primer valor de umbral o el segundo valor de umbral más bajos, de modo tal que los objetos tridimensionales sean detectados más fácilmente en un área hacia atrás del área predeterminada, más hacia atrás que una linea que conecta la fuente de luz y el medio de captura de imágenes por el medio de detección de la fuente de luz en comparación con un área hacia adelante, más hacia adelante que la linea.
2. El dispositivo de detección de objetos tridimensionales de acuerdo con la reivindicación 1, caracterizado porque comprende además: un medio de cálculo de la distancia, para calcular la distancia en la dirección transversal del vehiculo, desde el medio de captura de imágenes a la fuente de luz el medio de detección de objetos tridimensionales que establece el primer valor de umbral o el segundo valor de umbral del área hacia atrás, más alto de modo tal que el objeto tridimensional es más difícil de detectar en un modo comparable a una distancia más grande en la dirección transversal del vehículo desde el medio de captura de imágenes a la fuente de luz.
3. El dispositivo de detección de objetos tridimensionales de acuerdo con la reivindicación 1 o 2, caracterizado porque, el medio de detección de objetos tridimensionales establece el primer valor de umbral y el segundo valor de umbral más bajos, de modo tal que los objetos tridimensionales sean detectados más fácilmente en el área hacia atrás del área predeterminada que en el área hacia adelante.
4. Un dispositivo de detección de objetos tridimensionales, caracterizado porque comprende: un medio de captura de imágenes, para capturar un área predeterminada en la cual, un carril adyacente hacia atrás de un vehículo principal se usa como una referencia; un medio de conversión de imágenes para convertir el punto de vista de una imagen obtenida por el medio de captura de imágenes, para crear una imagen de vista a ojo de pájaro; un medio de detección de objetos tridimensionales para detectar la información del borde que tiene un primer valor de umbral predeterminado, a partir de la imagen de vista a ojo de pájaro, obtenida por el medio de conversión de imágenes, y detectar un objeto tridimensional presente en un carril adyacente, con base en la información del bore, cuando la información del borde está en un segunda valor de umbral predeterminado o superior; y un medio de detección de la fuente de luz, para detectar una fuente de luz presente hacia atrás del vehículo principal, con base en la imagen capturada obtenida por el medio de captura de imágenes, el medio de detección de objetos tridimensionales que establece el primer valor de umbral o el segundo valor de umbral más bajos, de modo tal que los objetos tridimensionales sean detectados más fácilmente en un área hacia atrás del área predeterminada, más hacia atrás de una linea que conecta la fuente de luz y el medio de captura de imágenes cuando se detecta por el medio de detección de la fuente de luz, que en un área hacia adelante, más hacia adelante que la linea.
5. El dispositivo de detección de objetos tridimensionales de acuerdo con la reivindicación 4, caracterizado porque comprende además: un medio de cálculo de la distancia para calcular la distancia en la dirección transversal del vehículo desde el medio de captura de imágenes a la fuente de luz, el medio de detección de objetos tridimensionales que establece el primer valor de umbral o el segundo valor de umbral del área hacia atrás más alto, de modo tal que los objetos tridimensionales sean difícil de detectar en un modo comparable a una distancia más grande en la dirección transversal del vehículo desde el medio de captura de imágenes a la fuente de luz.
6. El dispositivo de detección de imágenes tridimensionales de acuerdo con la reivindicación 4 o 5, caracterizado porque, el medio de detección de objetos tridimensionales establece el primer valor de umbral y el segundo valor de umbral más bajos, de modo tal que los objetos tridimensionales son detectados más fácilmente en el área hacia atrás del área predeterminada que en el área hacia adelante.
7. Un dispositivo de detección de objetos tridimensionales, caracterizado porque comprende: un medio de captura de imágenes para capturar un área predeterminada en la cual, un carril adyacente, hacia atrás de un vehículo principal, se usa como una referencia; un medio de conversión de la imagen para convertir el punto de vista de una imagen obtenida por el medio de captura de imágenes para crear una imagen de vista a ojo de pájaro; un medio de detección de objetos tridimensionales para detectar, en la imagen de vista a ojo de pájaro obtenida por el método de conversión de la imagen, la información de distribución de los pixeles en los cuales, la diferencia de la luminancia está en un valor de umbral predestinado o superior, en la dirección en la cual se colapsa el objeto tridimensional cuando se realiza la conversión del punto de vista a la imagen de vista a ojo de pájaro, y detectar el objeto tridimensional con base en la información de distribución de los pixeles, cuando la cantidad de distribución de los pixeles en la dirección en la cual se colapsa el objeto tridimensional, está en un segundo valor de umbral o superior; y un medio de detección de la fuente de luz, para detectar una fuente de luz presenta hacia atrás del vehículo principal, con base en la imagen capturada obtenida por el medio de captura de imágenes, el medio de detección de objetos tridimensionales que especifica, como el área a ser detectada, un área en la cual, la posibilidad de que otro vehículo, que viaja en un carril adyacente, esté presente en el área predeterminada, está en un valor predeterminado o superior, con base en la posición de detección de la fuente de luz detectada por el medio de detección de la fuente de luz, y establece el primer valor de umbral o el segundo valor de umbral en el área a ser detectada . RESUMEN DE LA. INVENCIÓN El dispositivo de detección de objetos tridimensionales se caracteriza en que cuenta con un medio (10) de captura de imágenes, para capturar un área predeterminada detrás de un vehículo principal; un medio (31) de conversión de la imagen para convertir el punto de vista de una imagen capturada para crear una imagen de vista a ojo de pájaro; y un medio (32, 33, 34) de detección de objetos tridimensionales para generar la información de la forma de onda de la diferencia al contar el número de pixeles que indican la diferencia, que tienen un primer valor de umbral o superior o en la imagen de la diferencia de las imágenes de vista a ojo de pájaro alineadas, para formar una distribución de frecuencia, y detectar un objeto tridimensional presente, con base en la información de la forma de onda de la diferencia cuando la información de la forma de onda de la diferencia está en un segundo valor de umbral predeterminado o superior en un marco de detección establecido dentro de un área predeterminada, en donde el medio (32, 33, 34) de detección de objetos tridimensionales establece el primer valor de umbral o el segundo valor de umbral más bajos, de modo tal que los objetos tridimensionales se detectan más fácilmente en el área hacia atrás, más atrás que una línea que conecta el medio (10) de captura de imágenes y la fuente de luz detectada por la unidad 34 de establecimiento de las referencias de detección, que en un área hacia adelante, hacia delante de la línea en el área predeterminada.
MX2014010244A 2012-03-01 2013-02-26 Dispositivo de deteccion de objetos tridimensionales. MX349873B (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012045352 2012-03-01
PCT/JP2013/054855 WO2013129354A1 (ja) 2012-03-01 2013-02-26 立体物検出装置

Publications (2)

Publication Number Publication Date
MX2014010244A true MX2014010244A (es) 2014-11-12
MX349873B MX349873B (es) 2017-08-17

Family

ID=49082551

Family Applications (1)

Application Number Title Priority Date Filing Date
MX2014010244A MX349873B (es) 2012-03-01 2013-02-26 Dispositivo de deteccion de objetos tridimensionales.

Country Status (9)

Country Link
US (1) US9832444B2 (es)
EP (1) EP2821982B1 (es)
JP (1) JP5682735B2 (es)
CN (1) CN104115203B (es)
BR (1) BR112014020407B1 (es)
MX (1) MX349873B (es)
MY (1) MY179329A (es)
RU (1) RU2635280C2 (es)
WO (1) WO2013129354A1 (es)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6177632B2 (ja) * 2013-09-11 2017-08-09 アルパイン株式会社 車両位置検出装置および車両後側方警報装置
JP6426455B2 (ja) * 2014-12-09 2018-11-21 クラリオン株式会社 接近車両検出装置
US20190051033A1 (en) * 2016-02-24 2019-02-14 Superb Reality Ltd. System and method for object differentiation in three-dimensional space
JP6599031B2 (ja) * 2017-02-06 2019-10-30 三菱電機株式会社 監視装置
JP6776213B2 (ja) * 2017-11-01 2020-10-28 株式会社東芝 軌道識別装置
CN112639877A (zh) * 2018-09-12 2021-04-09 日立汽车系统株式会社 图像识别装置
JP7327992B2 (ja) * 2019-05-10 2023-08-16 フォルシアクラリオン・エレクトロニクス株式会社 立体物検出装置、及び立体物検出方法
CN113822841B (zh) * 2021-01-29 2022-05-20 深圳信息职业技术学院 一种污水杂质结块检测方法、装置及相关设备
JP2023174087A (ja) * 2022-05-27 2023-12-07 株式会社Subaru 停止線認識装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6411204B1 (en) * 1999-11-15 2002-06-25 Donnelly Corporation Deceleration based anti-collision safety light control for vehicle
JP4644550B2 (ja) * 2005-07-20 2011-03-02 株式会社オートネットワーク技術研究所 カメラシステム
JP4906437B2 (ja) * 2006-08-22 2012-03-28 アルパイン株式会社 周辺監視システム
JP2008219063A (ja) 2007-02-28 2008-09-18 Sanyo Electric Co Ltd 車両周辺監視装置及び方法
JP2008227646A (ja) 2007-03-09 2008-09-25 Clarion Co Ltd 障害物検知装置
JP4930256B2 (ja) * 2007-08-03 2012-05-16 日産自動車株式会社 隣接車両検出装置および隣接車両検出方法
JP5355209B2 (ja) * 2009-05-01 2013-11-27 アルパイン株式会社 ナビゲーション装置、自車の走行車線の判定方法および判定プログラム
JP5336325B2 (ja) * 2009-10-30 2013-11-06 大日本スクリーン製造株式会社 画像処理方法
RU2533645C2 (ru) * 2010-05-27 2014-11-20 Сергей Анатольевич Королев Интеллектуальная транспортная система и способ её использования
JP5251927B2 (ja) * 2010-06-21 2013-07-31 日産自動車株式会社 移動距離検出装置及び移動距離検出方法
JP5809785B2 (ja) * 2010-07-30 2015-11-11 日立オートモティブシステムズ株式会社 車両用外界認識装置およびそれを用いた配光制御システム

Also Published As

Publication number Publication date
MX349873B (es) 2017-08-17
BR112014020407A2 (pt) 2021-05-25
JP5682735B2 (ja) 2015-03-11
US9832444B2 (en) 2017-11-28
WO2013129354A1 (ja) 2013-09-06
MY179329A (en) 2020-11-04
US20150009292A1 (en) 2015-01-08
EP2821982A1 (en) 2015-01-07
BR112014020407B1 (pt) 2021-09-14
CN104115203B (zh) 2016-10-19
JPWO2013129354A1 (ja) 2015-07-30
RU2014139676A (ru) 2016-04-20
EP2821982A4 (en) 2015-06-03
EP2821982B1 (en) 2018-06-27
RU2635280C2 (ru) 2017-11-09
CN104115203A (zh) 2014-10-22

Similar Documents

Publication Publication Date Title
MX2014010244A (es) Dispositivo de deteccion de objetos tridimensionales.
US9754172B2 (en) Three-dimenisional object detection device
US9558546B2 (en) Three-dimensional object detection device, and three-dimensional object detection method
US9135511B2 (en) Three-dimensional object detection device
JP5776795B2 (ja) 立体物検出装置
EP2879385B1 (en) Three-dimensional object detection device and three-dimensional object detection method
JP5874831B2 (ja) 立体物検出装置
MX2014009974A (es) Dispositivo de deteccion de objetos tridimensionales.
US9783127B2 (en) Three-dimensional object detection device
US9830519B2 (en) Three-dimensional object detection device
MX2014010405A (es) Dispositivo de deteccion de objetos tridimensionales.
WO2014017601A1 (ja) 立体物検出装置および立体物検出方法
WO2013129355A1 (ja) 立体物検出装置
JP5783319B2 (ja) 立体物検出装置及び立体物検出方法
WO2014017602A1 (ja) 立体物検出装置および立体物検出方法
JP5668891B2 (ja) 立体物検出装置

Legal Events

Date Code Title Description
FG Grant or registration