[go: up one dir, main page]

MX2013002848A - Dispositivo y metodo para la percepcion de imagen monolitica. - Google Patents

Dispositivo y metodo para la percepcion de imagen monolitica.

Info

Publication number
MX2013002848A
MX2013002848A MX2013002848A MX2013002848A MX2013002848A MX 2013002848 A MX2013002848 A MX 2013002848A MX 2013002848 A MX2013002848 A MX 2013002848A MX 2013002848 A MX2013002848 A MX 2013002848A MX 2013002848 A MX2013002848 A MX 2013002848A
Authority
MX
Mexico
Prior art keywords
image recognition
light
image
substrate
elements
Prior art date
Application number
MX2013002848A
Other languages
English (en)
Inventor
Guy Paillet
Anne Menendez
Original Assignee
Norlitech Llc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Norlitech Llc filed Critical Norlitech Llc
Publication of MX2013002848A publication Critical patent/MX2013002848A/es

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/77Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components
    • H04N25/772Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components comprising A/D, V/T, V/F, I/T or I/F converters

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • Image Input (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Image Analysis (AREA)
  • Devices For Indicating Variable Information By Combining Individual Elements (AREA)
  • Led Device Packages (AREA)
  • Studio Devices (AREA)
  • Electroluminescent Light Sources (AREA)

Abstract

La presente invención está dirigida a un aparato que puede adquirir, leer y percibir una escena basada en la inserción, o la incrustación de elementos fotosensibles dentro o sobre un substrato transparente o semitransparente tal como vidrio o plástico. El sustrato por si mismo puede actuar como el dispositivo óptico el cual desvía los fotones de una imagen incidente dentro de los elementos fotosensibles. Una memoria neural digital puede ser capacitada para reconocer patrones en los fotones incidentes. Los elementos fotosensibles y los elementos de memoria neural digitales pueden estar organizados con elementos de luz controlados de acuerdo con los patrones detectados. En una aplicación, las unidades de iluminación inteligentes proporcionan luz mientras monitorean los alrededores y / o ajustan la luz de acuerdo con esos alrededores. En otra aplicación, pantallas inteligentes muestran imágenes y / o videos mientras monitorean los alrededores y / o ajustan las imágenes y / o videos mostrados de acuerdo con esos alrededores.

Description

DISPOSITIVO Y METODO PARA LA PERCEPCION DE IMAGEN MONOLITICA REFERENCIA CRUZADA CON SOLICITUDES RELACIONADAS Esta solicitud reclama el beneficio de prioridad de la Solicitud de Patente de E.U. con N° de serie 12/880,964, presentada el 13 de septiembre de 2010, que es una continuación en parte de la Solicitud de Patente de E.U. con N° de Serie 1 1/477,571 , presentada el 30 de junio 2006, que reclama el beneficio de prioridad de la solicitud de patente provisional con N° de serie 60/694,988, presentada el 30 de junio de 2005, el contenido de las cuales se incorporan en este documento por referencia en su totalidad.
ANTECEDENTES DE LA INVENCIÓN Campo de la invención La presente invención se refiere en general a dispositivos y métodos de formación de imágenes. En particular, la presente invención se refiere a micro-dispositivos para el reconocimiento de imágenes incorporado en o colocado sobre un sustrato transparente o semi-transparente, tal como vidrio o plástico, con elementos de luz, y métodos para el reconocimiento de imágenes.
Descripción del arte previo relacionado Las superficies transparentes como el vidrio, han existido durante cientos de años. Las superficies transparentes fueron inicialmente destinadas a la protección de un espacio para vivir, mientras que permiten a los ocupantes tener percepción del mundo exterior (el paisaje, el clima y una posible amenaza). Más recientemente, superficies transparentes están en gran demanda por la industria de las pantallas, inicialmente de tubos de rayos catódicos (CRT) y más recientemente, pantallas de cristal líquido (LCD) y muchos otros tipos de pantallas de panel plano. En uso, en la mayoría de los casos, un humano u organismo vivo (animales, plantas) se coloca cerca de estas superficies transparentes.
Los sensores de imagen están disponibles desde hace unas décadas (por ejemplo, los sensores CCD o CMOS). Por ejemplo, véase la Patente de E.U. N° 6,617,565 para un sensor de imagen CMOS de chip único, el contenido de la cual se incorpora en la presente por referencia. Sensores de imagen típicos se basan en diseños de cámara y generalmente incluyen un circuito integrado que , se encuentra detrás de una lente, que puede ser en miniatura o extraíble (por ejemplo, lentes de montaje de tornillo). Los sensores se utilizan para transformar la energía de la luz (fotones) en una señal eléctrica proporcional a la cantidad de luz recibida por los elementos fotosensibles que se organizan dentro de una matriz en el sensor. Una imagen se sintetiza a partir de la salida de los elementos fotosensibles.
La tecnología de reconocimiento de imagen está siendo cada vez más demandada. Cámaras de video de diferentes tamaños y marcas son demandadas para aplicaciones tales como seguridad, identificación, inteligencia, inspección de calidad, vigilancia del tráfico y más. Las cámaras de video son muy a menudo vinculadas a los dispositivos de pantalla, ya sea por medio de un cable o por una conexión inalámbrica. Hoy en día, los teléfonos móviles están rutinariamente equipados con cámaras en miniatura conectadas a un dispositivo de pantalla LCD dispuesto en el mismo.
El reconocimiento avanzado de imagen requiere la síntesis de imágenes de alta resolución. Los sistemas de reconocimiento de imágenes actuales operan a velocidades relativamente bajas debido a la falta de potencia de procesamiento y / o porque los procesadores sólo pueden procesar un píxel de una imagen a la vez.
Por lo tanto, existe una necesidad de nuevos dispositivos de reconocimiento de imágenes mejores que los del arte previo.
SUMARIO DE LA INVENCIÓN Es un objeto de la presente invención el proporcionar un dispositivo de reconocimiento de imágenes que tiene un área de detección (por ejemplo, elementos fotosensibles), incluida directamente en o sobre un material transparente o semi-transparente que constituye la interfaz óptica entre la' imagen incidente y el área de detección. El dispositivo de reconocimiento de imagen en sí mismo es preferiblemente transparente o semi-transparente.
También es otro objeto de la presente invención el proporcionar el área de detección con capacidad de decisión "local" por medio de una matriz de elementos de procesamiento entrenables. En una realización de la presente invención, los elementos o celdas de memoria cognitiva entrenables están asociados con uno o más elementos fotosensibles. La capacidad de decisión local proporciona la ventaja de reducir los requisitos de transmisión (es decir, ancho de banda) del dispositivo, especialmente cuando el número de elementos fotosensibles es grande y cuando la frecuencia de transmisión de los elementos fotosensibles debe ser alta. Al proporcionar una matriz amplia de áreas de detección de cada una teniendo capacidad de decisión local, se puede lograr un dispositivo de imagen de alta resolución, de alta velocidad.
De acuerdo con una realización de la presente invención, los elementos de memoria cognitiva entrenables pueden funcionar en paralelo a baja frecuencia y trazar una corriente muy baja. Como resultado, se asegura el funcionamiento autónomo de cada elemento y pueden ser utilizadas fuentes de energía muy económicas, tales como una celda solar o equivalente.
De acuerdo con una realización de la presente invención, un nuevo dispositivo de reconocimiento de imagen monolítica está formado por la asociación de uno o más elementos fotosensibles a uno o más elementos de memoria cognitiva entrenables, todos incrustados en o colocados sobre un sustrato.
De acuerdo con una realización de la presente invención, una pluralidad de elementos fotosensibles asociados con una pluralidad de elementos cognitivos entrenables pueden arreglarse en una o varias matrices y ser extendidos sobre un sustrato plano transparente o semi-transparente. Las matrices pueden tener una geometría y conectividad variable. La geometría típica puede ser, pero no se limita a, una matriz lineal de neuronas en paralelo, o una matriz de 2 dimensiones de neuronas conectadas en una geometría trama o de panal.
En un aspecto, la presente invención se proporciona un dispositivo de reconocimiento de imágenes que tiene una pluralidad de sensores cognitivos, una pluralidad de ¡nterfaces ópticas y una pluralidad de elementos de luz. La pluralidad de sensores cognitivos está incrustada en o colocada sobre un sustrato transparente o semi-transparente. Cada sensor tiene un elemento fotosensible y una celda de memoria cognitiva entrenable asociada con el elemento fotosensible. Cada una de la pluralidad de interfaces ópticas, incrustadas en o formadas sobre el sustrato, está acoplada ópticamente a una correspondiente pluralidad de sensores cognitivos. La pluralidad de elementos de luz está situada sobre el sustrato y es configurada para emitir luz.
En algunas realizaciones, la emisión de luz puede ser controlada por uno o más de la pluralidad de elementos de luz de acuerdo con una salida de uno o más de la pluralidad de sensores cognitivos. La pluralidad de elementos de luz puede estar dispuesta geométricamente para formar un aparato de visualización de imagen. El aparato de visualización de imagen puede ser configurado para mostrar una imagen que representa la luz recibida en los elementos fotosensibles de uno o más de la pluralidad de sensores cognitivos. Cada sensor cognitivo puede ser entrenado y configurado para reconocer patrones basados en la luz incidente, y el aparato de visualización de imagen puede ser configurado para mostrar una imagen y para modificar la imagen de acuerdo con los patrones reconocidos por uno o más de la pluralidad de sensores cognitivos. La pluralidad de sensores cognitivos puede tener un campo de visión, y los elementos de luz pueden ser configurados para emitir luz en el campo de visión. Los elementos de luz pueden estar configurados para mostrar una imagen que es visible por los objetos en el campo de visión. Los elementos de luz pueden estar configurados para proporcionar la iluminación a los objetos en el campo de visión y para mostrar una imagen a los objetos en el campo de visión. Uno o más de la pluralidad de elementos cognitivos pueden estar configurados para reconocer patrones de luz incidente y para controlar el suministro de iluminación y la visualización de imagen de uno o más de la pluralidad de elementos de luz como una función de los patrones reconocidos. Cada celda de memoria cognitiva puede ser enseñada para reconocer una porción diferente de una imagen, y la pluralidad de celdas de memoria cognitiva pueden ser configuradas para operar colectivamente para reconocer la imagen. Cada elemento de memoria cognitiva puede tener una pluralidad de neuronas acopladas en un lado de entrada de la misma por un bus (canal) de entrada multiplexada y en un lado de salida de la misma por un bus de salida, cada neurona es enseñada con un conocimiento que permite a la neurona correspondiente reconocer una señal y realizar una decisión. La pluralidad de sensores cognitivos pueden ser configurados para realizar digitalmente las operaciones de reconocimiento de imagen sin un programa de software a través de una pluralidad de elementos paralelos, teniendo cada uno independiente, comportamiento autónomo. Los elementos de luz de la pluralidad de elementos de luz se seleccionan de diodos emisores de luz (LEDs), LEDs orgánicos y cavidades de plasma.
En algunas realizaciones, el dispositivo de reconocimiento de imágenes puede tener dispositivos fotovoltaicos integrados en o colocados sobre el sustrato. Los dispositivos fotovoltaicos pueden estar configurados para recibir energía suministrada inalámbricamente y suministrar la energía recibida a la pluralidad de sensores cognitivos y a la pluralidad de elementos de luz. El dispositivo de reconocimiento de imágenes puede tener líneas de transmisión de salida y líneas de suministro de energía que están directamente grabadas o difundidas sobre el sustrato. Cada uno de la pluralidad de sensores cognitivos puede estar configurado para recibir energía de las líneas de suministro de energía y para emitir comunicaciones, utilizando las líneas de suministro de energía. El dispositivo de reconocimiento de imágenes puede tener una capa de cubierta transparente o semi-transparente, y la pluralidad de sensores cognitivos y la pluralidad de elementos de luz pueden estar dispuestos entre la capa de cubierta y el sustrato. Uno o más de la pluralidad de elementos de luz pueden estar configurados para emitir luz a través del sustrato. Uno o más de la pluralidad de elementos de luz pueden estar configurados para emitir luz a través de la capa de cubierta. La pluralidad de elementos de luz y la pluralidad de sensores cognitivos puede estar dispuesta en filas y columnas, y la pluralidad de elementos de luz y la pluralidad de sensores cognitivos pueden alternarse en cada fila y alternarse en cada columna. La pluralidad de elementos de luz y la pluralidad de sensores cognitivos pueden estar dispuestos de modo que cada uno de la pluralidad de sensores cognitivos está rodeado por elementos de luz. La pluralidad de elementos de luz puede incluir, sin limitarse a, píxeles rojos, pixeles verdes y píxeles azules.
En otro aspecto, la presente invención proporciona un dispositivo de reconocimiento de imágenes que tiene un elemento de detección, el elemento de procesamiento acoplado al elemento de detección, y el elemento emisor de luz. El elemento de detección está incrustado en o colocado sobre un sustrato transparente o semi-transparente. El elemento de procesamiento está integrado en o colocado sobre el sustrato. El elemento emisor de luz está incrustado en o colocado sobre el sustrato. El sustrato transparente o semi-transparente constituye una interfaz óptica entre una imagen incidente a detectarse y un píxel de detección del elemento de detección. El elemento emisor de luz está configurado para emitir luz hacia la imagen incidente o lejos de la imagen incidente. En algunas realizaciones, el elemento emisor de luz puede ser uno o más diodos emisores de luz (LEDs), LEDs orgánicos (OLEDs) o cavidades de plasma. El elemento de iluminación puede ser controlado selectivamente por una salida del elemento de procesamiento. El elemento de procesamiento puede ser entrenado y configurado para reconocer patrones basados en la imagen incidente detectada. El elemento de procesamiento puede ser configurado para controlar la luz emitida por el elemento de luz de acuerdo con los patrones reconocidos por el elemento de procesamiento. El elemento de detección puede tener un campo de visión, y los elementos de luz pueden ser configurados para emitir luz en el campo de visión. El elemento de detección puede tener un campo de visión, y los elementos de luz pueden ser configurados para emitir luz en una dirección lejos del campo de visión. El elemento de procesamiento puede comprender una pluralidad de neuronas acopladas en un lado de entrada de la misma por un bus de entrada multiplexada y en un lado de salida de la misma por un bus de salida. Cada neurona puede ser enseñada con un conocimiento, y el conocimiento puede permitir a la neurona correspondiente reconocer una señal y realizar una decisión. El elemento de procesamiento puede ser configurado para realizar digitalmente las operaciones de reconocimiento de imagen sin un programa de software a través de una pluralidad de elementos paralelos, teniendo cada uno, independiente, comportamiento autónomo. El dispositivo de reconocimiento de imágenes puede comprender además dispositivos fotovoltaicos integrados en o situados sobre dicho sustrato. El dispositivo de reconocimiento de imágenes puede comprender, además, las líneas de transmisión de salida y las líneas de suministro de energía que están directamente grabadas o difundidas sobre dicho sustrato. El elemento de procesamiento puede ser configurado para recibir energía de las líneas de suministro de energía y para emitir comunicaciones, utilizando las líneas de suministro de energía. El dispositivo de reconocimiento de imágenes puede comprender además una capa de cubierta transparente o semi-transparente, y el elemento de detección, el elemento de procesamiento y el elemento de luz pueden estar dispuestos entre la capa de cubierta y el sustrato. El elemento de luz puede estar configurado para emitir luz a través del sustrato. El elemento de luz puede estar configurado para emitir luz a través de la capa de cubierta.
En otro aspecto, la presente invención se proporciona un método de reconocimiento de imágenes. El método proporciona una trayectoria óptica a una pluralidad de elementos de detección integrados en o proporcionados sobre un sustrato transparente o semi-transparente mediante el uso de una pluralidad de interfaces ópticas incrustadas en o proporcionadas sobre el sustrato. El método procesa, en paralelo, señales generadas a partir de la pluralidad de elementos de detección en una pluralidad de elementos de procesamiento cada uno acoplado a uno de los elementos de detección y cada uno incrustado en o proporcionado sobre el sustrato. El método emite luz a partir de una pluralidad de elementos de luz incrustados en o proporcionados sobre el sustrato.
En algunas realizaciones, el emisor de luz puede incluir el control de la luz emitida desde la pluralidad de elementos de luz, de conformidad con las salidas de uno o más de la pluralidad de elementos de procesamiento. El procesamiento puede incluir el reconocimiento de patrones y el emisor de luz puede incluir el control de la luz emitida desde la pluralidad de elementos de luz de conformidad con los patrones reconocidos. El reconocimiento de patrones puede incluir la detección de la presencia de uno o más objetos dentro de un campo de visión de la pluralidad de elementos de detección. El reconocimiento de patrones pueden incluir la determinación de distancia desde el sustrato a los uno o más objetos detectados. El reconocimiento de patrones pueden incluir la determinación del número de los uno o más objetos detectados. El reconocimiento de patrones pueden incluir la localización de la posición de los uno o más objetos detectados. El control puede incluir la emisión de una cantidad reducida de luz de una pluralidad de elementos de luz cuando no se detecta la presencia de ningún objeto. El reconocimiento de patrones puede incluir la determinación de si alguno de los uno o más objetos detectados es un objeto autorizado. El reconocimiento de patrones puede incluir la localización y el seguimiento de la mirada de los uno o más espectadores dentro de un campo de visión de la pluralidad de elementos de detección. El reconocimiento de patrones puede incluir el reconocimiento facial o reconocimiento de expresiones faciales. El reconocimiento de patrones puede incluir la identificación biométrica. El emisor puede incluir la visualización de una imagen. La imagen mostrada puede corresponder a una imagen recibida por la pluralidad de elementos de detección. El procesamiento puede incluir el reconocimiento de patrones, y el emisor puede incluir además la modificación de la imagen mostrada de acuerdo con los patrones reconocidos.
En otro aspecto, la presente invención proporciona un dispositivo de reconocimiento de imágenes que tiene un sustrato transparente o semitransparente, una pluralidad de sensores cognitivos, una pluralidad de interfaces ópticas, una capa de relleno, y una pluralidad de elementos de luz. La pluralidad de sensores cognitivos se coloca sobre el sustrato, y cada sensor incluye un elemento fotosensible y una celda de memoria cognitiva entrenable asociada con el elemento fotosensible. La pluralidad de interfaces ópticas se forma sobre el sustrato y cada una se acopla ópticamente a los sensores cognitivos correspondientes. La capa de relleno tiene un relleno entre los sensores cognitivos adyacentes de la pluralidad de sensores cognitivos. La pluralidad de elementos de luz se coloca en la capa de relleno y cada uno está configurado para emitir luz. En algunas realizaciones, la pluralidad de elementos de luz incluye píxeles rojos, píxeles verdes y píxeles azules.
Otras aplicaciones y ventajas de diversas realizaciones de la presente invención se discuten a continuación, con referencia a las Figuras de los dibujos.
En otro aspecto, la presente invención proporciona un método de reconocimiento de imágenes. El método proporciona una trayectoria óptica a un elemento de detección incrustado en o proporcionado sobre un sustrato transparente o semitransparente mediante el uso de una interfaz óptica incrustada en o proporcionada sobre el sustrato. El método procesa señales generadas a partir del elemento de detección en un elemento de procesamiento acoplado al elemento de detección e integrado en o proporcionado sobre el sustrato. El método emite luz de un elemento de luz incrustado en o proporcionado sobre dicho sustrato.
En algunas realizaciones, el emisor de luz puede comprender el control de la luz emitida desde el elemento de luz de acuerdo con una salida del elemento de procesamiento. El procesamiento puede comprender el reconocimiento de patrones y el emisor de luz puede comprender el control de la luz emitida desde la pluralidad de elementos de luz de conformidad con los patrones reconocidos. El reconocimiento de patrones puede comprender la detección de la presencia de uno o más objetos dentro de un campo de visión de dicho elemento de detección. El reconocimiento de patrones puede comprender la determinación de distancia desde dicho sustrato a los uno o más objetos detectados. El reconocimiento de patrones puede comprender la determinación del número de los uno o más objetos detectados. El reconocimiento de patrones puede comprender la localización de la posición de los uno o más objetos detectados. El reconocimiento de patrones puede comprender determinar si cualquiera de los uno o más objetos detectados es un objeto autorizado. El reconocimiento de patrones puede comprender la localización y el seguimiento de la mirada de los uno o más espectadores dentro de un campo de visión del elemento de detección. El reconocimiento de patrones puede comprender el reconocimiento facial o de reconocimiento de expresiones faciales. El reconocimiento de patrones puede comprender la identificación biométrica. El emisor puede comprender mostrar una imagen. La imagen mostrada corresponde a una imagen recibida por el elemento de detección. El procesamiento comprende el reconocimiento de patrones y el emisor comprende, además, la modificación de la imagen mostrada de acuerdo con los patrones reconocidos.
BREVE DESCRIPCIÓN DE LOS DIBUJOS Las Figuras 1A-1 B incluyen, respectivamente, una vista frontal y superior de una matriz de sensores dispuestos sobre un vidrio o plexiglás u otro plástico transparente o sustrato transparente, que tiene lentes grabadas en el mismo, de acuerdo con una realización de la presente invención; La Figura 2 es una vista superior de una matriz de sensores dispuestos sobre un sustrato de vidrio o plexo, que tiene lentes grabadas en el mismo, se muestra la detección de fragmentos de ADN, de acuerdo con una realización de la presente invención; Las Figuras 3A-3B ilustran respectivamente una vista lateral y superior de una matriz de sensores de acuerdo con una realización de la presente invención; La Figura 4 es un diagrama de bloque de un sensor de acuerdo con una realización de la presente invención; La Figura 5A es un diagrama de bloque de una matriz de sensores de acuerdo con una realización de la presente invención; La Figura 5B es un diagrama dé bloque de un banco de sensores de matrices, de acuerdo con una realización de la presente invención; Las Figuras 6A-6C ilustran configuraciones neuronales de acuerdo con realizaciones de la presente invención; La Figura 7 es un diagrama de bloque de una neurona de acuerdo con una realización de la presente invención; y Las Figuras 8-12 ilustran aplicaciones ejemplares del dispositivo de reconocimiento de imágenes de acuerdo con realizaciones de la presente invención.
Las Figuras 13A-13D ilustran realizaciones en las que los sensores y los elementos de luz están dispuestos en o sobre el mismo sustrato transparente o semi-transparente.
Las Figuras 14A-14C ilustran una realización de una unidad de iluminación inteligente que tiene sensores y elementos de luz dispuestos en o sobre el mismo sustrato transparente o semi-transparente.
Las Figuras 15A y 15B ilustran una realización de una pantalla inteligente que tiene sensores y elementos de luz dispuestos en o sobre el mismo sustrato transparente o semitransparente.
DESCRIPCIÓN DETALLADA DE LAS REALIZACIONES PREFERIDAS Mientras que la presente invención puede realizarse de muchas formas diferentes, una serie de realizaciones ilustrativas se describen en la presente con el entendimiento de que esta descripción se ha de considerar como un suministro de ejemplos de los principios de la invención y tales ejemplos no pretenden limitar la invención a las realizaciones específicas preferidas, descritas y / o ilustradas en este documento.
La presente invención es un dispositivo formador de imágenes que puede incluir un dispositivo de sensor de percepción, tal como un elemento fotosensible, conectado, unido o asociado de otro modo con un elemento cognitivo entrenable, con ambos elementos químicamente o de otro modo en depositados o incrustados en la superficie de un sustrato transparente. La asociación de un área de detección con un elemento cognitivo entrenable que tiene capacidad de decisión "local" es referenciado en este documento como "CogniSensor." Un elemento cognitivo entrenable es referenciado en este documento como "CogniMem". Las áreas de detección generalmente se componen de uno o más elementos fotosensibles, pero otras disposiciones de percepción son contempladas.
De acuerdo con realizaciones de la presente invención, los CogniSensores se pueden configurar para reconocer patrones de luz entrantes (por ejemplo, imágenes o partes de imágenes), procesar los patrones de luz entrantes para hacer una decisión local, y transmitir los resultados de o una indicación de la decisiones a nivel local. Un CogniSensor puede incluir un número de componentes, tales como, pero no limitados a, lógica de entrada de datos con capacidad de toma de decisiones locales, "neuronas" y lógica de salida de decisión, un búfer de memoria, celdas solares para la autonomía energética y más. Cada CogniSensor preferentemente presenta memorias de aprendizaje asociativas reactivas (REALM) dispuestas en paralelo. De acuerdo con una realización de la presente invención, los CogniMem son capaces de reconocer patrones sin ningún tipo de instrucciones de computadora, ya sea digital o analógica.
Los CogniMem pueden comprender una o más neuronas, que son memorias asociativas accesibles en paralelo que pueden reaccionar a patrones de entrada similares a sus propios contenidos. Las neuronas pueden reaccionar de forma individual o colectiva mediante el refuerzo de su respuesta basada en la respuesta de otras neuronas vecinas. Esta selección se puede hacer a través de una línea de entrada Inhibitoria / Excitatoria conectada a las neuronas.
El contenido de las neuronas de un CogniMem constituye "conocimiento". El conocimiento es un conjunto de firmas digitales estáticamente discriminatorias. El conocimiento puede ser estático (una vez cargado) o dinámico (actualizado por la reacción de otras neuronas o cargados de forma adaptativa a partir de una base externa de conocimientos), pero se genera preferiblemente de forma automática por el proceso de aprendizaje sin la necesidad de una computadora para hacerlo. El CogniMem depositado sobre un mismo sustrato puede utilizar el conocimiento idéntico o diferente.
El CogniMem puede ser depositado sobre o incrustado en (o acoplado de otro modo a) un sustrato como parte de un CogniSensor o de forma independiente. En el primer caso, el CogniMem normalmente se dedica a reconocer los datos de píxeles transmitidos por un elemento fotosensible. En el último caso, el CogniMem puede ser utilizado para apoyar otros CogniMems y puede ser utilizado, por ejemplo, para reconocer diferentes tipos de datos transmitidos por otras unidades CogniMem (por ejemplo, para consolidar un patrón de respuestas de múltiples CogniSensores).
Las siguientes patentes enumeradas y las aplicaciones publicadas, cuyo contenido total de cada uno se incorporan aquí por referencia, describen varios aspectos de neurona y redes neuronales aplicables a los CogniMems y CogniSensores: Patente de E.U. N° 5,621 ,863 - Circuito de neurona; Patente de E.U. N° 5,717,832 - Mejora de la arquitectura del circuito neuronal; Patente de E.U. N° 5,701 ,397 - Circuito para la pre-carga de un circuito neuronal libre; Patente de E.U. N° 5,710,869 - Circuito Daisy-Chain para la conexión en serie de los circuitos neuronales; Patente de E.U. N° 5,740,326 - Circuito para buscar / ordenar datos en redes neuronales; Patente de E.U. N° 6,332,137 - Memoria asociativa paralela para el reconocimiento de hardware independiente; Patente de E.U. N° 6,606,614 - Alambre simple de búsqueda y clasificación; solicitudes Japonesas JP8-17 543 - Circuito Daisy-Chain para la conexión en serie de los circuitos neuronales; JP8-171542- Circuitos de carga avanzados; JP8-171541 - Circuitos de agregación (búsqueda / clasificación); JP8-171540 -Red neuronal y chip neuronal; JP8-069445 - Arquitectura del circuito neuronal; solicitudes de patentes de Corea KR 164943- Arquitectura innovadora de circuito neuronal; patentes europeas EP 0 694 852 - Arquitectura innovadora de circuitos neuronales; EP 0 694 854 - Mejora de la arquitectura de los chips semiconductores neurales; EP 0 694 855 - Búsqueda / clasificación para redes neuronales ; EP 0 694 853 - Circuito de precarga de los componentes del vector de entrada en un circuito neuronal gratuito durante la fase de reconocimiento; EP 0 694 856 - Circuito Daisy-Chain para la conexión en serie de los circuitos neuronales; la solicitud canadiense CA2149478 - Mejora de la arquitectura del circuito neuronal; patente canadiense CA2149479 - Mejora de la arquitectura de los chips semiconductores neurales.
El número de neuronas ¡mplementadas en un CogniMem puede variar de 1 a N, con N teóricamente ilimitado debido a la arquitectura de la celda de la neurona. Actualmente, N puede ser tan alta como aproximadamente 1000. En general, las N se determina por la aplicación y, en particular, por la diversidad de patrones a ser reconocidos y el tipo de decisiones a transmitir. Un técnico en la materia reconocerá que la tecnología de silicio puede ser un factor significativo para determinar el número de neuronas que pueden ser proporcionadas por cada unidad de superficie.
Un ejemplo de configuración de un dispositivo de reconocimiento de imágenes de acuerdo con una realización de la presente invención se ilustra en las Figuras 1A y 1 B. La Figura 1A es una vista superior del dispositivo 100, que incluye un sustrato 102 que se puede hacer de un número de materiales transparentes o semi-transparentes, tales como vidrio, plexiglás, plástico transparente, etc. Uno o más CogniSensores 104 (en este caso, como una matriz) pueden ser incrustados en el sustrato 102 o, como en este caso, unido o pegado a o acoplado de otro modo a una superficie del sustrato 102 (véase la Figura 1 B). Una trayectoria óptica puede ser grabada o depositada delante de cada elemento fotosensible en el sustrato. Por ejemplo, el sustrato 102 puede ser grabado en la ubicación de los CogniSensores 104 con el fin de crear las lentes 102a para cada CogniSensor 104. Alternativamente, una microlente 102a se puede insertar en el sustrato 102 (Figura 2) o pegar (Figuras 3 A-B) sobre el sustrato 102 en frente de los elementos fotosensibles. Otra opción puede ser alterar el sustrato para variar el índice de reflexión de la porción del sustrato próximo a cada sensor, para enfocar la luz incidente. Como se muestra en la Figura 1 B, la luz incidente se centra en cada CogniSensor 104 por medio de las lentes de sustrato 102a.
La pluralidad de lentes 102a permite que los CogniSensores 104 cubran una variedad de campos de visión, preferiblemente iguales a la superficie del sustrato, pero también, posiblemente, pueden cubrir puntos de vista más estrechos o más largos que los del campo de visión igual a la superficie del sustrato. Las microlentes 102a transforman a la matriz de CogniSensores 04 en un dispositivo de percepción de imagen telecéntrica con una superficie y vista ilimitadas.
La Figura 2 es una vista superior de un dispositivo de formación de imágenes monolíticas de acuerdo con otra realización de la presente invención. Como se muestra, las lentes 102a están incrustadas en el sustrato 102 y se colocan sobre cada CogniSensor 104. Como un ejemplo de un uso del dispositivo de formación de imágenes, se muestran fragmentos de ADN 202 estando posicionados sobre la superficie del sustrato 102. Cada CogniSensor 104 podría estar configurado para reconocer de forma individual, o en colaboración con CogniSensores 104 adyacentes, un fragmento de ADN particular, y emitir una señal cuando se identifica ese fragmento.
Las Figuras 3A-B ilustran un ejemplo de realización de un CogniSensor 104 individual. Como se muestra en la Figura 3A, un área de neuronas concentradas 104a rodea una región de detección de píxel 104b. Las neuronas en el área de neuronas 104a se pueden acoplar a elementos de detección en el área de píxeles 104b y pueden ser configuradas para reconocer patrones detectados por el área de píxeles 104b. Como se muestra en la Figura 3B, una lente convexa o micro-lente 102 se coloca sobre el área de píxeles 104b en la superficie de un sustrato 102 para enfocar la luz incidente sobre área de píxeles 104b o se conecta directamente al sensor sin un sustrato intermedio. La lente 102a podría, por ejemplo, ser depositada químicamente sobre el sustrato por medios convencionales.
La Figura 4 es un diagrama de bloque funcional de un ejemplo de CogniSensor 104 de acuerdo con una realización de la presente invención. El CogniSensor 104 incluye un sensor o zona de detección 402, una lógica presentación de datos 404, una red neuronal 406, y una lógica de decisión local 408. El sensor 402 puede incluir uno o más elementos de detección, tales como elementos fotosensibles. La lógica de presentación de datos 404 está acoplada a la zona de detección 402 y a la red neuronal 406 y está configurada para presentar la salida de datos de los sensores a las neuronas de una manera adecuada para su procesamiento. El neuronas 406 están o serán "enseñadas" con el conocimiento y pueden procesar la entrada de datos a las neuronas 406 desde la lógica de presentación 404, y sacar los datos procesados a la lógica de decisión local 408, que toma una decisión basada en los datos procesados. La lógica de decisión local 408 puede estar acoplada a otros CogniSensores o CogniMems por diversos métodos conocidos. En consecuencia, los CogniSensores 104 pueden estar dispuestos en matrices y en matrices de matrices.
Las Figuras 5A y 5B muestran los arreglos de matrices de CogniSensores. Como se muestra en la Figura 5A, cada CogniSensor 04 puede estar acoplado a una pluralidad de CogniSensores 104 para formar una matriz 502. Como se describe a continuación, buses de entrada y de salida pueden ser utilizados para el acoplamiento en serie o en paralelo de los sensores.
Como se muestra en la Figura 5B, cada matriz 502 puede estar acoplada a una pluralidad de matrices 502 para formar un banco de matrices 504. Mediante la disposición de matrices de matrices de CogniSensores 104, se produce un dispositivo de reconocimiento extremadamente poderoso, que es a la vez de alta resolución y de alta velocidad. Es decir, la resolución del dispositivo de formación de imágenes se puede aumentar mediante el aumento del número de sensores. Sin embargo, al proporcionar una robusta capacidad de decisiones locales en forma de CogniMem, el aumento en el número de CogniSensores no disminuye la velocidad de procesamiento del dispositivo. Además, se comprenderá que las matrices se pueden organizar de muchas geometrías diferentes y la invención no se limita a matrices cuadradas.
Como se mencionó anteriormente, cada neurona puede estar acoplada a una pluralidad de entradas de 1-n, que pueden ser, por ejemplo, entradas multiplexadas, pero no se limita a estas. Las Figura 6A es una representación de una neurona que tiene múltiples entradas, la cual se simplifica en la Figura 6B. Como resultado, una gran variedad de neuronas se pueden montar utilizando un bus de entrada 602 (no hay un bus 602 en la Figura 6C), como se muestra en la arquitectura paralela simple de la Figura 6C. Cada salida de las neuronas 406 se puede conectar a un bus de decisiones globales 406.
La Figura 7 es un diagrama de bloque funcional de un ejemplo de neurona de acuerdo con una realización de la presente invención. El propósito de las neuronas organizadas en forma de una red de expansión ilimitada es aprender y recordar vectores o firmas digitales (el patrón). Las firmas digitales son en su mayoría las distribuciones espaciales de la intensidad de luz codificada por un proceso de reducción de datos. Las neuronas pueden ser conectadas en paralelo como se representa en la Figura 6C, lo que significa que todas las entradas de las neuronas están conectadas en paralelo, así como todas sus salidas.
Las señales de datos pueden ser introducidas desde un bus de entrada multiplexada (no se muestra) hacia dentro de la neurona 700. Un multiplexor de aprendizaje 702 puede dividir las señales de entrada multiplexadas y transmitir señales de datos de entrada en una memoria de recuperación de neurona 704 y en un elemento de lógica asociativa 706. La memoria de recuperación de neurona 704 procesa las señales de entrada y saca señales procesadas al elemento de lógica asociativa 706. El elemento de lógica asociativa 706 incluye un elemento de decisión de factores similares 706a.
Cada neurona puede recibir un patrón transmitido (es decir, el vector que representa una firma digital de los datos del sensor) generado por la lógica de presentación de datos 404. Este patrón transmitido puede ser una transformación (reducción de datos) de datos generados del sensor ya sea instantáneos, o en el dominio del tiempo.
Una neurona tiene tres posibles estados cronológicos subsecuentes: latente, lista para aprender (RTL) y comprometida después de eso. Al menos una neurona está en el estado RTL en todo momento, excepto si la red está llena (es decir, todas las neuronas están comprometidas). Si se tienen en cuenta a todas las neuronas conectadas en paralelo como una cadena, la neurona RTL puede pasar de la primera posición de la cadena a la última posición. En el contexto de esta representación, la neurona RTL estará típicamente en el lado derecho de la neurona comprometida y la neurona latente estará en el lado derecho de la neurona RTL.
Cuando una neurona está latente, no reaccionará a ningún patrón entrante. Una neurona RTL cargará el patrón de entrada en su memoria de recuperación con el fin de aprender si el proceso de usuario así lo decide. Esta neurona RTL no tendrá ninguna participación en el proceso de reconocimiento, pero se dedicará a la construcción de nuevos conocimientos mientras aprende.
El proceso de aprendizaje incluye la creación de nuevos conocimientos, cuando se produce un patrón desconocido y el usuario decide aprenderlo. Esta adición de conocimientos se llevará a cabo en la neurona RTL. Además de la creación de un nuevo conocimiento, las neuronas comprometidas, que posiblemente identifican erróneamente un patrón entrante (es decir, deja de asociar la categoría adecuada) reducirá su dominio de similitud para evitar una adicional clasificación errónea. Esto provoca la modificación de conocimiento o "aprendizaje adaptativo." Los elementos de foto pueden dar salida a un valor radiométrico digitalizado. La combinación de todos los valores a través de una distribución espacial forma un patrón; tal patrón también puede evolucionar en el dominio del tiempo y generar una corriente de patrón. Este patrón pasa a través de un proceso de reducción de datos que lleva a la firma digital (vector) del patrón radiométrico. El proceso de reducción no debe exceder lo que se llama la "matriz discriminación mínima" que se describe a continuación. Por ejemplo, con una matriz de 5 x 7, es posible discriminar todos los caracteres europeos en mayúsculas, pero no un carácter chino en Kanji (ideograma), para los cuales se necesita una matriz de 16 * 16.
Una neurona comprometida aprende un patrón cuando está en el estado RTL, al asociar el vector cargado en la memoria de recuperación 704 con una categoría mantenida en el registro de categoría 709. Cuando el patrón entrante entra en una neurona comprometida el aprendizaje / reco mux 702 le permitirá transmitirlo a la lógica asociativa 706 a fin de que este patrón tenga su similitud evaluada hacia el vector mantenido en la memoria de recuperación 704. Si se encuentra que la similitud calculada es menor o igual al factor de similitud 706a, la neurona se excitará y por lo tanto señalará a través de la lógica 712. La función de la lógica excitatoria / inhibitoria es para llevar a cabo un arbitraje global conforme tantas neuronas se exciten, entre todas las neuronas comprometidas de "disparo" (es decir, excitadas), y para "inhibir" esas neuronas que no tienen la mejor similitud.
Región de Inertes Cada CogniSensor puede estar asociado con una región de interés (ROI) para un cuadro de video. Cada CogniSensor puede extraer una firma de la ROI para transmitirla a sus neuronas (con fines de aprendizaje o reconocimiento). La firma de la ROI es un formato comprimido de sus valores de píxeles reducidos para que quepan en una secuencia de valores de N, siendo N el tamaño de las celdas de memoria de la neurona.
Tomemos el ejemplo de cuando una neurona está equipada con una capacidad de memoria de 256 bytes. Un CogniSensor puede clasificar un ROI rectangular de N x M píxeles. La firma de la ROI se reducirá de valores de N * M a valores de 256, por ejemplo, compresión de bloque simple.
Los CogniSensores se pueden configurar para procesar la ROI de cualquier forma, y una selección de extracciones de firma pueden ser de aplicación específica (por ejemplo, inspección de piezas, inspección de superficies, reconocimiento de rostros, seguimiento de objetivos, etc.). Algunas extracciones de firma pueden integrar el tiempo, repetitividad, etc. Además, las neuronas pueden ser equipadas con celdas de memoria de más de 8 bits para acomodar las entradas desde los sensores con una resolución de píxel de 12 bits o más.
La combinación de las neuronas junto con el sensor y la lógica de presentación de datos constituye un totalmente nuevo enfoque para el reconocimiento de imágenes incrustadas sin la necesidad de ningún software, ya sea para el aprendizaje o el proceso de reconocimiento.
El direccionamiento de el CogniMem puede ser de paso o selectivo (por ejemplo, impulsado por la respuesta de otras unidades CogniMem).
Debe entenderse que un sustrato que aloja al(los) CogniSensor(es) sirve como un soporte mecánico y como una lente (Véase, por ejemplo, las Figuras 1-2). El sustrato puede ser, pero no está limitado a una superficie, rígida o flexible, plana o curva, hecha de vidrio, plexiglás, plástico, Mylar (Tereftalato de polietileno) u otro material.
La conectividad entre los CogniSensores y las unidades CogniMem en un mismo sustrato debe usar preferiblemente un número mínimo de cables.
El conocimiento cargado en los CogniSensores puede atender preferentemente al reconocimiento de las diferentes familias de patrones, estén relacionados o no.
EJEMPLOS De acuerdo con una realización de la presente invención, los CogniSensores son ideales para llevar a cabo inspección durante un proceso automatizado de fabricación. Como se muestra en la Figura 8, uno o más CogniSensores podrían utilizarse para inspeccionar una botella de agua. En este ejemplo, tres CogniSensores diferentes se utilizan para inspeccionar tres regiones diferentes referenciadas como Experto 1 - 3. La respuesta global puede depender de las respuestas combinadas de los tres CogniSensores "expertos".
En este ejemplo, el CogniSensor 1 (Experto 1) puede ser entrenado para clasificar las firmas de la ROI que contiene el tapón de la botella 802. El CogniSensor 1 puede clasificar a su ROI en 2 categorías: Bueno y Malo. La categoría Malo puede combinar varios casos: la tapa no se encuentra o la tapa no está bien enroscada.
Del mismo modo, el CogniSensor 2 (Experto 2) puede aprender firmas de la ROI cruzando la línea de líquido en la botella 804. El ROI puede ser un rectángulo vertical estrecho y sería ideal cubrir los posibles niveles de llenado mínimo y máximo en la botella. En función de los criterios de control de calidad del fabricante, el CogniSensor 2 puede clasificar a su ROI en cualquier número de categorías, por ejemplo: aceptable y no aceptable; demasiado alto, aceptable y demasiado baja; o demasiado alto, alto pero aceptable, en el rango, bajo pero aceptable, demasiado baja.
El CogniSensor 3 (Experto 3) puede aprender firmas de la región de interés que cubre el área de la etiqueta 806. El CogniSensor 3 puede ser entrenado para reconocer una diversidad de casos o combinación de casos, como por ejemplo: Falta de la etiqueta, etiqueta defectuosa (rota, rayada o doblada), etiquetas mal colocadas (boca abajo, inclinada) y buena.
Una salida de los CogniSensores 1-3 podría ser proporcionada al controlador asociado con el proceso de fabricación automatizado para tomar acciones apropiadas basadas en las decisiones tomadas por el mismo.
De acuerdo con una realización de la presente invención, los CogniSensores pueden ser empaquetados individualmente para formar una celda fotoeléctrica inteligente o microlentes inteligentes. Tal dispositivo tiene aplicación en un gran número de tecnologías y podría ser utilizado, por ejemplo, para detectar partes móviles, identificar recorridos o encaminar partes móviles en un proceso de montaje mecanizado (Figura 9A); para la identificación biométrica, tal como en una cámara teléfono (Figura 9B), o para la detección e identificación de un visitante en una mirilla de puerta o similares (Figura 9C).
De acuerdo con otra realización de la presente invención, se proporciona un sistema de detección y aviso a los conductores. Haciendo referencia a la Figura 10, uno o más CogniSensores 104 pueden estar incrustados en el parabrisas, pantalla de panel plano de la salpicadera, o faros de un vehículo de motor. A los CogniSensores 104 se les puede enseñar a reconocer los patrones que indican cuando un conductor ya no está atento (por ejemplo, el conductor se está quedando dormido) y emite una señal para activar una alarma. Estos patrones podrían incluir seguimiento de la mirada, reconocimiento facial, reconocimiento de expresiones faciales y mucho más. Además, a los CogniSensores 104 en el parabrisas o los faros se les puede enseñar a reconocer objetos o acontecimientos externos al vehículo, como para identificación de las gotas de lluvia con un sistema de limpiaparabrisas o los peligros de la carretera para un sistema de advertencia de peligro en la carretera.
La detección de un objeto que puede aparecer al azar en el campo de visión lejano o cercano se puede hacer de varias maneras. Por ejemplo, dos o tres sensores pueden ser equipados con lentes de enfoque a diferentes distancias. Los sensores se pueden cargar con el mismo conocimiento, pero funcionan en regiones de interés con diferentes tamaños. La respuesta global del sistema de reconocimiento puede ser considerado positivo si al menos un sensor reconoce el objeto.
Además, los CogniSensores pueden ser diseñados con sensores sensibles de entrada a diferentes longitudes de onda, como cercana al IR, IR, filtro de color, etc. Para un objeto o escena determinada, los CogniSensores producirán diferentes valores de los píxeles, pero pueden ser entrenados en sus respectivas imágenes de vídeo para reconocer las categorías de los objetos. En el seguimiento del objetivo, la combinación de CogniSensores cercanos al IR e IR dará la capacidad de reconocer un objetivo en cualquier momento del día.
De acuerdo con otra realización de la presente invención, las matrices de CogniSensores se pueden utilizar en muchas otras aplicaciones de fabricación. Por ejemplo, como se muestra en la Figura 11 A, una matriz de una dimensión de CogniSensores 1 102 se puede utilizar para la inspección de flotadores de vidrio 1 103 en un proceso de fabricación. Como se muestra en la Figura 1 1 B, una matriz de 2 dimensiones de CogniSensores 1 104 se puede utilizar para la detección de contaminantes en la parte inferior de los contenedores 1 105, tales como botellas de bebidas. En este tipo de aplicaciones, se puede enseñar a cada CogniSensor a identificar los patrones que indican defectos en el vidrio o contaminantes en un fluido.
De acuerdo con otra realización de la presente invención, los CogniSensores pueden ser distribuidos a través de un plano de vidrio o similar, para llevar a cabo múltiples funciones independientes. Los CogniSensores pueden ser agrupados y enseñados con diferentes conocimientos por cada grupo. La Figura 12 muestra como un ejemplo, una puerta corrediza de cristal 1202 que incluye varios grupos de CogniSensores 1204 para la detección de objetos de diferentes tamaños que se aproximan. Un primer grupo podría ser enseñado con el conocimiento para el reconocimiento de un primer tamaño 1208 de humano o animal (por ejemplo, perro), mientras que un segundo grupo puede ser ensenado para una persona de diferente tamaño 1210 (por ejemplo, muchacho), un tercer grupo para una persona de otro tamaño 1212 (por ejemplo, adulto), y así sucesivamente. Cada grupo 1204 podría ser acoplado a uno o más CogniMems 1206 para el control de la puerta corrediza.
De acuerdo con otra realización de la presente invención, tal como se muestra en las Figuras 13A-13D, uno o más elementos de luz 1301 pueden estar incrustados en o posicionados sobre el mismo sustrato 02 en o sobre cada uno o más CogniSensores 104 están incrustados o posicionados. Cada CogniSensor 104 tiene un campo de visión del que recibe la luz incidente sobre el Cognisensor 104. Un elemento de luz 1301 puede estar configurado para emitir luz al menos en el campo de visión de uno o más CogniSensores 104 (por ejemplo, configurado para emitir luz a través del sustrato 102). Alternativamente, un elemento de luz 301 puede estar configurado para emitir luz, al menos, fuera de un campo de visión de uno o más CogniSensores 104 (por ejemplo, configurado para emitir luz lejos del sustrato 102). En algunas realizaciones, uno o más elementos de luz 1301 pueden ser configurados para emitir luz a un lado del sustrato 102, y uno o más de otros elementos de luz 1301 pueden ser configurados para emitir luz para el otro lado del sustrato 102.
El uno o más elementos de luz 1301 pueden ser, sin limitarse a, diodos emisores de luz (LEDs), LEDs orgánicos (OLEDs), cavidades de plasma o de cualquier otra fuente luminosa electrónica o química adecuada. El uno o más elementos de luz 1301 pueden ser accionados para emitir luz que tiene una intensidad y / o color predeterminado. La intensidad y / o color de uno o más elementos de luz 1301 puede ser diferente de la intensidad y / o color de la luz emitida por uno o más de los otros elementos de luz 1301 . Además, uno o más elementos de luz 1301 pueden estar configurados de modo que la intensidad y / o color de la luz emitida sea ajustable o controlable. Tan pocos como un CogniSensor 104 y un elemento de luz 1301 pueden ser integrados en o colocados sobre el sustrato 102. Sin embargo, una pluralidad de CogniSensores 104 y / o una pluralidad de elementos de luz 1301 puede estar incrustada en o colocada sobre el sustrato 102. Cuando se utiliza una pluralidad de CogniSensores 104 y / o elementos de luz 1301 , los elementos de luz 1301 y los CogniSensores 104 pueden formar una matriz en el sustrato 102, y el número de elementos de luz 1301 pueden o no pueden corresponder con el número de CogniSensores 104. Por ejemplo, puede haber un cierto número de elementos de luz 1301 por cada uno de los CogniSensores 104. El uno o más elementos de luz 1301 se pueden configurar para proporcionar imágenes de iluminación y / o visualización.
Como se ha descrito anteriormente y se muestra en las Figuras 3A y 3B, cada uno de los uno o más CogniSensores 104 pueden incluir un área de píxeles 104b y una zona de neuronas 104a. El área de píxeles 104b puede recibir luz incidente sobre área de píxeles 104b desde un campo de visión del CogniSensor 104, y las neuronas en la zona de neurona 04a pueden estar configuradas para detectar y reconocer patrones de la luz recibida por el área de píxeles 104b. Cada uno de los uno o más elementos de luz 1301 puede estar conectado a y controlarse de acuerdo con la(s) salida(s) de uno o más CogniSensores 104. En consecuencia, cada uno de los uno o más elementos de luz 1301 puede ser controlado de acuerdo con los patrones reconocidos por uno o más CogniSensores 104. Por ejemplo, uno o más CogniSensores 104 pueden controlar los elementos de luz 1301 para proporcionar iluminación inteligente y / o pantalla inteligente.
Una matriz de CogniSensores 104 y elementos de luz 1301 que pueden ser incorporados en o colocados sobre el sustrato 102 como se muestra en la Figura 13A. En esta realización, los CogniSensores 104 y los elementos de luz 1301 están dispuestos en filas y columnas alternadas de CogniSensores 104 y elementos de luz 1301. Además, debido a que los CogniSensores 104 y los elementos de luz 1301 se alternan tanto en las filas como en las columnas, uno o más de los CogniSensores 104 son adyacentes a un elemento de luz 1301 en cada uno de los cuatro lados del CogniSensor 104. Del mismo modo, uno o más de los elementos de luz 1301 son adyacentes a un CogniSensor 104 sobre cada uno de los cuatro lados del elemento de luz 1301 . En realizaciones alternativas, los CogniSensores 104 y los elementos de luz 1301 pueden ser dispuestos en columnas o filas alternadas de CogniSensores 104 y elementos de luz 1301 . En estas realizaciones, puede haber una relación uno a uno de los elementos de luz 1301 con los CogniSensores 104. Además, cada uno de los CogniSensores 104 puede controlar la intensidad y / o color de un elemento luz 1301 adyacente y / o elementos de luz 1301 no adyacentes.
Una matriz de CogniSensores 104 y elementos de luz 1301 que pueden ser incorporados en o colocados sobre el sustrato 102 según otra realización se muestra en la Figura 13B. En esta realización, uno o más CogniSensores 04 pueden estar incrustados en o colocados sobre un sustrato 102, y cada CogniSensor 104 está rodeado por una pluralidad de elementos de luz 301. Por ejemplo, y como se muestra en la Figura 13B, cada uno de los CogniSensores 104 puede estar rodeado por doce elementos de luz 1301 . Sin embargo, otras relaciones son posibles. Por ejemplo, cada CogniSensor 104 puede estar rodeada por ocho elementos de luz 1301 . Aunque los elementos de luz 1301 pueden formar un solo anillo alrededor de cada CogniSensor 104, uno o más anillos adicionales de elementos de luz 1301 también se pueden formar alrededor de cada CogniSensor 104. Cada CogniSensor 104 puede controlar la intensidad y / o color de los elementos de luz 1301 que rodean al CogniSensor 104 y / o elementos de luz que rodean a otros CogniSensores 104.
La Figura 13C muestra una sección transversal de CogniSensores 104 y elementos de luz 1301 integrados en o colocados sobre un sustrato transparente o semi-transparente 102. En esta realización, los elementos de luz 1301 emiten luz hacia el lado de sustrato 102 desde los que se recibe la luz incidente sobre los CogniSensores 104. En consecuencia, los elementos de luz 1301 pueden ser configurados para emitir luz a través del sustrato 102 en el campo de visión de uno o más CogniSensores 104. Como se ilustra, lentes 102a se encajan en o se colocan sobre el sustrato 102, y cada lente 102a proporciona una trayectoria óptica ya sea a un CogniSensor 104 o un módulo de luz de 1301. Los lentes 102a pueden formarse en cualquiera de las maneras descritas anteriormente en lo que se refiere a las Figuras B, 2 y 3B. Además, como se muestra en la Figura 13C, los CogniSensores 104 y los elementos de luz 1301 pueden alternarse y el relleno la capa de relleno 1310 puede estar situada entre los CogniSensores 104 y los elementos de luz 1301 alternados. La capa de relleno 1310 puede incluir conductores directamente grabados o difundidos en el sustrato 102 configurados para suministrar energía y / o llevar señales hacia y / o desde los CogniSensores 104 y hacia y / o desde los elementos de luz 1301 . El uno o más CogniSensores 104 y / o el uno o más elementos de luz 1301 pueden estar interconectados entre sí por un cableado transparente u opaco. Además, uña capa de cubierta 131 1 puede estar situada en el costado de los CogniSensores 104 y los elementos de luz 1301 y frente a al sustrato 102. Como el sustrato 102, la capa de cubierta 131 1 puede ser transparente o semi-transparente y puede estar hecha de vidrio, plexiglás o plástico transparente.
La Figura 13D muestra una sección transversal de CogniSensores 104 y elementos de luz 1301 incrustados en o situados sobre el sustrato 102 transparente o semitransparente de acuerdo con una realización en la que los elementos de luz 1301 emiten luz a un lado del sustrato 102 opuesto al lado del sustrato 102 desde el cual se recibe la luz incidente sobre los CogniSensores 104. En consecuencia, los elementos de luz 1301 pueden, por ejemplo, emitir luz a través de la capa de cubierta 131 1 en lugar de a través del sustrato 102. Como se muestra en la Figura 13D, lentes 102a pueden ser incrustadas en o colocadas sobre el sustrato 102 y la capa de cubierta 131 1 . Cada lente 102a incrustada en o colocada sobre el sustrato 102 proporciona una trayectoria óptica a un CogniSensor 104, y cada lente 102a incrustada en o colocado sobre la capa de cubierta 131 1 proporciona una trayectoria óptica a un elemento de luz 1301. Una lente 102a puede estar incrustada en o colocada sobre la capa de cubierta 1311 en cualquiera de las maneras descritas anteriormente en la que las lentes 102a están incrustadas en o posicionadas sobre el sustrato 02.
Todos los elementos de luz 1301 que se muestran en la Figura 13C están configurados para emitir luz a través del sustrato 102, y todos los elementos de luz 1301 que se muestran en la Figura 13D están configurados para emitir luz a través de la capa de cubierta 131 . Sin embargo, en algunas realizaciones, uno o más elementos de luz 1301 pueden ser configurados para emitir luz a través de sustrato 102, mientras que otros elementos de luz están configurados para emitir luz a través de la capa de cubierta 131 1.
En operación, las salidas de uno o más CogniSensores 104 puede ser utilizadas para controlar uno o más elementos de luz 1301 . Como se describió anteriormente, los uno o más CogniSensores 104 se pueden usar para detectar y reconocer patrones de luz incidente sobre las zonas de píxeles 104b de los CogniSensores 104. Por lo tanto, uno o más CogniSensores 104 pueden ser entrenados para detectar la presencia de uno o más objetos dentro del campo de visión de los CogniSensores, para contar el número de objetos dentro del campo de visión, para determinar la distancia entre uno o más objetos detectados y el sustrato 102 o el CogniSensor 104 (por ejemplo, a través de la estereoscopia), para localizar la posición de uno o más objetos detectados, para determinar si uno o más de los objetos detectados son objetos autorizados, para reconocer las caras dentro del campo de visión, para reconocer expresiones faciales en las caras reconocidas, para localizar y realizar un seguimiento de la mirada de uno o más espectadores dentro del campo de visión, y / o para llevar a cabo la identificación biométrica. Además, uno o más CogniSensores 104 pueden controlar uno o más elementos de luz 1301 cuando se detecta un objeto desconocido. Aunque no aparece de forma exhaustiva en este documento, otras formas de reconocimiento de patrones conocidos por los técnicos en la materia también son posibles.
Los patrones reconocidos por uno o más CogniSensores 104 pueden entonces ser utilizados para controlar selectivamente e individualmente cada uno de los uno o más elementos de luz 1301. Ejemplos del control selectivo de uno o más elementos de luz 1301 pueden incluir girar uno o más elementos de luz 1301 encenderlo o apagarlo, ajustar la intensidad de la luz emitida por uno o más elementos de luz 1301 , y / o ajustar o cambiar el color de la luz emitida por uno o más elementos de luz 1301.
Además, debido a que los CogniSensores 104 pueden ser repartidos en o sobre el sustrato 102, los CogniSensores 104 pueden tener una gran área de detección sin necesidad de una gran lente angular. En consecuencia, los CogniSensores 104 pueden detectar y reconocer objetos, incluso cuando los objetos están muy cerca del sustrato 02.
Las Figuras 14A-14C ilustran un ejemplo de configuración de elementos de luz 1301 y CogniSensores 104 en una unidad de iluminación inteligente 1400. Al igual que las realizaciones mostradas en las Figuras 1 -7, la unidad de iluminación inteligente 1400 tiene un sustrato transparente o semi-transparente 102, y uno o más CogniSensores 104 están incrustados en o colocados sobre el sustrato 102. Además, uno o más elementos de luz 1301 pueden estar incrustados en o colocados sobre el sustrato 102. En algunas realizaciones, se puede proporcionar una capa de cubierta 131 1 detrás de los uno o más CogniSensores 104 y uno o más elementos de luz 1301 , y puede ser proporcionada una capa de relleno 1310 entre el sustrato 102 y la capa de cubierta 1311 . Al tener uno o más CogniSensores 104 y uno o más elementos de luz 1301 en o sobre el mismo sustrato 102, la unidad de iluminación inteligente puede ser delgada y compacta.
Como se muestra en la Figura 14A, los CogniSensores 104 y los elementos de luz 1301 pueden formar una matriz en o sobre el sustrato 102. Aunque un ejemplo específico en el que los grupos de CogniSensores 104 y los elementos de luz 1301 están dispuestos en o sobre el sustrato 102 se muestra en la Figura 14A, muchas otras disposiciones son posibles. Por ejemplo, los CogniSensores 104 y los elementos de luz 1301 pueden ser distribuidos de manera uniforme sobre el sustrato 102, pueden ser agrupados juntos, pueden estar situados periféricamente, y / o pueden estar situados en el centro.
La Figura 14B muestra una sección transversal de la unidad de iluminación inteligente 1400, y la Figura 14C muestra una imagen en explosión ordenada de una porción de la sección transversal mostrada en la Figura 14B que tiene un CogniSensor 104 y elementos de luz 1301. Aunque se muestra una configuración específica ejemplar en la que los elementos de luz 1301 se encuentran en ambos lados del CogniSensor 104, son posibles otras configuraciones. Por ejemplo, el CogniSensor 104 puede estar rodeado por todos lados por elementos de luz 1301 formando un cuadrado, rectángulo, círculo y / u ovalo alrededor CogniSensor 104, y / o los CogniSensores 104 y los elementos de luz 1301 pueden estar alternados. Alternativamente, puede haber un solo CogniSensor y / o un solo elemento de luz 1301. Además, el CogniSensor 104 pueden incluir una matriz de CogniSensores como se muestra en la Figura 5A o puede incluir una matriz de matrices de CogniSensores como se muestra en la Figura 5C. Como se muestra en la Figura 14B, la unidad de iluminación inteligente 1400 también puede incluir una capa de relleno 1310 situada entre el sustrato 102 y la capa de cubierta 131 1. La capa de relleno 1310 puede incluir conductores directamente grabados o difundidos en el sustrato 102 configurado para suministrar energía y / o llevar señales hacia y / o desde uno o más CogniSensores 104 y hacia y / o desde uno o más elementos de luz 1301 .
Como se muestra en la Figura 14C, los CogniSensores 104 pueden recibir la luz transmitida a través del sustrato transparente o semi-transparente, 102, y elementos de luz 1301 pueden emitir luz a través del sustrato 102. Sin embargo, uno o más elementos de luz 1301 pueden emitir luz a través de la cubierta de vidrio 131 1 en su lugar.
En funcionamiento, una unidad de iluminación inteligente 1400 puede controlar la luz emitida desde los elementos de luz basada en los patrones detectados en el campo de visión de los CogniSensores 104. Por ejemplo, la unidad de iluminación inteligente 1400 puede activar o aumentar la intensidad de luz emitida por uno o más elementos de luz 1301 en respuesta a los CogniSensores 104 al detectarse que una o más personas están presentes en el campo de visión de los CogniSensores. Del mismo modo, la unidad de iluminación inteligente 1400 puede apagar o atenuar (es decir, reducir la intensidad de la luz emitida por) uno o más elementos de luz 1301 en respuesta a los CogniSensores 104 al detectar que no hay personas presentes en el campo de visión de los CogniSensores.
Uno o más elementos de luz puede ser controlado en respuesta al comportamiento reconocido por la unidad de iluminación inteligente 1400. Por ejemplo, una unidad de iluminación inteligente 1400 puede reconocer que una persona ha abierto un libro y, en respuesta, aumentar la intensidad de la luz dirigida hacia el libro. Una unidad de iluminación inteligente puede apagar o atenuar uno o más elementos de luz 1301 en respuesta a uno o más CogniSensores 104 al reconocer que una o más personas en el campo de visión se han establecido en una cama. Si uno o más CogniSensores 104 en una unidad de iluminación inteligente 1400 ha sido entrenado para reconocer cuando una o más personas se han derrumbado, la unidad de iluminación inteligente puede cambiar el color de la luz emitida por el o los elementos de luz 1301 (por ejemplo, cambiar el color de la luz emitida a rojo).
Además, los resultados del reconocimiento de patrones se pueden transmitir fuera de la unidad de iluminación inteligente 1400. Una unidad de iluminación inteligente 1400, que ha reconocido que una persona se ha derrumbado podrá notificar al personal de emergencia. En un ambiente de hotel, además de atenuar o apagar uno o más elementos de luz 1301 , la unidad de iluminación inteligente 1400 podría informar a la recepción y / o el personal de limpieza que las personas ya no están en la sala. Además, la unidad de iluminación inteligente 1400 podría señalar a los ventiladores, acondicionadores de aire y / o calentadores apagarse cuando los clientes ya no están presentes.
En un medio penitenciario, la unidad de iluminación inteligente 1400 se puede usar para reconocer y emitir el número de internos en una celda. La unidad de iluminación inteligente 1400 se puede utilizar para reconocer cuando hay una pelea en curso o cuando un preso necesita atención médica. La unidad de iluminación inteligente 1400 también podría establecer una alarma, cambiando el color de la luz emitida por uno o más elementos de luz 1301 , y / o notificando al personal penitenciario cuando el número de reclusos en una celda es más o menos de una cantidad esperada, hay un lucha en curso, o se necesita atención médica.
Por otra parte, debido a que la unidad de iluminación inteligente 1400 realiza el reconocimiento de patrones a nivel local, la transmisión de imágenes o vídeo no es necesario, y la unidad de iluminación inteligente 1400 reconoce el comportamiento sin inmiscuirse en la privacidad de las personas.
La unidad de iluminación inteligente 1400 puede usarse también en un cristal de ventana en un invernadero u otro edificio. Uno o más CogniSensores 104 pueden detectar la cantidad de luz fuera del edificio y controlar uno o más elementos de luz 1301. Por ejemplo, una unidad de iluminación inteligente 1400 se puede utilizar en un invernadero para activar uno o más elementos de luz 1301 para proporcionar luz adicional en los días nublados, manteniendo uno o más elementos de luz 1301 desactivados en los días soleados. Además, la unidad de iluminación inteligente 1400 se puede utilizar como una ventana en el techo o en la pared de un edificio. Por ejemplo, cuando se utiliza como una ventana, la unidad de iluminación inteligente 1400 puede simplemente aparecer como una ventana transparente o semi-transparente mientras el o los CogniSensores 104 recibe más de una cierta cantidad de luz, pero unidad de iluminación inteligente 1400 puede proporcionar iluminación mientras que los uno o más CogniSensores 104 reciben menos de la cierta cantidad de luz. En estas realizaciones, la unidad de iluminación inteligente 1400 puede usar la configuración de los elementos de luz 1301 y CogniSensores 104 mostrados en la Figura 13D.
Las Figuras 15A y 15B ilustran ejemplos de configuraciones de uno o más elementos de luz 1301 y uno o más CogniSensores 104 en una pantalla inteligente 1500. Al igual que las realizaciones mostradas en las Figuras 1-7, la pantalla de iluminación inteligente 1500 tiene un sustrato 102 transparente o semi-transparente, y uno o más CogniSensores 104 están incrustados en o colocados sobre el sustrato 102. Además, uno o más elementos de luz 1301 están incrustados en o colocados sobre el sustrato 102. Los elementos de luz 1301 están geométricamente dispuestos y configurados para formar imágenes. Las imágenes formadas se pueden mostrar a los objetos en el campo de visión de uno o más CogniSensores 104. Las imágenes que se muestran pueden incluir una secuencia de imágenes (por ejemplo, vídeo). La pantalla Inteligente 1500 puede tener una unidad de entrada / salida a través de la cual las imágenes que se muestren se pueden recibir y a través del cual se pueden enviar información de reconocimiento de patrones. La unidad de entrada / salida puede enviar y recibir señales de forma inalámbrica. Aquí de nuevo, debido a que los uno o más CogniSensores 104 y los elementos de luz 1301 se encuentran en o sobre el mismo sustrato 102, la pantalla inteligente 1500 puede ser delgada y compacta. Además, debido a que los CogniSensores 104 pueden extenderse sobre toda la pantalla, los CogniSensores 104 pueden tener una gran área de detección y ser capaces de detectar y reconocer patrones incluso cuando los objetos están de pie muy cerca del sustrato 102 de la pantalla 1500.
Una matriz de CogniSensores 104 y elementos de luz 1301 que pueden ser incorporados en o colocados sobre el sustrato 102 de acuerdo con una realización de una pantalla inteligente 1500 se muestra en la Figura 15A. En esta realización, los CogniSensores 104 y los elementos de luz 1301 están dispuestos en filas alternadas de CogniSensores 104 y elementos de luz 1301. En esta realización, los píxeles 1301 a-1301c se utilizan como elementos de luz 1301 , y cada píxel puede producir luz de un color diferente. Por ejemplo, los elementos de luz 1301 pueden incluir píxeles rojos 1301a, píxeles verdes 1301b y píxeles azules 1301c. Los píxeles rojos 1301a pueden producir luz roja, los pixeles verde 1301b pueden producir luz verde, y los píxeles azules 1301c pueden producir luz azul. Cada CogniSensor 104 puede controlar uno o más conjuntos de uno o más píxeles rojos 1301a, uno o más píxeles verdes 1301a y uno o más píxeles azules 1301c de modo que, cuando se suman, una amplia gama de colores se puede producir. Cada CogniSensor 104 puede controlar la intensidad y / o color de un conjunto adyacente de píxeles 1301 a-1301c y / o conjuntos no adyacentes de píxeles 1301 a-1301 c.
Una matriz de CogniSensores 104 y elementos de luz 1301 que puede ser incorporada en o colocada sobre el sustrato 102 de acuerdo con otra realización de una pantalla inteligente 1500 se muestra en la Figura 15B. En esta realización, los píxeles de color rojo 1301a, los píxeles verdes 1301b y los píxeles azules 1301c se utilizan como elementos de luz 1301. Los CogniSensores 104 están incrustados en o situados sobre el sustrato transparente o semitransparente 102. Las lentes 102a incrustadas en o colocadas sobre el sustrato 102 puede proporcionar un trayectoria óptica para los CogniSensores 104. Un relleno de capa de relleno 1310 puede estar situado entre los CogniSensores 104. Los píxeles 1301 a-1301c pueden estar situados en el lado de la capa de relleno de 1310 opuesto al sustrato 102. Los píxeles 1301 a-1301c se pueden configurar para emitir luz lejos del sustrato 102. Una capa de cubierta transparente o semi-transparente puede ser cubierta de píxeles 1301a-1301c por lo que los píxeles 1301a-1301c y los CogniSensores 104 pueden estar situados entre la capa de cubierta y el sustrato 102.
Aunque un ejemplo específico de una disposición de elementos de luz 1301 y CogniSensores 104 se muestra en la Figura 15, muchas otras disposiciones son posibles como será reconocido por los técnicos en la materia. Por ejemplo, los píxeles 1301 a- 301c pueden formar un triángulo alrededor de cada CogniSensor 104. Además, podría haber una pluralidad de conjuntos de píxeles 1301a-1301c para cada CogniSensor 104.
En funcionamiento, una pantalla inteligente 1500 puede controlar la luz emitida desde los elementos de luz basados en los patrones detectados en el campo de visión de uno o más CogniSensores 104. Por ejemplo, la pantalla inteligente 1500 puede reconocer una o más características (por ejemplo, sexo, altura, peso, edad) de uno o más espectadores en el campo de visión de uno o más CogniSensores 104, y las características se pueden utilizar para mostrar publicidad dirigida de conformidad con estas. En una realización, la pantalla inteligente 1500 sigue la mirada de uno o más espectadores y / o reconoce las expresiones faciales, y, en respuesta, pueden aparecer imágenes que proporcionan más información sobre los productos en los que el espectador está interesado. Además, uno o más CogniSensores 104 puede reconocer que un espectador se aburre o no le gusta una o varias de las imágenes que se están mostrando, la información se puede utilizar para mostrar diferentes imágenes para captar la atención del espectador y / o presentan diferentes anuncios en los que el espectador puede estar más interesado. Los patrones reconocidos por uno o más CogniSensores 04 pueden ser sacados y se utilizan para determinar qué imágenes, anuncios y / o productos generan las respuestas más favorables en los espectadores.
En el contexto de la publicidad de escaparate, la pantalla inteligente 1500 puede permitir que un comprador de ventana pueda ver a la tienda a través de pantalla inteligente de 1500, seguir la mirada del comprador frente a la tienda, y mostrar información (por ejemplo, material de promoción, el precio, los tamaños disponibles, etc.) de la mercancía a la que el comprador de ventana está viendo. Dentro de las tiendas, una pantalla inteligente 1500 puede ser usada tanto para mostrar anuncios como para reconocer que se lleva a cabo un hurto en las tiendas.
La pantalla inteligente 1500 también se puede utilizar como un espejo para reproducir la imagen recibida por uno o más CogniSensores 104. Así, un espectador que mira la pantalla inteligente 1500 se vea a sí mismo. La pantalla inteligente 1500 podría entonces modificar la imagen para el entretenimiento y / o el valor de publicidad. Por ejemplo, un espectador podría ser mostrado usando la nueva línea de ropa del un anunciante y / o podría ser mostrado en otra ubicación.
Uno o más CogniSensores 104 de la pantalla inteligente 1500 también pueden ser utilizados para reconocer la ubicación y la distancia de la pantalla 1500 a varias partes del cuerpo de un espectador. Esta información puede ser utilizada para los juegos de vídeo interactivos o para controlar la pantalla inteligente. Por ejemplo, uno o más CogniSensores 104 de la pantalla inteligente 1500 pueden reconocer ciertos movimientos corporales como instrucciones para apagar la pantalla, cambiar el canal o la entrada que se está mostrando, o para ajusfar el volumen. Además, debido a que los CogniSensores 104 pueden estar dispuestos sobre todo el sustrato 102 y tienen una gran área de detección, los CogniSensores 104 pueden detectar y reconocer objetos, incluso cuando se encuentran muy cerca del sustrato 102.
Una vez más, debido a que la pantalla inteligente 1500 realiza el reconocimiento de patrones a nivel local, no es necesaria la transmisión de imágenes o vídeo, y la pantalla inteligente 500 puede reconocer el comportamiento sin inmiscuirse en la privacidad de las personas. En consecuencia, la pantalla inteligente 500 también se puede utilizar para determinar los ratings (clasificaciones) de televisión (por ejemplo, cuántas personas están viendo y / o si el o los espectadores están disfrutando de un programa).
La pantalla inteligente 1500 también puede ser usada para gafas inteligentes para mejorar la imagen vista por un usuario que lleva las gafas. Por ejemplo, gafas, gafas de sol o lentes de contacto pueden tener un sustrato transparente o semi-transparente en o sobre los cuales uno o más CogniSensores 104 están incrustados o posicionados. Los CogniSensores 104 se pueden configurar para detectar y reconocer los patrones de luz recibida por los CogniSensores 104. Los elementos de luz 1301 , que pueden ser pixeles 1301 a-1301c, pueden ser controlados de acuerdo con los patrones reconocidos por los CogniSensores 104 para mejorar las imágenes vistas por el usuario de las gafas inteligentes. Por ejemplo, las gafas inteligentes se puede utilizar para resaltar posibles armas o amenazas, mostrar los nombres de las caras reconocidas, mostrar distancias a los objetos reconocidos, resaltar objetos en movimiento o carreteras, añadir símbolos y / o mostrar nombres de puntos de referencia. Como resultado, el usuario de las gafas inteligentes puede ver una realidad aumentada, y las gafas pueden proporcionar una pantalla infinita (es decir, los patrones pueden ser detectados y reconocidos, independientemente de la dirección en la que ve el usuario).
En cualquiera de las realizaciones descritas en la presente, el sustrato 102 puede ser un plano liso orientado horizontalmente o verticalmente, pero puede también ser curvado y / o orientado en cualquier ángulo. La energía puede ser suministrada de forma inalámbrica por medio de uno o más dispositivos fotovoltaicos integrados en o unidos al sustrato 102. Además, cada uno de los CogniSensores 104 puede comunicarse a través de la(s) misma(s) linea(s) que se utiliza para suministrar energía a la CogniSensor 104. Además, las líneas de transmisión de salida y / o líneas de alimentación pueden ser grabadas y difundidas directamente en el sustrato 102.
Como debería ser evidente para un técnico en la materia, el dispositivo de formación de imágenes de la presente invención puede ser útil en otras innumerables aplicaciones no mencionados aquí. Por ejemplo, otra aplicación incluye la detección de daño permanente (cambio de textura) en una presa, puente u otra construcción hecha por el hombre. La implementación de dicha aplicación debe ser evidente a partir de la anterior descripción de realizaciones de la presente invención. Además, la transmisión de la energía y la señal podría ser inalámbrica (por ejemplo, por infrarrojos, fotocelda, bucle de inducción, etc.) Por lo tanto, un número de realizaciones preferidas se han descrito a fondo en este documento con referencia a las Figuras de los dibujos. Aunque la invención ha sido descrita en base a estas realizaciones preferidas, será evidente para los técnicos en la materia que ciertas modificaciones, variaciones, y construcciones alternativas se podrían hacer a las realizaciones descritas dentro del espíritu y alcance de la invención.

Claims (68)

REIVINDICACIONES
1 . Un dispositivo de reconocimiento de imágenes que comprende: una pluralidad de sensores cognitivos incrustados en o colocados sobre un sustrato transparente o semi-transparente, cada sensor comprende: un elemento fotosensible; y una celda de memoria cognitiva entrenable asociada con el elemento fotosensible; una pluralidad de interfaces ópticas formadas sobre o incrustadas en dicho sustrato, cada una de dicha pluralidad de interfaces ópticas acoplada ópticamente a un correspondiente sensor cognitivo de dicha pluralidad de sensores cognitivos; y una pluralidad de elementos de luz posicionados sobre dicho sustrato y configurados para emitir luz.
2. El dispositivo de reconocimiento de imágenes de la reivindicación 1 , caracterizado porque luz emitida por uno o más de la pluralidad de elementos de luz se controla de acuerdo con una salida de uno o más de la pluralidad de sensores cognitivos.
3. El dispositivo de reconocimiento de imágenes de la reivindicación 1 , caracterizado porque la pluralidad de elementos de luz es arreglada geométricamente para formar un aparato de visualización de imagen.
4. El dispositivo de reconocimiento de imágenes de la reivindicación 3, caracterizado porque el aparato de visualización de imagen está configurado para mostrar una imagen que representa la luz recibida en los elementos fotosensibles de uno o más de la pluralidad de sensores cognitivos.
5. El dispositivo de reconocimiento de imágenes de la reivindicación 3, caracterizado porque cada sensor cognitivo es entrenado y configurado para reconocer patrones basados en la luz incidente; y el aparato de visualización de imagen está configurado para mostrar una imagen y para modificar la imagen de acuerdo con los patrones reconocidos por uno o más de la pluralidad de sensores cognitivos.
6. El dispositivo de reconocimiento de imágenes de la reivindicación 1, caracterizado porque la pluralidad de sensores cognitivos tiene un campo de visión, y los elementos de luz están configurados para emitir luz en el campo de visión.
7. El dispositivo de reconocimiento de imágenes de la reivindicación 1, caracterizado porque la pluralidad de sensores cognitivos tiene un campo de visión, y los elementos de luz están configurados para mostrar una imagen que es visible por los objetos en el campo de visión.
8. El dispositivo de reconocimiento de imágenes de la reivindicación 1, caracterizado porque la pluralidad de sensores cognitivos tiene un campo de visión, y los elementos de luz están configurados para proporcionar la iluminación a los objetos en el campo de visión y para mostrar una imagen a los objetos en el campo de visión.
9. El dispositivo de reconocimiento de imágenes de la reivindicación 8, caracterizado porque uno o más de la pluralidad de elementos cognitivos están configurados para reconocer patrones de luz incidente y para controlar el suministro de iluminación y la visualización de la imagen de uno o más de la pluralidad de elementos de luz como una función de los patrones reconocidos.
10. El dispositivo de reconocimiento de imágenes de la reivindicación 1 , caracterizado porque cada celda de memoria cognitiva es enseñada para que reconozca una porción diferente de una imagen, y dicha pluralidad de celdas de memoria cognitiva están configuradas para operar colectivamente para reconocer dicha imagen.
1 1. El dispositivo de reconocimiento de imágenes de la reivindicación 1 , caracterizado porque cada uno de dichos elementos de memoria cognitiva comprende una pluralidad de neuronas acopladas sobre un lado de entrada de la misma por medio de un bus de entrada multiplexada y sobre un lado de salida de la misma por medio de un bus de salida, cada una de dichas neuronas se enseña con un conocimiento, dicho conocimiento permite a la neurona correspondiente reconocer una señal y realizar una decisión.
12. El dispositivo de reconocimiento de imágenes de acuerdo con la reivindicación 1 , caracterizado porque la pluralidad de sensores cognitivos están configurados para llevar a cabo digitalmente las operaciones de reconocimiento de imagen sin un programa de software a través de una pluralidad de elementos paralelos, teniendo cada uno, independiente, comportamiento autónomo.
13. El dispositivo de reconocimiento de imágenes de acuerdo con la reivindicación 1 , caracterizado porque los elementos de luz de la pluralidad de elementos de luz se seleccionan de diodos emisores de luz (LEDs), LEDs orgánicos y cavidades de plasma.
14. El dispositivo de reconocimiento de imágenes de la reivindicación 1 , caracterizado porque comprende además dispositivos fotovoltaicos integrados en o colocados sobre dicho sustrato.
15. El dispositivo de reconocimiento de imágenes de la reivindicación 1 , caracterizado porque comprende además líneas de transmisión de salida y líneas de suministro de energía que están directamente grabadas o difundidas sobre dicho sustrato.
16. El dispositivo de reconocimiento de imágenes de la reivindicación 1 , caracterizado porque cada uno de la pluralidad de sensores cognitivos está configurado para recibir energía de las líneas de suministro de energía y para emitir comunicaciones, utilizando las lineas de alimentación.
17. El dispositivo de reconocimiento de imágenes de la reivindicación 1, caracterizado porque comprende además una capa de cubierta transparente o semi-transparente, en donde la pluralidad de sensores cognitivos y la pluralidad de elementos de luz están dispuestos entre la capa de cubierta y el sustrato.
18. El dispositivo de reconocimiento de imágenes de la reivindicación 17, caracterizado porque uno o más de la pluralidad de elementos de luz está configurado para emitir luz a través del sustrato.
19. El dispositivo de reconocimiento de imágenes de la reivindicación 17, caracterizado porque uno o más de la pluralidad de elementos de luz está configurado para emitir luz a través de la capa de cubierta.
20. El dispositivo de reconocimiento de imágenes de la reivindicación 1 , caracterizado porque la pluralidad de elementos de luz y la pluralidad de sensores cognitivos están dispuestos en filas y columnas, en donde la pluralidad de elementos de luz y la pluralidad de sensores cognitivos se alternan en cada fila y se alternan en cada columna.
21 . El dispositivo de reconocimiento de imágenes de la reivindicación 1 , caracterizado porque la pluralidad de elementos de luz y la pluralidad de sensores cognitivos están dispuestos de modo que cada uno de la pluralidad de sensores cognitivos está rodeado por elementos de luz.
22. El dispositivo de reconocimiento de imágenes de la reivindicación 1 , caracterizado porque la pluralidad de elementos de luz comprende píxeles rojos, píxeles verdes y píxeles azules.
23. Un dispositivo de reconocimiento de imágenes que comprende: un elemento de detección incrustado en o colocado sobre un sustrato transparente o semi-transparente; un elemento de procesamiento acoplado a dicho elemento de detección, dicho elemento de procesamiento está incrustado en o colocado sobre el sustrato; y un elemento de luz incrustado en o colocado sobre el sustrato; en donde dicho sustrato transparente o semi-transparente constituye una interfaz óptica entre una imagen incidente a detectar y un pixel de detección de dicho elemento de detección; y en donde el elemento de luz está configurado para emitir luz hacia la imagen incidente o lejos de la imagen incidente.
24. El dispositivo de reconocimiento de imágenes de la reivindicación 23, caracterizado porque el elemento de luz comprende uno o más diodos emisores de luz (LEDs), LEDs orgánicos (OLEDs) o cavidades de plasma.
25. El dispositivo de reconocimiento de imágenes de la reivindicación 23, caracterizado porque el elemento de luz es controlado selectivamente por una salida del elemento de procesamiento.
26. El dispositivo de reconocimiento de imágenes de la reivindicación 23, caracterizado porque el elemento de procesamiento es entrenado y configurado para reconocer patrones basados en la imagen incidente detectada.
27. El dispositivo de reconocimiento de imágenes de la reivindicación 26, caracterizado porque el elemento de procesamiento está configurado para controlar la luz emitida por el elemento de luz de acuerdo con los patrones reconocidos por el elemento de procesamiento.
28. El dispositivo de reconocimiento de imágenes de la reivindicación 23, caracterizado porque el elemento de detección tiene un campo de visión, y los elementos de luz están configurados para emitir luz en el campo de visión.
29. El dispositivo de reconocimiento de imágenes de la reivindicación 23, caracterizado porque el elemento de detección tiene un campo de visión, y los elementos de luz están configurados para emitir luz en una dirección lejos del campo de visión.
30. El dispositivo de reconocimiento de imágenes de la reivindicación 23, caracterizado porque dicho elemento de procesamiento comprende una pluralidad de neuronas acopladas en un lado de entrada de la misma por un bus de entrada multiplexada y en un lado de salida de la misma por un bus de salida, cada una de dichas neurona se enseña con un conocimiento, dicho conocimiento permite a la neurona correspondiente reconocer una señal y realizar una decisión.
31. El dispositivo de reconocimiento de imágenes de acuerdo con la reivindicación 23, caracterizado porque el elemento de procesamiento está configurado para realizar digitalmente las operaciones de reconocimiento de imagen sin un programa de software a través de una pluralidad de elementos paralelos, teniendo cada uno, independiente, comportamiento autónomo.
32. El dispositivo de reconocimiento de imágenes de la reivindicación 23, que comprende además dispositivos fotovoltaicos integrados en o colocados sobre dicho sustrato.
33. El dispositivo de reconocimiento de imágenes de la reivindicación 23, que comprende además líneas de transmisión de salida y líneas de suministro de energía que están directamente grabadas o difundidas sobre dicho sustrato.
34. El dispositivo de reconocimiento de imágenes de la reivindicación 23, caracterizado porque el elemento de procesamiento está configurado para recibir energía de las líneas de suministro de energía y emitir comunicaciones, utilizando las líneas de alimentación.
35. El dispositivo de reconocimiento de imágenes de la reivindicación 23, que comprende además una capa de cubierta transparente o semi-transparente, en donde el elemento de detección, el elemento de procesamiento y el elemento de luz están dispuestos entre la capa de cubierta y el sustrato.
36. El dispositivo de reconocimiento de imágenes de la reivindicación 35, caracterizado porque el elemento de luz está configurado para emitir luz a través del sustrato.
37. El dispositivo de reconocimiento de imágenes de la reivindicación 35, caracterizado porque elemento de luz está configurado para emitir luz a través de la capa de cubierta.
38. Un método de reconocimiento de imágenes que comprende: proporcionar una trayectoria óptica a una pluralidad de elementos de detección integrados en o proporcionados sobre un sustrato transparente o semitransparente mediante el uso de una pluralidad de interfaces ópticas incrustadas en o proporcionadas sobre dicho sustrato; procesar en paralelo, las señales generadas a partir de dicha pluralidad de elementos de detección en una pluralidad de elementos de procesamiento acoplado cada uno a uno de dichos elementos de detección y cada uno incorporado en o proporcionado sobre dicho sustrato; y emitir luz a partir de una pluralidad de elementos de luz incrustados en o proporcionados sobre dicho sustrato.
39. El método de reconocimiento de imágenes de la reivindicación 38, caracterizado porque la emisión comprende controlar la luz emitida desde la pluralidad de elementos de luz, de conformidad con las salidas de uno o más de la pluralidad de elementos de procesamiento.
40. El método de reconocimiento de imágenes de la reivindicación 38, caracterizado porque el procesamiento comprende el reconocimiento de patrones y la emisión comprende controlar la luz emitida desde la pluralidad de elementos de luz de acuerdo con los patrones reconocidos.
41. El método de reconocimiento de imágenes de la reivindicación 40, caracterizado porque el reconocimiento de patrones comprende detectar la presencia de uno o más objetos dentro de un campo de visión de dicha pluralidad de elementos de detección.
42. El método de reconocimiento de imágenes de la reivindicación 41 , caracterizado porque el reconocimiento de patrones comprende determinar la distancia desde dicho sustrato a los uno o más objetos detectados.
43. El método de reconocimiento de imágenes de la reivindicación 41 , caracterizado porque el reconocimiento de patrones comprende determinar el número de los uno o más objetos detectados.
44. El método de reconocimiento de imágenes de la reivindicación 41 , caracterizado porque el reconocimiento de patrones comprende la localización de la posición de los uno o más objetos detectados.
45. El método de reconocimiento de imágenes de la reivindicación 41 , caracterizado porque el control comprende la emisión de una cantidad reducida de luz de una pluralidad de elementos de luz cuando no se detecta la presencia de ningún objeto.
46. El método de reconocimiento de imágenes de la reivindicación 41, caracterizado porque el reconocimiento de patrones comprende determinar si alguno de los uno o más objetos detectados es un objeto autorizado.
47. El método de reconocimiento de imágenes de la reivindicación 40, caracterizado porque el reconocimiento de patrones comprende la localización y seguimiento de la mirada de uno o más espectadores dentro de un campo de visión de dicha pluralidad de elementos de detección.
48. El método de reconocimiento de imágenes de la reivindicación 40, caracterizado porque el reconocimiento de patrones comprende el reconocimiento facial o reconocimiento de la expresión facial.
49. El método de reconocimiento de imágenes de la reivindicación 40, caracterizado porque los patrones de reconocimiento comprende la identificación biométrica.
50. El método de reconocimiento de imágenes de la reivindicación 38, caracterizado porque la emisión comprende mostrar una imagen.
51. El método de reconocimiento de imágenes de la reivindicación 50, caracterizado porque la imagen visualizada corresponde a una imagen recibida por la pluralidad de elementos de detección.
52. El método de reconocimiento de imágenes de la reivindicación 50, caracterizado porque el procesamiento comprende el reconocimiento de patrones y la emisión comprende además la modificación de la imagen mostrada de acuerdo con los patrones reconocidos.
53. Un dispositivo de reconocimiento de imágenes que comprende: un sustrato transparente o semi-transparente; una pluralidad de sensores cognitivos incrustados en o colocados sobre el sustrato, cada sensor comprende: un elemento fotosensible; y una celda de memoria cognitiva entrenable asociada con el elemento fotosensible; una pluralidad de interfaces ópticas formadas sobre o incrustadas en dicho sustrato, cada una de dicha pluralidad de interfaces ópticas acoplada ópticamente a un correspondiente sensor cognitivo de dicha pluralidad de sensores cognitivos; una capa de relleno que comprende un material de relleno entre los sensores cognitivos adyacentes de la pluralidad de sensores cognitivos; y una pluralidad de elementos de luz colocados en dicha capa de relleno y configurados para emitir luz.
54. El dispositivo de reconocimiento de imágenes de la reivindicación 53, caracterizado porque la pluralidad de elementos de luz comprenden pixeles rojos, pixeles verdes y pixeles azules.
55. Un método de reconocimiento de imágenes que comprende: proporcionar una trayectoria óptica a un elemento de detección incrustado en o colocado sobre un sustrato transparente o semi-transparente mediante el uso de una interfaz óptica incrustada en o colocada sobre dicho sustrato; procesar las señales generadas a partir de dicho elemento de detección en un elemento de procesamiento acoplado a dicho elemento de detección e integrado en o colocado sobre dicho sustrato; y emitir luz a partir de un elemento luminoso incrustado en o colocado sobre dicho sustrato.
56. El método de reconocimiento de imágenes de la reivindicación 55, caracterizado porque la emisión comprende controlar la luz emitida desde el elemento de luz de acuerdo con una salida del elemento de procesamiento.
57. El método de reconocimiento de imágenes de la reivindicación 55, caracterizado porque el procesamiento comprende el reconocimiento de patrones y la emisión comprende controlar la luz emitida desde la pluralidad de elementos de luz de acuerdo con los patrones reconocidos.
58. El método de reconocimiento de imágenes de la reivindicación 57, caracterizado porque el reconocimiento de patrones comprende detectar la presencia de uno o más objetos dentro de un campo de visión de dicho elemento de detección.
59. El método de reconocimiento de imágenes de la reivindicación 58, caracterizado porque el reconocimiento de patrones comprende determinar la distancia desde dicho sustrato a los uno o más objetos detectados.
60. El método de reconocimiento de imágenes de la reivindicación 58, caracterizado porque el reconocimiento de patrones comprende determinar el número de los uno o más objetos detectados.
61 . El método de reconocimiento de imágenes de la reivindicación 58, caracterizado porque el reconocimiento de patrones comprende la localización de la posición de los uno o más objetos detectados.
62. El método de reconocimiento de imágenes de la reivindicación 58, caracterizado porque el reconocimiento de patrones comprende determinar de si alguno de los uno o más objetos detectados es un objeto autorizado.
63. El método de reconocimiento de imágenes de la reivindicación 57, caracterizado porque el reconocimiento de patrones comprende la localización y seguimiento de la mirada de uno o más espectadores dentro de un campo de visión del elemento de detección.
64. El método de reconocimiento de imágenes de la reivindicación 57, caracterizado porque el reconocimiento de patrones comprende el reconocimiento facial o reconocimiento de la expresión facial.
65. El método de reconocimiento de imágenes de la reivindicación 57, caracterizado porque el reconocimiento de patrones comprende la identificación biométrica.
66. El método de reconocimiento de imágenes de la reivindicación 55, caracterizado porque la emisión comprende mostrar una imagen.
67. El método de reconocimiento de imágenes de la reivindicación 66, caracterizado porque la imagen mostrada corresponde a una imagen recibida por el elemento de detección.
68. El método de reconocimiento de imágenes de la reivindicación 66, caracterizado porque el procesamiento comprende el reconocimiento de patrones y la emisión comprende además la modificación de la imagen que se muestra de acuerdo con los patrones reconocidos.
MX2013002848A 2010-09-13 2011-09-12 Dispositivo y metodo para la percepcion de imagen monolitica. MX2013002848A (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/880,964 US8478081B2 (en) 2005-06-30 2010-09-13 Monolithic image perception device and method
PCT/US2011/051215 WO2012037027A1 (en) 2010-09-13 2011-09-12 Monolithic image perception device and method

Publications (1)

Publication Number Publication Date
MX2013002848A true MX2013002848A (es) 2013-06-28

Family

ID=44801136

Family Applications (1)

Application Number Title Priority Date Filing Date
MX2013002848A MX2013002848A (es) 2010-09-13 2011-09-12 Dispositivo y metodo para la percepcion de imagen monolitica.

Country Status (12)

Country Link
US (2) US8478081B2 (es)
EP (1) EP2616994A1 (es)
JP (1) JP5950915B2 (es)
KR (1) KR101492752B1 (es)
CN (1) CN103221966B (es)
AR (1) AR084127A1 (es)
BR (1) BR112013005955A2 (es)
CA (1) CA2811209C (es)
MX (1) MX2013002848A (es)
RU (1) RU2585985C2 (es)
TW (1) TWI550527B (es)
WO (1) WO2012037027A1 (es)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101400389B1 (ko) * 2011-11-01 2014-05-28 엘지디스플레이 주식회사 유기발광소자
JP6074981B2 (ja) * 2012-09-26 2017-02-08 セイコーエプソン株式会社 撮像装置
US20140354533A1 (en) * 2013-06-03 2014-12-04 Shivkumar Swaminathan Tagging using eye gaze detection
US9654674B1 (en) 2013-12-20 2017-05-16 Verily Life Sciences Llc Image sensor with a plurality of light channels
CN204157094U (zh) * 2014-02-12 2015-02-11 深圳市日上光电股份有限公司 一种用于led发光装置的控制系统
KR102192088B1 (ko) 2014-07-18 2020-12-16 삼성전자주식회사 인지센서 및 이의 구동방법
RU2648541C1 (ru) * 2016-12-12 2018-03-26 Сергей Васильевич Бродягин Устройство для предупреждения засыпания водителя транспортного средства во время движения
ES2693175A1 (es) * 2017-06-06 2018-12-07 Gehitek Visión Artificial, S.L. Procedimiento y sistema para señalización de la posición de defectos en vidrios
US11157111B2 (en) * 2017-08-29 2021-10-26 Sony Interactive Entertainment LLC Ultrafine LED display that includes sensor elements
RU2695490C2 (ru) * 2017-11-02 2019-07-23 Илья Геннадьевич Прокудин Способ мониторинга сельскохозяйственных угодий
CN108470533A (zh) * 2018-03-30 2018-08-31 南京七奇智能科技有限公司 基于虚拟人的增强型智能交互广告系统及装置
TWI684433B (zh) * 2019-04-19 2020-02-11 鉅怡智慧股份有限公司 生物影像處理方法以及生理資訊檢測裝置
CN111681567A (zh) * 2020-06-30 2020-09-18 合肥福映光电有限公司 一种新型显示装置

Family Cites Families (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63161680A (ja) 1986-12-25 1988-07-05 Mitsubishi Electric Corp 半導体受光素子
US5063531A (en) * 1988-08-26 1991-11-05 Nec Corporation Optical neural net trainable in rapid time
WO1991016686A1 (en) * 1990-04-26 1991-10-31 John Sutherland Artificial neural device
FR2681710A1 (fr) * 1991-09-20 1993-03-26 Thomson Csf Calculateur neuronal.
DE69430744T2 (de) * 1994-07-28 2003-01-30 International Business Machines Corp., Armonk Verbesserte Neuronalhalbleiterchipsarchitekturen und Neuronalnetzwerke darin
EP0694855B1 (en) 1994-07-28 2002-05-02 International Business Machines Corporation Search/sort circuit for neural networks
DE69430870T2 (de) 1994-07-28 2003-03-13 International Business Machines Corp., Armonk Innovative Neuronalschaltungsarchitektur
DE69430527T2 (de) * 1994-07-28 2003-01-02 International Business Machines Corp., Armonk Schaltung für das Vorladen von Eingangsvektorbestandteilen in eine freie Neuronalschaltung während der Erkennungsphase
EP0694856B1 (en) 1994-07-28 2002-05-02 International Business Machines Corporation Daisy chain circuit for serial connection of neuron circuits
JP3583535B2 (ja) 1994-12-12 2004-11-04 ゼロックス コーポレイション 光学的にアドレスされたニューラルネットワーク
JP3509400B2 (ja) * 1996-07-15 2004-03-22 松下電工株式会社 照明装置
JP3704889B2 (ja) * 1997-05-30 2005-10-12 カシオ計算機株式会社 表示装置
EP0893915A3 (en) 1997-06-25 2000-01-05 Eastman Kodak Company Compact image sensor with display integrally attached
TW409253B (en) 1997-09-29 2000-10-21 Siemens Ag Associative memory and its operation method
US6332137B1 (en) * 1999-02-11 2001-12-18 Toshikazu Hori Parallel associative learning memory for a standalone hardwired recognition system
TW374889B (en) 1999-03-03 1999-11-21 Gemintek Corp Vehicle parking fare rating report and the monitoring system
GB2350926A (en) 1999-05-27 2000-12-13 Seiko Epson Corp Monolithic,semiconductor light emitting and receiving device
US7242449B1 (en) * 1999-07-23 2007-07-10 Semiconductor Energy Laboratory Co., Ltd. Semiconductor device and integral image recognition/display apparatus
US6221687B1 (en) * 1999-12-23 2001-04-24 Tower Semiconductor Ltd. Color image sensor with embedded microlens array
JP2001325810A (ja) * 2000-05-16 2001-11-22 Yamada Shomei Kk 照明器具
US6606614B1 (en) * 2000-08-24 2003-08-12 Silicon Recognition, Inc. Neural network integrated circuit with fewer pins
US6617565B2 (en) 2001-11-06 2003-09-09 Omnivision Technologies, Inc. CMOS image sensor with on-chip pattern recognition
TWI240216B (en) 2002-06-27 2005-09-21 Ind Tech Res Inst Pattern recognition method by reducing classification error
KR100964586B1 (ko) * 2003-04-25 2010-06-21 삼성전자주식회사 지문 인식장치 및 이를 갖는 액정표시장치
US20040223071A1 (en) 2003-05-08 2004-11-11 David Wells Multiple microlens system for image sensors or display units
US20050001281A1 (en) 2003-07-03 2005-01-06 Hung-Jen Hsu Process to improve image sensor sensitivity
KR100680191B1 (ko) * 2003-09-05 2007-02-08 삼성전자주식회사 감정 있는 에이전트를 갖는 사전 행동적 사용자 인터페이스 시스템
JP2005167090A (ja) * 2003-12-04 2005-06-23 Hamamatsu Photonics Kk 半導体受光素子及びその製造方法
US7019391B2 (en) * 2004-04-06 2006-03-28 Bao Tran NANO IC packaging
US7333963B2 (en) * 2004-10-07 2008-02-19 Bernard Widrow Cognitive memory and auto-associative neural network based search engine for computer and network located images and photographs
CA2613922C (en) * 2005-06-30 2015-06-16 Agc Flat Glass North America, Inc. Monolithic image perception device and method
JP2007074666A (ja) * 2005-09-09 2007-03-22 Nec Personal Products Co Ltd 表示撮像装置
US7643203B2 (en) * 2006-04-10 2010-01-05 Qualcomm Mems Technologies, Inc. Interferometric optical display system with broadband characteristics
JP2007304324A (ja) * 2006-05-11 2007-11-22 Konica Minolta Holdings Inc ディスプレイパネル
US7488950B2 (en) * 2006-06-05 2009-02-10 Blaise Laurent Mouttet Crosswire sensor
TWI463418B (zh) * 2006-07-07 2014-12-01 Agc Flat Glass Na Inc 單石影像感測裝置及方法
JP2008298600A (ja) * 2007-05-31 2008-12-11 National Institute Of Advanced Industrial & Technology 複数の認識物質が固定化されたマイクロ流体素子、その製造方法及びそれを用いた分析方法
WO2009016581A2 (en) * 2007-08-02 2009-02-05 Koninklijke Philips Electronics N.V. Light output device
US8600120B2 (en) * 2008-01-03 2013-12-03 Apple Inc. Personal computing device control using face detection and recognition
TW200951342A (en) * 2008-01-08 2009-12-16 Koninkl Philips Electronics Nv Light output device

Also Published As

Publication number Publication date
BR112013005955A2 (pt) 2016-05-17
AR084127A1 (es) 2013-04-24
US20110052011A1 (en) 2011-03-03
RU2585985C2 (ru) 2016-06-10
US20140029870A1 (en) 2014-01-30
CN103221966B (zh) 2016-08-31
KR101492752B1 (ko) 2015-02-11
JP5950915B2 (ja) 2016-07-13
KR20130086222A (ko) 2013-07-31
US9092689B2 (en) 2015-07-28
RU2013116741A (ru) 2014-10-20
US8478081B2 (en) 2013-07-02
TWI550527B (zh) 2016-09-21
EP2616994A1 (en) 2013-07-24
CA2811209A1 (en) 2012-03-22
CA2811209C (en) 2019-10-08
CN103221966A (zh) 2013-07-24
TW201229927A (en) 2012-07-16
WO2012037027A1 (en) 2012-03-22
JP2013546209A (ja) 2013-12-26

Similar Documents

Publication Publication Date Title
CA2811209C (en) Monolithic image perception device and method
RU2444059C2 (ru) Интегральное устройство и способ восприятия образов
US10394406B2 (en) Touch display device
US20200219947A1 (en) Display panel, manufacturing method thereof and display device
US9749562B2 (en) Liquid crystal display and infrared image sensor on silicon
US20140185129A1 (en) Transparent display apparatus and a method for controlling the same
CN102798973B (zh) 具触控功能的微机电显示器
CN109471284A (zh) 其中嵌入有光学图像传感器的平板显示器
JP7251828B2 (ja) 展示装置及び展示方法
US10031260B2 (en) Object sensor
US8514280B2 (en) Method and system for detecting an individual by means of passive infrared sensors
EP2715708A1 (en) An identification system for a surface
US12498586B2 (en) Image display device
KR20170100215A (ko) 투명 디스플레이가 결합된 입체 영상 표시 장치
TW200805178A (en) Monolithic image perception device and method
CN111210748A (zh) 透明显示系统及其操作方法

Legal Events

Date Code Title Description
FG Grant or registration