[go: up one dir, main page]

KR100492765B1 - Apparatus and method for controlling an airbag in a vehicle by optimized human presence detection - Google Patents

Apparatus and method for controlling an airbag in a vehicle by optimized human presence detection Download PDF

Info

Publication number
KR100492765B1
KR100492765B1 KR10-2001-0034420A KR20010034420A KR100492765B1 KR 100492765 B1 KR100492765 B1 KR 100492765B1 KR 20010034420 A KR20010034420 A KR 20010034420A KR 100492765 B1 KR100492765 B1 KR 100492765B1
Authority
KR
South Korea
Prior art keywords
image
infrared
delete delete
airbag
generating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
KR10-2001-0034420A
Other languages
Korean (ko)
Other versions
KR20020002221A (en
Inventor
존제이. 버렌즈
조지더블류. 맥아이버
조셉더블류. 니센
배리 던브리지
그레고리에이. 쉬리브
Original Assignee
티알더블류 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 티알더블류 인코포레이티드 filed Critical 티알더블류 인코포레이티드
Publication of KR20020002221A publication Critical patent/KR20020002221A/en
Application granted granted Critical
Publication of KR100492765B1 publication Critical patent/KR100492765B1/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/015Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
    • B60R21/01512Passenger detection systems
    • B60R21/0153Passenger detection systems using field detection presence sensors
    • B60R21/01538Passenger detection systems using field detection presence sensors for image processing, e.g. cameras or sensor arrays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/015Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
    • B60R21/01512Passenger detection systems
    • B60R21/0153Passenger detection systems using field detection presence sensors
    • B60R21/01534Passenger detection systems using field detection presence sensors using electromagneticwaves, e.g. infrared
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/015Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
    • B60R21/01512Passenger detection systems
    • B60R21/01552Passenger detection systems detecting position of specific human body parts, e.g. face, eyes or hands
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V8/00Prospecting or detecting by optical means
    • G01V8/10Detecting, e.g. by using light barriers
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Geometry (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geophysics (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Air Bags (AREA)
  • Geophysics And Detection Of Objects (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

인간 존재 검출 시스템(50)은 시스템에 의해 생성되는 이미지로부터 배경 간섭을 감산하기 위한 프레임 구별 기술을 사용한다. 상기 시스템(50)은, 적외선 방사 빔을 생성하는 적외선 소스(28), 및 상기 빔의 경로에 있는 물체로부터 반사되는 적외선 방사를 수신하는 적외선 검출기(72)를 포함한다. 얼굴 인식 소프트웨어는 반사된 방사로부터 사람(16)의 존재를 결정하는데 사용된다. 적외선 소스(28)는 펄스 온 및 오프되고, 검출기(72)는 펄스에 동시에 차단되어, 이미지 프레임은 상이한 시간에 생성되는데, 여기서 하나의 프레임은 반사된 방사 및 배경 방사를 포함하고, 다른 프레임은 배경 방사만을 포함한다. 프레임은 배경 방사를 분리하도록 감산된다. 일실시예에서, 검출기(72)는, 포토다이오드(90)의 픽셀 어레이, 및 단일 CMOS 칩(70) 상에 이미지 프레임을 저장하기 위한 제 1 및 제 2 커패시터 저장 사이트(94, 98)를 포함한다. 저장 사이트(94, 98)는 CMOS 칩(70) 상에 또한 존재하는 합산 장치(102)에서 감산된다. 대안적인 실시예에서, 프레임은 오프-칩 사이트에서 저장되고 감산된다.The human presence detection system 50 uses a frame discrimination technique to subtract background interference from the image produced by the system. The system 50 includes an infrared source 28 for generating an infrared radiation beam, and an infrared detector 72 for receiving infrared radiation reflected from an object in the path of the beam. Facial recognition software is used to determine the presence of the person 16 from the reflected radiation. The infrared source 28 is pulsed on and off, and the detector 72 is blocked at the same time with the pulse so that the image frame is generated at different times, where one frame includes reflected radiation and background radiation, and the other frame Include only background radiation. The frame is subtracted to separate the background radiation. In one embodiment, detector 72 includes a pixel array of photodiodes 90 and first and second capacitor storage sites 94 and 98 for storing image frames on a single CMOS chip 70. do. Storage sites 94 and 98 are subtracted in summing device 102 that is also present on CMOS chip 70. In alternative embodiments, frames are stored and subtracted at off-chip sites.

Description

최적화된 인간 존재 검출 시스템에 의한 차량의 에어백 제어 장치 및 방법{APPARATUS AND METHOD FOR CONTROLLING AN AIRBAG IN A VEHICLE BY OPTIMIZED HUMAN PRESENCE DETECTION}Apparatus and method for controlling vehicle airbag by optimized human presence detection system {APPARATUS AND METHOD FOR CONTROLLING AN AIRBAG IN A VEHICLE BY OPTIMIZED HUMAN PRESENCE DETECTION}

본 발명은 일반적으로 인간의 존재 검출 시스템에서 배경 간섭을 제거하기 위한 프레임 구별(differencing) 기술에 관한 것으로, 더 구체적으로는, 적절한 에어백 전개를 위해 차량에 사용되는 인간의 존재 검출 시스템에서 배경 간섭을 제거하기 위한 프레임 구별 기술에 관한 것이다.FIELD OF THE INVENTION The present invention relates generally to frame differentiation techniques for removing background interference in human presence detection systems, and more particularly to background interference in human presence detection systems used in vehicles for proper airbag deployment. A frame discrimination technique for removing.

미연방 도로 교통 안전국(National Highway Traffic Safety Administration)은 1998년 이후에 제조된 모든 승용차에 탑승자 측의 에어백을 요구한다. 에어백은 수 천명의 인명을 구할 수 있지만, 더 안전한 에어백 전개 시스템은 그 이상의 인명을 구할 수 있다. 더 안전하고 더 효과적인 개선된 에어백을 요구하는 제안이 미연방 도로 교통 안전국에 의해 제출되었다. 따라서, 차량의 조수석(passenger seat)에서 사람을 검출하고, 식별하며 추적함에 따라 에어백 전개를 결정하는 개선된 에어백 전개 시스템이 그 기술 분야에서 필요하다.The National Highway Traffic Safety Administration requires passenger airbags for all passenger cars manufactured after 1998. Airbags can save thousands of lives, but safer airbag deployment systems can save even more lives. Proposals requiring improved airbags that are safer and more effective have been submitted by the Federal Road Traffic Safety Administration. Accordingly, there is a need in the art for an improved airbag deployment system that determines airbag deployment as it detects, identifies, and tracks people in a passenger seat of a vehicle.

미래의 에어백 전개 시스템은 차량의 조수석에서 사람을 식별하고 추적할 수 있을 것이다. 이러한 정보에 기초하여, 상기 시스템은, 사람이 조수석에 착석했는지와, 에어백 전개 도어(airbag deployment door)에 대한 사람의 체형 및 사람의 위치에 따라, 충돌 사고시 에어백을 팽창(fire)시키고, 저속으로 에어백을 팽창시키거나 정상의 고속으로 에어백을 팽창시키는지의 여부에 대한 신호를 제공할 것이다. 일예로, 조수석에서 사람이 검출되고, 에어백 도어로부터 다소 좁은 거리(예를 들어, 3인치 이내)에 있으면, 충돌 사고시 에어백은 팽창하지 않는다. 조수석에서 사람이 검출되고, 에어백 도어와 가까이(예를 들어, 3인치와 8인치 사이) 있으면, 충돌 사고시 에어백은 더 낮은 속도로 팽창한다. 조수석에서 사람이 검출되고, 에어백 도어로부터 충분히 멀리 떨어져(예를 들어, 8인치를 초과) 있으면, 충돌 사고시 에어백은 정상적으로 고속으로 팽창한다.Future airbag deployment systems will be able to identify and track people in the passenger seat of the vehicle. Based on this information, the system inflates the airbag in the event of a crash, depending on whether the person is seated in the passenger seat, the person's body shape and the person's position relative to the airbag deployment door, and at a low speed. It will provide a signal as to whether to inflate the airbag or inflate it at normal high speed. For example, if a person is detected in the passenger seat and is at a somewhat narrow distance (eg, within 3 inches) from the airbag door, the airbag does not inflate during a crash. If a person is detected in the passenger seat and close to the airbag door (eg between 3 inches and 8 inches), the airbag inflates at a lower speed during a crash. If a person is detected in the passenger seat and far enough away from the airbag door (eg greater than 8 inches), the airbag will normally inflate at high speed in the event of a crash.

현재의 탑승자 감지 시스템은 일반적으로 에어백 전개를 위해 탑승자를 검출하도록 초음파 센서, 질량 센서, 적외선 센서 및/또는 전자기 센서를 포함한다. 초음파 감지 시스템은, 조수석 영역 내에 있는 물체의 움직임을 감지하고, 그 물체가 센서의 위치로부터 더 가깝거나 더 멀리 이동하는 지를 결정한다. 그러나, 초음파 센서는 그 물체의 성질을 식별하지 못하므로, 그 물체가 사람이거나 식료품 가방과 같은 다른 물체인지를 알 수 없다. 초음파 센서와 유사하게, 능동 도플러 레이더 시스템(active doppler radar systems)에 사용되는 극초단파 센서는 물체들을 추적할 수 있지만, 인간의 존재를 식별할 수 없다. 질량 센서는 가해진 압력에 기초하여 조수석에 있는 물체들을 식별하지만, 에어백에 대한 탑승자의 위치를 고려하지 않는다. 수동 IR 센서는 조수석의 열적 이미지를 포착하지만, 이러한 시스템은 매우 비싸다. 현재의 능동 IR 센서는 에어백에 대한 탑승자의 상대적인 위치를 감지하지만, 사람의 존재를 식별할 수 없다. 전자기 시스템은, 그 존재를 검출하여 물체를 식별하는데 신체 정전 용량(body capacitance)이 사용되는 LC 공진 회로를 포함하지만, 이러한 시스템은 그 물체를 추적할 수 없다.Current occupant detection systems generally include ultrasonic sensors, mass sensors, infrared sensors and / or electromagnetic sensors to detect occupants for airbag deployment. The ultrasonic sensing system senses the movement of an object within the passenger seat area and determines whether the object moves closer or farther from the position of the sensor. However, the ultrasonic sensor does not identify the property of the object, and therefore cannot know whether the object is a human or other object such as a grocery bag. Similar to ultrasonic sensors, microwave sensors used in active doppler radar systems can track objects, but cannot identify human presence. The mass sensor identifies objects in the passenger seat based on the pressure applied but does not consider the occupant's position with respect to the airbag. Passive IR sensors capture the thermal image of the passenger seat, but these systems are very expensive. Current active IR sensors detect the passenger's relative position with respect to the airbag, but cannot identify the presence of a person. Electromagnetic systems include LC resonant circuits in which body capacitance is used to detect the presence and identify an object, but such a system cannot track the object.

1998년, 11월 10일에 브리드(Breed) 등에 허여된 미국 특허(제 5,835,613호)는, 차량의 탑승자 구역에 있는 사람을 식별하고, 위치를 정하고(locate), 감시하는 것을 청구하는 차량 내부 감시 시스템을 개시한다. 상기 감시 시스템은 차량 내부를 조명하는 적외선 이미터와, 그 방사파를 검출하는 전하 결합 소자(CCD: Charge Couple Device) 어레이를 사용한다. CCD 어레이로부터의 출력은 연산 장치에 의해 분석되는데, 상기 연산 장치는, 조수석에 있는 내용물(content) 또는 물체를 분류하고, 식별하거나 위치를 정하기 위해 패턴 인식 알고리즘(pattern recognition algorithms)을 사용한다. 상기 미국 특허(제 5,835,613호)에 개시된 차량 점유자를 결정하기 위한 패턴 인식 시스템은, 다양한 조건 하에서 모든 종류의 조명 상황에서의 사람의 형태를 알아야 하는 복잡한 소프트웨어를 사용한다. 더욱이, 이러한 방식으로 패턴 인식을 사용하는 것은, 사람이 조수석에서 움직이기 때문에 사람을 추적할 수 있는 능력에 한계가 있다. 더욱이, 일반적인 패턴 인식에 의해 인간을 식별하고 추적할 수 있는 능력은 미심쩍은 정도로 신뢰할 수 없다. 상기 패턴 인식은 사람 자체를 식별할 수 없고, 단지 물체의 형태만을 검출한다.U.S. Patent No. 5,835,613, issued to Breed et al. On November 10, 1998, discloses an in-vehicle surveillance claiming to identify, locate, and monitor a person in the occupant's area of the vehicle. Start the system. The monitoring system uses an infrared emitter that illuminates the interior of the vehicle and a charge couple device (CCD) array that detects the radiation wave. Output from the CCD array is analyzed by a computing device, which uses pattern recognition algorithms to classify, identify or locate content or objects in the passenger seat. The pattern recognition system for determining a vehicle occupant disclosed in the above-mentioned US patent (No. 5,835,613) uses complicated software that needs to know the shape of a person in all kinds of lighting situations under various conditions. Moreover, using pattern recognition in this way is limited in the ability to track a person because he moves in the passenger seat. Moreover, the ability to identify and track humans by general pattern recognition is unsuspectingly unreliable. The pattern recognition cannot identify the person itself, only the shape of the object.

차량의 조수석에 있는 사람을 효과적으로 식별하고 추적할 수 있는 개선된 에어백 전개 센서 및 시스템이 필요하다. 그러므로, 본 발명의 목적은 차량 탑승자의 에어백 전개를 위해 그러한 감지 시스템을 제공하는 것이다.There is a need for improved airbag deployment sensors and systems that can effectively identify and track people in the passenger seat of a vehicle. It is therefore an object of the present invention to provide such a sensing system for airbag deployment of a vehicle occupant.

본 발명의 가르침에 따라, 상기 시스템에 의해 생성되는 이미지로부터 배경 간섭을 감산하기 위해 프레임 구별 기술을 사용하는 인간의 존재 검출 시스템이 개시된다. 상기 시스템은, 적외선 방사 빔을 생성하는 적외선 소스, 및 빔의 경로에 있는 물체로부터 반사되는 적외선 방사파를 수용하는 적외선 검출기를 포함한다. 얼굴 인식 소프트웨어는 반사된 방사파로부터 사람의 존재를 결정하는데 사용된다. 적외선 소스는 펄스되고, 검출기는 펄스와 동기적으로 차단되어, 이미지 프레임은 상이한 시간에 생성되는데, 여기서 하나의 프레임은 반사된 방사파 및 배경 방사파를 포함하고, 또 다른 프레임은 단지 배경 방사파만을 포함한다. 프레임은 배경 방사파를 분리하도록 감산된다.In accordance with the teachings of the present invention, a human presence detection system is disclosed that uses frame discrimination techniques to subtract background interference from an image produced by the system. The system includes an infrared source for generating an infrared radiation beam, and an infrared detector for receiving infrared radiation waves reflected from an object in the path of the beam. Facial recognition software is used to determine the presence of a person from reflected radiation. The infrared source is pulsed and the detector is blocked synchronously with the pulses so that the image frames are generated at different times, where one frame contains reflected radiation and background radiation, and the other frame is just background radiation. Includes only. The frame is subtracted to separate the background radiation wave.

일실시예에서, 검출기는, 포토다이오드의 픽셀 어레이와, 단일 CMOS 칩 상에 이미지 프레임을 저장하기 위한 제 1 및 제 2 커패시터 저장 사이트('메모리'라고도 한다)를 포함한다. 저장 사이트는 CMOS 칩 상에 또한 존재하는 합산 장치에서 감산된다. 대안적인 실시예에서, 프레임은 오프-칩 사이트에 저장되고, 감산된다.In one embodiment, the detector includes a pixel array of photodiodes and first and second capacitor storage sites (also referred to as 'memory') for storing image frames on a single CMOS chip. The storage site is subtracted from the summing device that also exists on the CMOS chip. In an alternative embodiment, the frame is stored at the off-chip site and subtracted.

사람의 얼굴 부위 인식을 사용하는 에어백 전개 시스템에 대한 바람직한 실시예의 이후의 논의는 사실상 단지 예시적이므로, 본 발명 또는 본 발명의 응용 또는 사용 방식을 전혀 한정하지 않는다.The following discussion of a preferred embodiment of an airbag deployment system using human face region recognition is merely exemplary in nature, and therefore does not limit the present invention or its application or mode of use at all.

본 발명의 일실시예에 따라, 차량의 조수석에 있는 사람을 검출하고, 식별하고, 추적하기 위한 기술이 개시된다. 전술한 바와 같이, 사람이 차량의 조수석에 있는 지의 여부와 사람이 에어백 도어에 인접해있는 지의 여부와 사람의 체형에 따라, 충돌 사고시 차량의 탑승자 측의 에어백을 저속으로 전개하거나, 에어백을 전개하지 않는 것이 때때로 바람직하다. 본 발명에 따라, 사람의 식별 및 추적은, 얼굴 인식 소프트웨어, 특히, 사람의 안구 및 다른 얼굴 부위를 인식하고 추적하는 소프트웨어에 의해 결정된다. 추적은 여러 가지 머리 각도 및 자세에서 그 방식으로 발생될 수 있다. 상기 소프트웨어 알고리즘은 범위를 추정하기 위해 교정된(calibrated) 얼굴 및 생김새의 거리(feature separation)를 사용한다. 인간의 얼굴상의 국한된 영역의 추적은, 초당 더 많은 이미지 프레임이 획득될 수 있도록 하여, 더 빈번한 사람의 추적을 허용한다. 얼굴 부위를 더 빈번히 추적하는 것은 흐릿한 이미지의 획득을 얻는 것을 방지하는데, 그 이유는 상기 이미지가 더 자주 갱신되기 때문이다.In accordance with one embodiment of the present invention, a technique for detecting, identifying, and tracking a person in the passenger seat of a vehicle is disclosed. As described above, depending on whether the person is in the passenger seat of the vehicle, whether the person is adjacent to the airbag door, and the person's body type, the airbag at the occupant's side of the vehicle should not be deployed at low speed or in the event of a crash. It is sometimes desirable not to. According to the invention, identification and tracking of a person is determined by facial recognition software, in particular software that recognizes and tracks the eye and other facial parts of the person. Tracking can occur that way at various head angles and postures. The software algorithm uses feature separation of the calibrated face and appearance to estimate the range. Tracking of localized areas on the human face allows more image frames per second to be obtained, allowing for more frequent tracking of people. Tracking the face area more frequently prevents obtaining a blurred image acquisition, because the image is updated more often.

분석되는 물체로부터 수신되는 비디오 데이터 패턴으로부터의 데이터를 처리하고, 물체가 얼굴을 갖는지의 여부를 결정하는 다양한 소프트웨어가 종래 기술에 알려져 있다. 예를 들어, 그러한 소프트웨어는 당업자에게 잘 알려진 Visionics Face-It 소프트웨어를 포함한다. 본 발명이, 임의의 특정한 얼굴 부위 매핑(mapping) 기능에 한정되지 않지만, 2차원 또는 3차원이든지 간에 얼굴 부위를 인식하기 위해 본 명세서에 설명된 목적에 적합하고, 게다가 기능의 범위를 정하는데 또한 사용될 수 있는, 임의의 알려진 알고리즘을 포함할 수 있다는 것이 강조된다. 더욱이, 본 발명에 따라, 알고리즘의 범위를 정하는 것은 알려진 얼굴 인식 소프트웨어와 함께 사용된다.Various software is known in the art to process data from video data patterns received from an object to be analyzed and to determine whether the object has a face. For example, such software includes Visionics Face-It software, which is well known to those skilled in the art. Although the present invention is not limited to any particular face region mapping function, it is suitable for the purposes described herein for recognizing face regions, whether in two or three dimensions, and in addition to defining a range of functions. It is emphasized that it can include any known algorithm that can be used. Moreover, in accordance with the present invention, delimiting algorithms is used with known face recognition software.

이후에 구체적으로 논의되는 바와 같이, 본 발명은, 차량의 탑승자 구역 중 탑승자 측에 있는 물체로부터 반사되며, 전자 비디오 카메라에 의해 수신되는 적외선 방사파를 사용한다. 비디오 카메라는, 사람의 존재의 식별 및 추적을 결정하기 위해 얼굴 인식 소프트웨어에 의해 사용되는 전자 신호 및 이미지를 생성한다.As will be discussed in detail later, the present invention uses infrared radiation waves reflected from an object on the occupant's side of the occupant's area of the vehicle and received by an electronic video camera. The video camera generates electronic signals and images used by facial recognition software to determine the identification and tracking of the presence of a person.

도 1은 차량(12)의 탑승자 측의 구역(10)에 대한, 부분이 절단된 측면도이다. 이 도면에서, 사람(16)은 조수석(18)에 있는 것으로 도시되는데, 여기서 사람(16)은 충돌 사고시 앞으로 이동한다. 에어백 쿠션(pillow)(20)은, 충돌시 계기판(22)에 수용된 에어백 도어(24)를 통해 전개되는 것으로 도시된다.1 is a side view, partly cut away, of the zone 10 on the occupant side of the vehicle 12. In this figure, the person 16 is shown as being in the passenger seat 18, where the person 16 moves forward in the event of a crash. The airbag pillow 20 is shown to be deployed through the airbag door 24 housed in the instrument panel 22 in the event of a crash.

비디오 카메라 및 IR LED 조명기 유닛(26)은, 본 명세서에 설명된 목적에 적합한 위치에 있는 계기판(22) 상에 장착된다. 도 2는 차량(12)에서 분리되는 유닛(26)의 개략도이다. 유닛(26)은 IR LED(30)의 클러스터(cluster)(28)를 포함한다. 복수의 LED(30)는 낮 동안의 동작을 위해 필요한 광도를 생성하는데 제공된다. 클러스터(28)는 IR 방사 빔을 사람(16)을 향해 방출하는데, 상기 빔은 사람으로부터 반사되어 유닛(26)으로 다시 돌아간다. 비디오 카메라(34)는 유닛(26)에 제공되어, 사람(16)으로부터 반사된 방사파를 수신한다. 본 명세서에 설명된 목적에 적합한 적외선 방사파를 검출하는 임의의 검출기가 사용될 수 있다는 점에서, 비디오 카메라(34)는 한정되지 않은 예로서 사용된다.The video camera and IR LED illuminator unit 26 are mounted on the instrument panel 22 in a position suitable for the purposes described herein. 2 is a schematic diagram of a unit 26 detached from the vehicle 12. Unit 26 includes a cluster 28 of IR LEDs 30. A plurality of LEDs 30 are provided to generate the brightness needed for daytime operation. The cluster 28 emits an IR radiation beam towards the person 16, which is reflected from the person and returns back to the unit 26. Video camera 34 is provided to unit 26 to receive the radiation waves reflected from person 16. The video camera 34 is used as a non-limiting example in that any detector that detects infrared radiation waves suitable for the purposes described herein can be used.

필터(36)는, 원하는 적외선 범위 내에 없는 방사파를 제거(filter out)하기 위해 카메라(34) 상에 제공된다. 필터(36)는, TiO2 필터 또는 편광 필터와 같은 본 명세서에 설명된 목적에 적합한 임의의 필터일 수 있다. IR 이미지는 검출기에 전달하지만, 그 검출기로부터 나오는 가시광선의 이미지는 반사하도록, 필터의 층 및 두께가 선택될 수 있다. 편광 필터는, IR 파장을 통과시키지만, 비-IR 파장을 강하게 감쇠시키는 전기-광학(electro-optical) 편광을 사용하여 검출기로 가는 가시광선을 감소시키는데 사용될 수 있다. 도 3은 햇빛에 대한 휘도 곡선을 도시하는데, 여기서 필터(36)는 40nm의 대역폭의 창에서 적외선 방사파를 통과시킨다. 필터(36)는, 에어백 전개 시스템의 동작, 및 사람(16)의 얼굴에 대한 인식에 영향을 줄 수 있는 햇빛에 대해 일종의 보호기능을 제공한다.Filter 36 is provided on camera 34 to filter out radiation waves that are not within the desired infrared range. Filter 36 may be any filter suitable for the purposes described herein, such as a TiO 2 filter or a polarizing filter. The IR image is delivered to the detector, but the layer and thickness of the filter can be selected to reflect the image of visible light coming from the detector. Polarizing filters can be used to reduce visible light to the detector using electro-optical polarization that passes IR wavelengths but strongly attenuates non-IR wavelengths. 3 shows a luminance curve for sunlight, where filter 36 passes infrared radiation in a window of 40 nm bandwidth. The filter 36 provides a kind of protection against sunlight that can affect the operation of the airbag deployment system and the perception of the face of the person 16.

본 발명의 이러한 실시예에서, 하나의 카메라는, 사람(16)의 범위를 포착하고 감시하는데 사용된다. 이러한 기능을 수행하는데 사용되는 소프트웨어는, 그 범위를 정하는 것을 제공하기 위해 탑승자의 얼굴상의 2개로 분리된 위치를 이용한다. 바람직한 실시예에서, 사람의 안구는, 작동 범위의 지정을 위해 삼각 측량 (triangulation)을 제공하도록 검출된다. 그러나, 당업자에 의해 인지되는 바와 같이, 사람의 귀 등과 같은 사람(16)의 다른 얼굴 부위가 또한 사용될 수 있다. 또한, 소프트웨어 알고리즘은 사람의 머리 크기가 결정되도록 하여, 사람이 포착된 후에는 사람을 추적하기 위해 양쪽 안구를 조사할 필요가 없다. 더욱이, 얼굴 부위 또는 머리 크기의 검출과 관련하여, 사람의 몸통(torso)과 같은 사람의 신체의 다른 부분을 조사하는데 상기 소프트웨어가 사용될 수도 있다.In this embodiment of the invention, one camera is used to capture and monitor the range of the person 16. The software used to perform this function uses two separate locations on the occupant's face to provide scoping. In a preferred embodiment, the human eye is detected to provide triangulation for the specification of the operating range. However, as will be appreciated by those skilled in the art, other facial portions of the person 16, such as the ear of a person, may also be used. In addition, software algorithms allow the head size of a person to be determined, so that once the person is captured, there is no need to examine both eyes to track the person. Furthermore, the software may be used to examine other parts of the body of the person, such as the torso of the person, in connection with the detection of facial areas or head size.

인간의 얼굴 부위는 고유하기 때문에, 데이터베이스는, 소프트웨어가 구체적으로 그 사람을 식별할 수 있도록, 사람에 대해 안구와 안구 사이의 분리 간격 (eye-to-eye separation)과 같은 특정 정보를 저장하는데 사용될 수 있다. 일예로 이것은, 정부 위임 규제에 의해 요구된 바와 같이, 이 시스템이 아이들과 20%의 여성을 식별하여 이 사람들에게는 에어백 팽창을 못하게 하도록 하기 위해, 중요하다. 또한, 특히 사람을 식별할 수 있는 것은 시스템의 작동 범위의 정확도를 향상시키는데, 그 이유는, 시스템이 그 사람의 안구의 분리 간격 또는 다른 특정한 얼굴 부위를 인식하기 때문이다.Because human face parts are unique, databases can be used to store specific information about a person, such as eye-to-eye separation, so that the software can specifically identify that person. Can be. In one example, this is important, as required by government mandates, to allow the system to identify children and 20% of women and prevent these people from inflating airbags. In addition, being able to identify a person in particular improves the accuracy of the operating range of the system, since the system recognizes the separation interval of the eye of the person or other specific facial areas.

포착 및 추적 소프트웨어는 특정한 좌석 위치, 에어백 위치, 차량 구조 등에 대해 교정할 필요가 있다. 도 4는 에어백 도어(24)의 중심 및 법선에 대한 카메라 방위 및 위치 파라미터에 대한 도면이다. 카메라 및 Visionics Face-It 소프트웨어가 교정된 후에 본 발명에 따라 작동 범위를 정하기 위해 차량에서 추정되어야 하는 3개의 파라미터는 2개의 위치 오프셋(offsets) 및 하나의 각도 오프셋을 포함한다. 2개의 위치 오프셋은, 에어백 도어(24)의 중심에서 법선 벡터와 측방향 (laterally) 및 수직으로 측정되는, 에어백의 중심에 대해 카메라(34)의 측면 오프셋(), 및 에어백 도어(24)의 중심에서 법선과 평행한 축을 따라 측정되는, 에어백 도어(24)의 중심에 대한 카메라(34)의 전방 또는 후방 오프셋()이다. 각도 파라미터는, 카메라(34)의 광축과 에어백(20)의 중심에서 나오는 법선 벡터 사이의 방위각 오프셋()이다. 3개의 파라미터 중 단지 2개, 즉 는 변경된 단안(monocular) 거리 방정식에 사용된다.Acquisition and tracking software needs to be calibrated for specific seat positions, airbag positions, vehicle structures, and the like. 4 is a diagram of camera orientation and position parameters for the center and normal of the airbag door 24. After the camera and the Visionics Face-It software have been calibrated, the three parameters that must be estimated in the vehicle to determine the operating range according to the invention include two position offsets and one angular offset. The two position offsets are the lateral offsets of the camera 34 relative to the center of the airbag, measured laterally and perpendicularly to the normal vector at the center of the airbag door 24. ) And the front or rear offset of the camera 34 relative to the center of the airbag door 24, measured along an axis parallel to the normal at the center of the airbag door 24 ( )to be. The angle parameter is the azimuth offset between the optical axis of the camera 34 and the normal vector emerging from the center of the airbag 20. )to be. Only two of three parameters, namely And Is used in the modified monocular distance equation.

아래에 설명되는 교정 절차는 , 를 결정하는데 사용될 수 있다. 다수의 교정 지점을 측정하는 것과, 상기 다수의 교정 지점 사이에서 선형적으로 보간(interpolating)하는 것 사이, 또는 소수의 교정 지점을 측정하는 것과, 상기 소수의 교정 지점 사이에서 비선형적으로 보간하는 것은 각기 일장일단(trade off)이 있다. 이론적으로, 다수의 지점으로 교정하는 것은 본 명세서에 설명되는 추정용 모델을 요구하지 않는다. 주먹구구식(brute force)의 교정에 필요한 다수의 측정을 하는데 드는 비용, 및 카메라(34) 또는 소프트웨어의 동작이 범위를 벗어나서 주먹구구식의 교정으로 무시돌 수 있는 가능성이 그러한 접근법을 사용하기 전에 고려되어야 한다. 본 명세서에 사용되는 접근법은 보간용 모델을 형성하기 위해 소수의 교정 시험을 사용한다.The calibration procedure described below , And Can be used to determine. Measuring a plurality of calibration points, interpolating linearly between the plurality of calibration points, or measuring a few calibration points, and nonlinear interpolation between the few calibration points Each one is trade off. In theory, calibrating to multiple points does not require the estimation model described herein. The cost of making many measurements necessary for the correction of brute force, and the possibility that the operation of the camera 34 or the software may be out of range and neglected to the correction of the oblique correction, should be considered before using such an approach. do. The approach used herein uses a few calibration tests to form a model for interpolation.

도 4로부터, 이하의 수학식이, 카메라 렌즈 기준 프레임(xyz)에서 이루어지는 측정과 에어백 도어 기준 프레임(xyz)에서 이루어지는 측정을 관련시키기 위해 쓰여질 수 있다. 에어백 도어의 전방에 있는 얼굴의 위치(x>0)만이 이하의 수학식에서 고려된다. 카메라의 원통 좌표계에서 정의되는 ρ, θ(피치 또는 앙각) 및 (편요각 또는 방위각)에 대해, 에어백 좌표계에서의 변위(x 및 y)에 대한 방정식은 다음과 같다:From Fig. 4, the following equation can be written to correlate the measurements made in the camera lens reference frame xyz with the measurements made in the airbag door reference frame xyz. Only the position (x> 0) of the face in front of the airbag door is considered in the following equation. Ρ, θ (pitch or elevation) defined in the camera's cylindrical coordinate system, and For yaw or azimuth, the equation for displacement (x and y) in the airbag coordinate system is:

이것은 가 교정할 동안 고정되는 것으로 간주한다. 수학식 1 및 수학식 2를 다시 정리하면 다음 식을 산출한다:this is Is considered to be fixed during calibration. Rearranging Equations 1 and 2 yields the following equations:

고정된 에서 안구의 좌표 판독 측정을 하고 난 후, y의 변화에 대해 탄젠트의 기울기를 취하면, 다음을 산출한다:Fixed Taking a reading of the eye coordinates at and taking the slope of the tangent with respect to y, yields:

x, 및 수학식 4의 우측의 결과를 앎으로써, 가 결정될 수 있다. 를 앎으로써, 수학식 3 및 그 측정된 데이터는 를 결정하는데 사용될 수 있다. 그 다음에, , , 수학식 3 및 그 데이터를 사용함으로써 가 결정될 수 있다. 수학식 3, 및 다음의 수학식 5를 사용함으로써,By subtracting the result of x and the right side of Equation 4, Can be determined. By knowing Equation 3 and the measured data Can be used to determine. Then, , , By using Equation 3 and its data Can be determined. By using Equation 3 and Equation 5 below,

변경된 단안 수학식은 물체 파라미터(x), 또는 에어백과 눈과의 거리를 정의하기 위해 수학식 6에 따른다.The modified monocular equation is according to equation (6) to define the object parameter (x), or the distance between the airbag and the eye.

교정 테이블은, 카메라의 좌표계에서 보았을 때, 연관된 광선의 기울기(ray slope)에 링크(linked)된 픽셀 값으로서 SDK 결정된 안구의 좌표의 룩업 테이블로 구성된다. 수학식 6은, 교정 테이블이 단안 동작으로부터 안구와 에어백간의 거리를 결정하는데 직접 사용될 수 있도록, 광선의 기울기(단일 각의 탄젠트) 항으로 간소화될 수 있다. 아래의 수학식 7에서 탄젠트의 삼각 항등식을 사용하고,The calibration table consists of a lookup table of the coordinates of the eyeballs determined by the SDK as pixel values linked to the associated ray slope when viewed in the camera's coordinate system. Equation 6 can be simplified to the slope of the ray (single angle tangent) term so that the calibration table can be used directly to determine the distance between the eyeball and the airbag from monocular operation. Equation 7 below uses the trigonometric identity of tangent,

이 항등식을 수학식 6에 적용하면, 교정 룩업 테이블로부터 탄젠트/기울기를 직접 구함으로써 사용될 수 있는 형태로 변경된 단안 수학식을 얻을 수 있다. 이 수학식은 아래의 수학식 8로 주어진다.Applying this identity to Equation 6 yields a modified monocular equation that can be used to obtain the tangent / tilt directly from the calibration lookup table. This equation is given by Equation 8 below.

도 5는 디지털 신호 프로세서(DSP)(52)를 포함하는 본 발명의 이미지 시스템(50)의 블록도이다. DSP(52)는 카메라(34)에 의해 생성된 이미지에 대한 분석을 수행하는 얼굴 인식 소프트웨어 및 작동범위 지정 기능을 포함한다. 클록 생성기(60)는 시스템(50)에 있는 여러 가지 디지털 장치에 대한 타이밍(timing)을 제공하고, 전력 관리 시스템(62)은 전력을 제공한다. DSP(52)는, 카메라(34)와 같은 IR 검출기를 나타내는 픽셀 어레이(72)를 포함하는 CMOS 칩(70)에 연결된다. 이 예에서, 픽셀 어레이(72)는 원하는 레벨의 해상도를 제공하기 위해 256×256 픽셀을 포함한다. CMOS 칩(70)은, 타이밍 및 제어의 목적을 위해 상태 매칭 논리 회로(74), 클록/타이밍 회로(76), 아날로그 조절(conditioning) 회로(78), 레지스터/버퍼(80), 온-칩(on-chip)의 프로그래밍가능한 논리 회로(82), 등을 포함하는 여러 가지 소자를 또한 포함한다. 더욱이, 아날로그/디지털 변환기(84)는 픽셀 어레이(72)로부터의 아날로그 신호를 전형적인 디지털 신호로 변환하도록 또한 제공된다. 저장 목적을 위해 온-칩의 SRAM 메모리(86)가 도시되지만, 또한 오프-칩에 있을 수도 있다. 본 명세서에 설명된 시스템에서 이들 장치의 동작은 당업자에게 명백하다.5 is a block diagram of an image system 50 of the present invention that includes a digital signal processor (DSP) 52. The DSP 52 includes face recognition software and an operating range designation function that perform analysis on the image generated by the camera 34. Clock generator 60 provides timing for various digital devices in system 50, and power management system 62 provides power. The DSP 52 is connected to a CMOS chip 70 that includes a pixel array 72 representing an IR detector, such as a camera 34. In this example, pixel array 72 includes 256 x 256 pixels to provide the desired level of resolution. CMOS chip 70 includes state matching logic circuit 74, clock / timing circuit 76, analog conditioning circuit 78, register / buffer 80, on-chip for timing and control purposes. Also included are various devices including (on-chip) programmable logic circuits 82, and the like. Moreover, analog-to-digital converter 84 is also provided to convert analog signals from pixel array 72 into typical digital signals. On-chip SRAM memory 86 is shown for storage purposes, but may also be off-chip. The operation of these devices in the systems described herein is apparent to those skilled in the art.

일실시예에서, 적외선 LED(30)는 카메라(34)에 의해 수신되는 반사된 방사파를 제공하기 위해 계속해서 온(on)된다. 그러나, 바로 들어오는 햇빛에 의하여 카메라(34) 상에 야기되는 문제를 정정하기 위해 일반적으로 몇몇 종류의 필터링(filtering) 또는 신호 처리가 이루어지는데, 이것은 필터(36)를 통해 시행한다. 특히, 시스템(50)은, 햇빛에 의해 야기되는 그림자와 점유자(16)의 생김새에 대한 실제 에지(edges) 사이를 구별할 수 있는 것이 필요하다. 본 발명에 따라, 프레임 구별(differencing) 기술이 사용되는데, 이 기술은, LED(30)를 미리 결정된 시간 기간 및 미리 결정된 수의 비디오 데이터 프레임에 대해서는 동기적으로 펄스 온하고, 그 다음에 동일한 수의 비디오 데이터 프레임에 걸친 미리 결정된 시간 기간에 대해서는 펄스 오프한다. 그 다음에, 데이터의 프레임은 서로 감산되어, IR 조명이 없는 프레임은 IR 조명을 갖는 프레임으로부터 감산될 수 있고, 그 배경(background)은 제거될 수 있다. 검출기는 노출 제어를 제공하기 위해 그 펄스와 동기적으로 전기적으로 차단(shuttered)된다. 본 명세서에 설명되는 프레임 구별 기술은 원하는 결과를 달성하기 위해 적외선 펄스 동작과 관련하여 사용된다. 달리 말하면, 프레임 구별 동작은 적외선 펄스와 동기화된다.In one embodiment, the infrared LED 30 is continuously on to provide reflected radiation waves received by the camera 34. However, some sort of filtering or signal processing is generally done to correct the problems caused by the direct sunlight coming on the camera 34, which is done through the filter 36. In particular, the system 50 needs to be able to distinguish between the shadows caused by sunlight and the actual edges for the appearance of the occupant 16. According to the present invention, a frame differentiation technique is used, which pulses the LED 30 synchronously for a predetermined time period and for a predetermined number of video data frames, and then the same number. Pulse off for a predetermined time period over the video data frame The frames of data are then subtracted from each other so that frames without IR illumination can be subtracted from frames with IR illumination and the background can be removed. The detector is electrically shuttered synchronously with the pulse to provide exposure control. The frame differentiation technique described herein is used in connection with infrared pulse operation to achieve the desired result. In other words, the frame discrimination operation is synchronized with the infrared pulse.

프레임 구별의 개념은, 자연 조명만을 사용하는 이미지와, 또한 자연 조명과 부가된 적외선 조명을 함께 사용하는 이미지를 시간-개구(time-aperture)에 의해, 픽셀-레벨로 저장하는 기술이다. 이 프레임 구별은, 강한 가시광선 조명의 영향을 경감시키도록 이들 이미지를 감산시킨다. 이 구성(set-up)은, 아날로그/디지털 변환기 입력을 극대화하기 위해 최악의 경우의 배경에 더하여 IR 조명을 설정하는 중간 밀도 필터(neutral density filter)를 포함한다. 얼굴 인식은, 구별된 이미지에 대한 최악의 경우의 아날로그/디지털 범위가 5 내지 6비트인 것을 필요로 한다. 가시 광선은 아날로그/디지털 변환기에 의해 허용되는 나머지 범위 내에 적합하다. 이미지 구별은, 두개의 픽셀 레벨 커패시터가 각 조명 레벨에서 각각 충전되는 아날로그 영역에서, 또는 디지털화된 픽셀 출력의 RAM 메모리가 각 조명에서 취해지는 디지털 영역에서 수행된다. 프레임 구별 기술은, 가시광선 조명의 조명 효과를 감산하고, 그 이미지 콘트라스트(contrast)를 증가시키도록 작용한다. 프레임 구별 기능은 포착 모드/높은 대역폭 생성 모드에서, 또는 펄스된 LED 조명을 사용하는 협대역폭 추적 모드에서 수행될 수 있다. 펄스된 IR 광원으로부터의 전자의 수는 주위의 조명의 포톤 노이즈(photon noise)보다 10배 더 커야 한다. 여기서, 주위의 조명의 노이즈는 햇빛의 세기 내의 전자의 개수의 2배인 값의 제곱근()인데, 그 이유는, 수신되는 매 하나의 IR 이미지마다 2개의 이미지 프레임이 획득되기 때문이다.The concept of frame differentiation is a technique for storing images using only natural light and also images using both natural and added infrared light at a time-aperture, on a pixel-level basis. This frame discrimination subtracts these images to mitigate the effects of strong visible light illumination. This set-up includes a neutral density filter that sets the IR illumination in addition to the worst case background to maximize the analog / digital converter input. Face recognition requires that the worst case analog / digital range for the distinct image is between 5 and 6 bits. Visible light fits within the remaining range allowed by the analog-to-digital converter. Image discrimination is performed in the analog region in which two pixel level capacitors are charged at each illumination level, or in the digital region where RAM memory of the digitized pixel output is taken in each illumination. Frame discrimination techniques work by subtracting the lighting effect of visible light illumination and increasing its image contrast. Frame differentiation can be performed in acquisition mode / high bandwidth generation mode, or in narrow bandwidth tracking mode using pulsed LED illumination. The number of electrons from the pulsed IR light source should be 10 times greater than the photon noise of the ambient light. Here, the noise of the ambient light is the square root of the value that is twice the number of electrons in the intensity of sunlight ( This is because two image frames are acquired for every one IR image received.

도 6은 본 발명의 일실시예에 따라, 프레임 구별 기술이 카메라(34)에서 어떻게 수행되는지에 대한 도면이다. 도 7은 본 발명의 프레임 구별 기술의 동작을 보여주는 신호 타이밍 라인이다. 카메라(34) 내의 픽셀 어레이(90)는 LED(30)로부터의 IR의 온 기간 동안 미리 결정된 시간 기간(10㎲)에 씬(scene)으로부터 방사파를 수신한다. 이 때에, 픽셀 어레이(90)는 주위의 광 및 적외선 광을 수신한다. 그 다음에, 어레이(90)에 있는 각 픽셀 즉 포토다이오드(92)에 의해 저장된 전하는, 각 픽셀(92)마다 하나의 커패시터(96)가 있는 복수의 커패시터로 이루어진 전하 저장 사이트(94)로 전달된다. 약 10㎲ 후에, 클러스터(28)로부터 펄스가 오프된 때에, 픽셀 어레이(90)는 동일한 시간 기간 동안 단지 주위의 광만을 검출한다. 이러한 시간 기간에 픽셀 어레이(90)에 수신되는 전하는 커패시터(100)를 갖는 커패시터 저장 사이트(98)에 저장된다. 전자 셔터(shutter)는, 본 명세서에 설명된 동작을 위해 IR 방사파의 펄스('펄스'이라고도 한다)와 동기적으로 적절한 시간에 개폐하기 위해 검출기에 사용된다.6 is a diagram of how a frame discrimination technique is performed in the camera 34, in accordance with an embodiment of the present invention. 7 is a signal timing line showing the operation of the frame discrimination technique of the present invention. Pixel array 90 in camera 34 receives radiation waves from the scene in a predetermined time period 10 ms during the on period of the IR from LED 30. At this time, the pixel array 90 receives ambient light and infrared light. The charge stored by each pixel, ie photodiode 92, in array 90 is then transferred to charge storage site 94, which is composed of a plurality of capacitors with one capacitor 96 for each pixel 92. do. After about 10 ms, when the pulse from the cluster 28 is off, the pixel array 90 detects only ambient light for the same time period. The charge received at the pixel array 90 in this time period is stored at the capacitor storage site 98 with the capacitor 100. An electronic shutter is used in the detector to open and close at an appropriate time synchronously with a pulse of IR radiation (also called a 'pulse') for the operations described herein.

2개의 저장 사이트(94 및 98)는 합산 증폭기(summation amplifier)(102)에서 합산된다. 그 다음에, 2개의 저장 사이트(94 및 98) 사이의 차이는, 아날로그/디지털 변환기(104)에 의해 디지털화되고, 주위의 광이 제거된 데이터의 프레임을 나타낸다. 데이터 판독은 약 10ms가 걸리고, 이후, 그 다음 시간 기간에서, 클러스터(28)로부터의 그 다음 펄스가 발생한다. 완전한 프레임 구별 과정은, 픽셀 어레이(90) 및 저장 사이트(94 및 98)가 함께 존재하는 CMOS의 단일 칩 상에서 수행될 수 있다. 대안적인 실시예에서, 프레임 구별 기술은 오프-칩 사이트(site)에서 상이한 시간 기간에서 수행되는데, 여기서 저장 사이트(94 및 98)는 RAM이다.The two storage sites 94 and 98 are summed in a summation amplifier 102. The difference between the two storage sites 94 and 98 then represents a frame of data that has been digitized by the analog-to-digital converter 104 and ambient light has been removed. The data read takes about 10 ms and then, in the next time period, the next pulse from cluster 28 occurs. The complete frame discrimination process can be performed on a single chip of CMOS where the pixel array 90 and storage sites 94 and 98 are present together. In alternative embodiments, the frame discrimination technique is performed at different time periods at off-chip sites, where storage sites 94 and 98 are RAM.

본 발명의 프레임 구별 기술은 이후의 방식으로 설명될 수 있다. 변수는, 주위의 조명{I(x,y)}, 직접적인 주위의 조명{T(x,y)}, 씬(scene) 반사율{R(x,y)}, 및 온일 때 L이고, 오프일 때 0으로 변조되는 소스(source)로 한정된다. 카메라(34)의 응답은 반사율과 조명의 곱과 비례한다.The frame discrimination technique of the present invention can be described in the following manner. Variables are L when ambient light {I (x, y)}, direct ambient light {T (x, y)}, scene reflectance {R (x, y)}, and on and off. Is limited to a source that is modulated to zero when The response of camera 34 is proportional to the product of reflectance and illumination.

S(x,y,OFF)=k*{I(x,y)*R(x,y)}S (x, y, OFF) = k * {I (x, y) * R (x, y)}

S*(x,y,ON)=k*{(L+I(x,y))*R(x,y)}+T(x,y)S * (x, y, ON) = k * {(L + I (x, y)) * R (x, y)} + T (x, y)

D(x,y)=S(x,y,ON)-S(x,y,OFF)=KL*R(x,y)D (x, y) = S (x, y, ON) -S (x, y, OFF) = KL * R (x, y)

이러한 차이의 씬(scene)은 간단한 이미지{S(x,y,OFF)}보다 훨씬 더 적은 동적 범위를 갖는다. 동일한 이익이, LED하에서 프레임을 판독하고 나서, LED가 없이 프레임을 판독하고, 카메라(34)의 외부에서 프레임을 감산함으로써 유도될 수 있다. 불리한 점은, 포화(saturation)를 피하는데 요구되는 증가된 동적 범위이다.The scene of this difference has much less dynamic range than a simple image {S (x, y, OFF)}. The same benefit can be derived by reading the frame under the LED, then reading the frame without the LED and subtracting the frame outside of the camera 34. The disadvantage is the increased dynamic range required to avoid saturation.

L은 I에 대한 포톤 노이즈보다 훨씬 더 커야 한다. 따라서, I는, 주파수에서 L에 정렬되는 협대역 필터를 사용함으로써 가능한 한 적게 이루어진다. 로우(raw) 샘플링 속도는 물체 추적에 의해 설정된 필요 조건의 2배이어야 하는데, 그 이유는, 얼굴 인식 소프트웨어에 공급하기 위한 하나의 프레임을 얻기 위해, 2개의 프레임이 구별되기 때문이다. LED(30)는 훨씬 더 빨라야 한다. IR 방사파 소스는, 모든 방출이 모든 검출기가 활성화될 때의 시간 동안 이루어지도록, 변조되어야 한다. 검출기 내의 모든 픽셀의 집적 시간(integration time)이 정렬되지 않는다면, 소스가 온(on) 될 수 있는 가능한 시간은 최악의 경우의 오정렬(misalignment)에 의해 감소된다.L must be much larger than the photon noise for I. Thus, I is made as little as possible by using a narrowband filter that is aligned to L at frequency. The raw sampling rate should be twice the requirement set by object tracking, because two frames are distinguished in order to obtain one frame for feeding facial recognition software. The LED 30 should be much faster. The IR radiation wave source must be modulated such that all emissions occur for the time when all the detectors are activated. If the integration time of all the pixels in the detector is not aligned, the possible time that the source can be turned on is reduced by the worst case misalignment.

전술한 논의는 본 발명의 단지 예시적인 실시예를 개시하고 설명한다. 예를 들어, 펄스된 레이저 다이오드는 LED 대신 사용될 수 있다. 당업자는 그러한 논의로부터 및 첨부 도면으로부터 쉽게 인식할 것이고, 청구항, 그러한 다양한 변화, 변형 및 변경이 이후의 청구항에 한정된 바와 같이 본 발명의 사상 및 범주에서 벗어나지 않고도 이루어질 수 있다.The foregoing discussion discloses and describes only exemplary embodiments of the invention. For example, pulsed laser diodes can be used in place of LEDs. Those skilled in the art will readily recognize from such discussion and from the accompanying drawings, and claims, and such various changes, modifications, and changes, may be made without departing from the spirit and scope of the invention as defined in the following claims.

상술한 바와 같이, 본 발명은 일반적으로 인간의 존재 검출 시스템에서 배경 간섭을 제거하기 위한 프레임 구별(differencing) 기술 등에 이용된다.As described above, the present invention is generally used in a frame differentiation technique for eliminating background interference in a human presence detection system.

도 1은, 본 발명의 일실시예에 따라 에어백 전개를 위한 이미지 감지 시스템에 관한 차량의 조수석에 있는 사람에 대한, 부분이 잘려진 측면도.1 is a cut away side view of a person in a passenger seat of a vehicle relating to an image sensing system for airbag deployment in accordance with one embodiment of the present invention;

도 2는, 본 발명의 에어백 전개 시스템에 사용되는 비디오 카메라 및 LED 조명기의 개략도.2 is a schematic diagram of a video camera and LED illuminator used in the airbag deployment system of the present invention.

도 3은, 햇빛에 대한 휘도 곡선을 보여주는, 수평축 상의 파장 및 수직축 상의 발광(luminous) 에너지에 대한 그래프.3 is a graph of wavelength on the horizontal axis and luminous energy on the vertical axis, showing a luminance curve for sunlight.

도 4는, 에어백 도어의 중심 및 법선(normal)에 대한 카메라 방위 및 위치 파라미터를 도시한 도면.4 shows the camera orientation and position parameters with respect to the center and normal of the airbag door.

도 5는 본 발명의 에어백 전개 시스템의 블록도.5 is a block diagram of an airbag deployment system of the present invention.

도 6은, 본 발명의 에어백 전개 시스템에 사용되는 프레임 구별 기술을 도시한 개략도.6 is a schematic diagram illustrating a frame discrimination technique used in the airbag deployment system of the present invention.

도 7은, 본 발명의 프레임 구별 기술에 대한 시간 다이어그램.7 is a time diagram for the frame discrimination technique of the present invention.

<도면 주요 부분에 대한 부호의 설명><Explanation of symbols for the main parts of the drawings>

16: 사람 28: 적외선 소스16: person 28: infrared source

50: 인간 존재 검출 시스템 72: 적외선 검출기(픽셀 어레이)50: human presence detection system 72: infrared detector (pixel array)

70: 단일 CMOS 칩 90: 포토다이오드70: single CMOS chip 90: photodiode

94, 98: 저장 사이트 102: 합산 장치94, 98: storage site 102: summing device

Claims (42)

삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 차량용 장치에 있어서, 상기 장치는:In a vehicular device, the device comprises: 이미징 시스템으로서,As an imaging system, 적외선 빔을 생성하는 적외선 소스로서, 미리 결정된 연관된 시간 간격들에서 온 및 오프되도록 펄스되는(pulsed) 적외선 소스와;An infrared source for generating an infrared beam, comprising: an infrared source pulsed to be on and off at predetermined associated time intervals; 상기 적외선 빔의 경로에 있는 물체로부터 반사되는 적외선 방사파에 반응하는 적외선 검출기로서, 이미지 신호를 생성하는 적외선 검출기; 및An infrared detector responsive to an infrared radiation wave reflected from an object in the path of the infrared beam, the infrared detector generating an image signal; And 상기 검출기로부터의 상기 이미지 신호에 반응하는 프로세서로서, 상기 프로세서는 상기 적외선 소스가 온일 때의 하나의 제 1 시간 기간에 하나의 제 1 이미지를 생성하고 상기 적외선 소스가 오프일 때의 하나의 제 2 시간 기간에 하나의 제 2 이미지를 생성하며, 상기 프로세서는 상기 이미지로부터 주위 광(ambient light)이 감산된 필터링된 이미지를 생성하기 위해 상기 제 1 이미지로부터 상기 제 2 이미지를 감산하며, 상기 프로세서는 사람의 존재를 가리키는 패턴을 인식하기 위하여 상기 필터링된 이미지를 사용하는 패턴 인식 알고리즘을 사용하는, 프로세서를A processor responsive to the image signal from the detector, the processor generating one first image in one first time period when the infrared source is on and one second when the infrared source is off Generating a second image in a time period, the processor subtracting the second image from the first image to produce a filtered image subtracted from ambient light from the image; A processor using a pattern recognition algorithm that uses the filtered image to recognize a pattern indicating the presence of a person. 포함하는 이미징 시스템; 및An imaging system comprising; And 작동가능한 에어 백을Operable Air Bag 포함하고, 상기 프로세서는 상기 인식된 패턴에 응답하여 상기 에어 백의 작동을 제어하며,Wherein the processor controls the operation of the airbag in response to the recognized pattern, 여기서 상기 이미징 시스템의 상기 적외선 소스로부터 방출되는 전자의 수는 상기 주위 광에 포함된 포톤 노이즈(photon noise)의 적어도 열 배인,Wherein the number of electrons emitted from the infrared source of the imaging system is at least ten times the photon noise contained in the ambient light, 차량용 장치.Vehicle device. 제 22 항에 있어서, 상기 이미징 시스템은, 상기 제 1 이미지의 이미지 신호를 저장하는 제 1 메모리와, 상기 제 2 이미지의 이미지 신호를 저장하는 제 2 메모리, 및 상기 제 1 메모리에 저장되어 있는 상기 이미지 신호로부터 상기 제 2 메모리에 저장되어 있는 상기 이미지 신호를 감산하는 감산 디바이스를 더 포함하는, 차량용 장치.23. The system of claim 22, wherein the imaging system comprises: a first memory for storing the image signal of the first image, a second memory for storing the image signal of the second image, and the first memory; And a subtraction device for subtracting the image signal stored in the second memory from an image signal. 삭제delete 제 22 항에 있어서, 상기 이미징 시스템은 상기 적외선 검출기에 의해 검출된 상기 주위 광의 상기 포톤 노이즈를 감소시키기 위하여 좁은 통과대역을 가진 필터를 포함하는, 차량용 장치.23. The apparatus of claim 22, wherein the imaging system comprises a filter having a narrow passband to reduce the photon noise of the ambient light detected by the infrared detector. 제 22 항에 있어서, 상기 이미징 시스템의 상기 적외선 소스는 상기 적외선 빔을 집합적으로 방출하는 적외선 발광 다이오드들의 클러스터인, 차량용 장치.23. The vehicle apparatus of claim 22, wherein the infrared source of the imaging system is a cluster of infrared light emitting diodes that collectively emit the infrared beam. 제 22 항에 있어서, 상기 이미징 시스템은 상기 에어 백이 저장된 위치와 상기 사람 사이의 거리를 결정하기 위한 수단을 포함하는, 차량용 장치.23. The apparatus of claim 22, wherein the imaging system includes means for determining a distance between the location where the air bag is stored and the person. 차량용 시스템에 있어서, 상기 차량용 시스템은:In a vehicular system, the vehicular system comprises: 이미징 시스템으로서,As an imaging system, 적외선 빔을 생성하는 적외선 소스로서, 미리 결정된 연관된 시간 간격들에서 온 및 오프되도록 펄스되는 적외선 소스와;An infrared source for generating an infrared beam, comprising: an infrared source pulsed to be turned on and off at predetermined associated time intervals; 상기 적외선 빔의 경로에 있는 물체로부터 반사되는 적외선 방사파에 반응하는 적외선 검출기로서, 이미지 신호를 생성하는 적외선 검출기; 및An infrared detector responsive to an infrared radiation wave reflected from an object in the path of the infrared beam, the infrared detector generating an image signal; And 상기 검출기로부터의 상기 이미지 신호에 반응하는 프로세서로서, 상기 프로세서는 상기 적외선 소스가 온일 때의 하나의 제 1 시간 기간에 하나의 제 1 이미지를 생성하고 상기 적외선 소스가 오프일 때의 하나의 제 2 시간 기간에 하나의 제 2 이미지를 생성하며, 상기 프로세서는 상기 이미지로부터 주위 광이 감산된 필터링된 이미지를 생성하기 위해 상기 제 1 이미지로부터 상기 제 2 이미지를 감산하며, 상기 프로세서는 사람의 얼굴의 존재를 인식하기 위하여 상기 필터링된 이미지를 사용하는 얼굴 인식 알고리즘을 사용하는, 프로세서를A processor responsive to the image signal from the detector, the processor generating one first image in one first time period when the infrared source is on and one second when the infrared source is off Create a second image in a time period, the processor subtracting the second image from the first image to produce a filtered image with ambient light subtracted from the image, and the processor subtracting the second image from the human face A processor using a face recognition algorithm that uses the filtered image to recognize presence 포함하는 이미징 시스템; 및An imaging system comprising; And 작동가능한 에어 백을Operable Air Bag 포함하고, 상기 프로세서는 상기 사람 얼굴의 인식에 응답하여 상기 에어 백의 작동을 제어하며,Wherein the processor controls the operation of the airbag in response to recognition of the human face, 여기서 상기 이미징 시스템의 상기 적외선 소스로부터 방출되는 전자의 수는 상기 주위 광에 포함된 포톤 노이즈의 적어도 열 배인,Wherein the number of electrons emitted from the infrared source of the imaging system is at least ten times the photon noise contained in the ambient light, 차량용 시스템.Automotive systems. 삭제delete 제 28 항에 있어서, 상기 이미징 시스템은 상기 적외선 검출기에 의해 검출된 상기 주위 광의 상기 포톤 노이즈를 감소시키기 위하여 좁은 통과대역을 가진 필터를 포함하는, 차량용 시스템.29. The vehicle system of claim 28, wherein the imaging system includes a filter having a narrow passband to reduce the photon noise of the ambient light detected by the infrared detector. 제 28 항에 있어서, 상기 적외선 소스는 상기 적외선 빔을 집합적으로 방출하는 적외선 발광 다이오드들의 클러스터인, 차량용 시스템.29. The vehicle system of claim 28, wherein the infrared source is a cluster of infrared light emitting diodes that collectively emit the infrared beam. 제 28 항에 있어서, 상기 이미징 시스템은 상기 에어 백이 저장된 위치와 인식된 때의 상기 사람의 얼굴 사이의 거리를 결정하기 위한 수단을 포함하며, 상기 거리 결정 수단은 상기 거리를 결정할 때 상기 사람의 얼굴 상의 두 지점을 이용하는, 차량용 시스템.29. The apparatus of claim 28, wherein said imaging system includes means for determining a distance between a location where said airbag is stored and said face of said person when recognized, said distance determining means determining said distance when determining said distance. A vehicle system using two points on the phase. 제 32 항에 있어서, 상기 사람의 얼굴 상의 상기 두 지점은 제 1 눈(eye)의 위치와 제 2 눈의 위치를 포함하는, 차량용 시스템.33. The system of claim 32, wherein the two points on the face of the person comprise a position of a first eye and a position of a second eye. 차량의 팽창가능한 에어 백 작동을 제어하기 위한 방법으로서, 상기 에어 백 작동 제어 방법은:A method for controlling inflatable airbag operation of a vehicle, the airbag operation control method comprising: 적외선 방사 빔을 생성하는 단계와;Generating an infrared radiation beam; 미리 결정된 연관된 시간 간격들에서 온 및 오프로 되도록 상기 적외선 방사 빔을 펄스시키는(pulsing) 단계와;Pulsing the infrared radiation beam to be on and off at predetermined associated time intervals; 상기 방사 빔의 경로에 있는 물체로부터 반사된 적외선 방사를 검출하는 단계와;Detecting infrared radiation reflected from an object in the path of the radiation beam; 상기 빔이 온일 때의 하나의 제 1 시간 기간에 상기 반사된 적외선 방사로부터 하나의 제 1 이미지를 생성하고 저장하는 단계와;Generating and storing one first image from the reflected infrared radiation in one first time period when the beam is on; 상기 빔이 오프일 때의 하나의 제 2 시간 기간에 하나의 제 2 이미지를 생성하고 저장하는 단계와;Generating and storing one second image in one second time period when the beam is off; 주위 광을 제거하고 필터링된 이미지를 생성하기 위해, 상기 제 1 이미지로부터 상기 제 2 이미지를 감산하는 단계와;Subtracting the second image from the first image to remove ambient light and produce a filtered image; 차량 내에 사람의 존재를 나타내는 패턴을 인식하기 위하여 상기 필터링된 이미지를 이용하는 패턴 인식 알고리즘을 사용하는 단계; 및Using a pattern recognition algorithm using the filtered image to recognize a pattern indicative of the presence of a person in a vehicle; And 상기 인식된 패턴에 반응하여 상기 에어 백의 작동을 제어하는 단계를Controlling the operation of the air bag in response to the recognized pattern 포함하고,Including, 여기서, 상기 적외선 방사 빔 생성 단계는 상기 주위 광의 포톤 노이즈 량에 비해 적어도 열 배인 전자 수를 방출하는 단계를 포함하는,Wherein the generating an infrared radiation beam comprises emitting an electron number that is at least ten times the amount of photon noise of the ambient light, 차량의 에어백 작동 제어 방법.How to control the airbag operation of the vehicle. 삭제delete 제 34 항에 있어서, 검출된 상기 반사된 적외선 방사에서 상기 주위 광의 포톤 노이즈를 감소시키기 위하여 상기 반사된 적외선 방사를 검출하기 전에 상기 주위 광을 필터링하는 단계를 더 포함하는, 차량의 에어백 작동 제어 방법.35. The method of claim 34, further comprising filtering the ambient light prior to detecting the reflected infrared radiation to reduce photon noise of the ambient light in the detected infrared radiation. . 제 34 항에 있어서, 상기 에어 백의 저장된 위치와 상기 인식된 패턴 사이의 거리를 결정하는 단계를 더 포함하는, 차량의 에어백 작동 제어 방법.35. The method of claim 34, further comprising determining a distance between the stored position of the airbag and the recognized pattern. 차량의 팽창가능한 에어 백 작동을 제어하기 위한 방법으로서, 상기 에어 백 작동 제어 방법은:A method for controlling inflatable airbag operation of a vehicle, the airbag operation control method comprising: 적외선 방사 빔을 생성하는 단계와;Generating an infrared radiation beam; 미리 결정된 연관된 시간 간격들에서 온 및 오프로 되도록 상기 적외선 방사 빔을 펄스시키는(pulsing) 단계와;Pulsing the infrared radiation beam to be on and off at predetermined associated time intervals; 상기 방사 빔의 경로에 있는 물체로부터 반사된 적외선 방사를 검출하는 단계와;Detecting infrared radiation reflected from an object in the path of the radiation beam; 상기 빔이 온일 때의 하나의 제 1 시간 기간에 상기 반사된 적외선 방사로부터 하나의 제 1 이미지를 생성하고 저장하는 단계와;Generating and storing one first image from the reflected infrared radiation in one first time period when the beam is on; 상기 빔이 오프일 때의 하나의 제 2 시간 기간에 하나의 제 2 이미지를 생성하고 저장하는 단계와;Generating and storing one second image in one second time period when the beam is off; 주위 광을 제거하고 필터링된 이미지를 생성하기 위해, 상기 제 1 이미지로부터 상기 제 2 이미지를 감산하는 단계와;Subtracting the second image from the first image to remove ambient light and produce a filtered image; 차량 내에 사람의 얼굴의 존재를 인식하기 위하여 상기 필터링된 이미지를 이용하는 얼굴 인식 알고리즘을 사용하는 단계; 및Using a face recognition algorithm that uses the filtered image to recognize the presence of a face of a person in a vehicle; And 상기 인식된 얼굴에 반응하여 상기 에어 백의 작동을 제어하는 단계를Controlling the operation of the air bag in response to the recognized face 포함하고,Including, 여기서, 상기 적외선 방사 빔 생성 단계는 상기 주위 광의 포톤 노이즈 량에 비해 적어도 열 배인 전자 수를 방출하는 단계를 포함하는,Wherein the generating an infrared radiation beam comprises emitting an electron number that is at least ten times the amount of photon noise of the ambient light, 차량의 에어백 작동 제어 방법.How to control the airbag operation of the vehicle. 삭제delete 제 38 항에 있어서, 검출된 상기 반사된 적외선 방사에서 상기 주위 광의 포톤 노이즈를 감소시키기 위하여 상기 반사된 적외선 방사를 검출하기 전에 상기 주위 광을 필터링하는 단계를 더 포함하는, 차량의 에어백 작동 제어 방법.39. The method of claim 38, further comprising filtering the ambient light before detecting the reflected infrared radiation to reduce photon noise of the ambient light in the detected infrared radiation. . 제 38 항에 있어서, 상기 인식된 얼굴 상의 두 지점을 이용하여 상기 에어 백의 상기 저장된 위치와 상기 인식된 얼굴 사의의 거리를 결정하는 단계를 더 포함하는, 차량의 에어백 작동 제어 방법.39. The method of claim 38, further comprising determining a distance between the stored position of the airbag and the recognized face dead using two points on the recognized face. 제 41 항에 있어서, 상기 인식된 얼굴 상의 두 지점을 이용하여 상기 에어 백의 상기 저장된 위치와 상기 인식된 얼굴 사이의 거리를 결정하는 단계는, 상기 인식된 얼굴 상의 두 지점 중 하나로서 제 1 눈(eye)의 위치를 사용하고 상기 인식된 얼굴 상의 두 지점 중 하나로서 제 2 눈의 위치를 사용하는 단계를 더 포함하는, 차량의 에어백 작동 제어 방법.42. The method of claim 41, wherein determining the distance between the stored position of the airbag and the recognized face using two points on the recognized face comprises: first one of the two eyes on the recognized face; using the position of the eye and using the position of the second eye as one of two points on the recognized face.
KR10-2001-0034420A 2000-06-29 2001-06-18 Apparatus and method for controlling an airbag in a vehicle by optimized human presence detection Expired - Fee Related KR100492765B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US09/607,008 US6810135B1 (en) 2000-06-29 2000-06-29 Optimized human presence detection through elimination of background interference
US09/607,008 2000-06-29

Publications (2)

Publication Number Publication Date
KR20020002221A KR20020002221A (en) 2002-01-09
KR100492765B1 true KR100492765B1 (en) 2005-06-07

Family

ID=24430410

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2001-0034420A Expired - Fee Related KR100492765B1 (en) 2000-06-29 2001-06-18 Apparatus and method for controlling an airbag in a vehicle by optimized human presence detection

Country Status (4)

Country Link
US (1) US6810135B1 (en)
EP (1) EP1167127A3 (en)
JP (1) JP2002083287A (en)
KR (1) KR100492765B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140049980A (en) * 2011-02-17 2014-04-28 아이락 인크. Efficient method and system for the acquisition of scene imagery and iris imagery using a single sensor
KR101393570B1 (en) * 2012-12-28 2014-05-27 현대자동차 주식회사 Method and system for recognizing hand gesture using selective illumination

Families Citing this family (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6959102B2 (en) * 2001-05-29 2005-10-25 International Business Machines Corporation Method for increasing the signal-to-noise in IR-based eye gaze trackers
EP1273928A1 (en) * 2001-07-06 2003-01-08 Leica Geosystems AG Method and device for suppressing electromagnetic background radiation in an image
US7136513B2 (en) * 2001-11-08 2006-11-14 Pelco Security identification system
US7305108B2 (en) * 2001-11-08 2007-12-04 Pelco Security identification system
US20060050927A1 (en) * 2002-01-16 2006-03-09 Marcus Klomark Camera arrangement
US7251350B2 (en) * 2002-10-23 2007-07-31 Intel Corporation Method and apparatus for adaptive realtime system power state control
US7111869B2 (en) * 2003-07-22 2006-09-26 Trw Automotive U.S. Llc Apparatus and method for controlling an occupant protection system in response to determined passenger compartment occupancy information
US20050074183A1 (en) * 2003-09-19 2005-04-07 Narlow Douglas A. Object recognition system including an adaptive light source
US7388971B2 (en) * 2003-10-23 2008-06-17 Northrop Grumman Corporation Robust and low cost optical system for sensing stress, emotion and deception in human subjects
US20060205489A1 (en) * 2004-12-30 2006-09-14 Jerome Carpenter Methods for game player identification
US7445073B2 (en) * 2005-02-11 2008-11-04 Trw Automotive U.S. Llc Sensor assembly including a sensing channel having a void and an associated method
CN101124610A (en) * 2005-02-18 2008-02-13 富士通株式会社 Image processing method, image processing system, image processing device and computer program
JP2006259900A (en) * 2005-03-15 2006-09-28 Omron Corp Image processing system, image processor and processing method, recording medium, and program
US7580545B2 (en) * 2005-10-03 2009-08-25 Avago Technologies General Ip (Singapore) Pte. Ltd. Method and system for determining gaze direction in a pupil detection system
JP5001286B2 (en) 2005-10-11 2012-08-15 プライム センス リミティド Object reconstruction method and system
US9330324B2 (en) 2005-10-11 2016-05-03 Apple Inc. Error compensation in three-dimensional mapping
CN101496033B (en) * 2006-03-14 2012-03-21 普莱姆森斯有限公司 Depth-varying light fields for three dimensional sensing
EP1994503B1 (en) * 2006-03-14 2017-07-05 Apple Inc. Depth-varying light fields for three dimensional sensing
JP2007316036A (en) * 2006-05-29 2007-12-06 Honda Motor Co Ltd Vehicle occupant detection device
JP5061767B2 (en) * 2006-08-10 2012-10-31 日産自動車株式会社 Image processing apparatus and image processing method
TWI433052B (en) * 2007-04-02 2014-04-01 Primesense Ltd Depth mapping using projected patterns
WO2008155770A2 (en) * 2007-06-19 2008-12-24 Prime Sense Ltd. Distance-varying illumination and imaging techniques for depth mapping
ES2306616B1 (en) 2008-02-12 2009-07-24 Fundacion Cidaut PROCEDURE FOR DETERMINATION OF THE LUMINANCE OF TRAFFIC SIGNS AND DEVICE FOR THEIR REALIZATION.
US8456517B2 (en) * 2008-07-09 2013-06-04 Primesense Ltd. Integrated processor for 3D mapping
US8462207B2 (en) * 2009-02-12 2013-06-11 Primesense Ltd. Depth ranging with Moiré patterns
US8786682B2 (en) * 2009-03-05 2014-07-22 Primesense Ltd. Reference image techniques for three-dimensional sensing
US8717417B2 (en) * 2009-04-16 2014-05-06 Primesense Ltd. Three-dimensional mapping and imaging
US8054290B2 (en) * 2009-05-27 2011-11-08 Microsoft Corporation Image contrast enhancement in depth sensor
US9582889B2 (en) * 2009-07-30 2017-02-28 Apple Inc. Depth mapping based on pattern matching and stereoscopic information
US8830227B2 (en) * 2009-12-06 2014-09-09 Primesense Ltd. Depth-based gain control
US8982182B2 (en) * 2010-03-01 2015-03-17 Apple Inc. Non-uniform spatial resource allocation for depth mapping
US8279418B2 (en) 2010-03-17 2012-10-02 Microsoft Corporation Raster scanning for depth detection
US8836491B2 (en) * 2010-04-29 2014-09-16 Ford Global Technologies, Llc Occupant detection
CN103053167B (en) 2010-08-11 2016-01-20 苹果公司 Scanning projector and the image capture module mapped for 3D
US8681255B2 (en) 2010-09-28 2014-03-25 Microsoft Corporation Integrated low power depth camera and projection device
US8592739B2 (en) 2010-11-02 2013-11-26 Microsoft Corporation Detection of configuration changes of an optical element in an illumination system
US9066087B2 (en) 2010-11-19 2015-06-23 Apple Inc. Depth mapping using time-coded illumination
US9167138B2 (en) 2010-12-06 2015-10-20 Apple Inc. Pattern projection and imaging using lens arrays
WO2012093323A1 (en) * 2011-01-04 2012-07-12 Koninklijke Philips Electronics N.V. A presence detection system and a lighting system.
US9030528B2 (en) 2011-04-04 2015-05-12 Apple Inc. Multi-zone imaging sensor and lens array
US9363869B2 (en) 2012-01-04 2016-06-07 Blackberry Limited Optical navigation module with decoration light using interference avoidance method
EP2817586B1 (en) 2012-02-15 2020-03-25 Apple Inc. Scanning depth engine
TW201401183A (en) * 2012-06-18 2014-01-01 tian-xiang Chen Human face or head detection method for depth photography
KR101490955B1 (en) * 2013-10-29 2015-02-06 현대자동차 주식회사 Vehicle operation device
US10932103B1 (en) * 2014-03-21 2021-02-23 Amazon Technologies, Inc. Determining position of a user relative to a tote
FR3047951B1 (en) * 2016-02-22 2019-04-19 Peugeot Citroen Automobiles Sa DEVICE FOR ANALYZING CONTROL SIGNALS DELIVERED BY VEHICLE SAFETY EQUIPMENT (S) MONITORING MEANS
US10146375B2 (en) * 2016-07-01 2018-12-04 Intel Corporation Feature characterization from infrared radiation
US10574872B2 (en) 2016-12-01 2020-02-25 Semiconductor Components Industries, Llc Methods and apparatus for single-chip multispectral object detection
US20190012552A1 (en) * 2017-07-06 2019-01-10 Yves Lambert Hidden driver monitoring
CN107933461B (en) * 2017-11-17 2020-07-10 重庆长安汽车股份有限公司 In-vehicle identification fusion device and method based on single camera
US11067673B2 (en) * 2018-05-17 2021-07-20 Cmos Sensor, Inc. Sensor, apparatus for lidar application and method of background cancellation
KR102274344B1 (en) * 2021-04-09 2021-07-08 이철선 Fall safety system for elevator hole

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0243195A (en) * 1988-06-03 1990-02-13 Inventio Ag Method and device for controlling position of automatic door
US5829782A (en) * 1993-03-31 1998-11-03 Automotive Technologies International, Inc. Vehicle interior identification and monitoring system

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5845000A (en) 1992-05-05 1998-12-01 Automotive Technologies International, Inc. Optical identification and monitoring system using pattern recognition for use with vehicles
US4648052A (en) 1983-11-14 1987-03-03 Sentient Systems Technology, Inc. Eye-tracker communication system
JPS60152904A (en) 1984-01-20 1985-08-12 Nippon Denso Co Ltd Vehicle-driver-position recognizing apparatus
DE3583498D1 (en) 1984-12-27 1991-08-22 Kawasaki Steel Co METHOD FOR DETECTING FINGERPRINTS BY MEANS OF A LASER.
US4720189A (en) 1986-01-07 1988-01-19 Northern Telecom Limited Eye-position sensor
JPH01158579A (en) 1987-09-09 1989-06-21 Aisin Seiki Co Ltd Image recognizing device
US5164992A (en) 1990-11-01 1992-11-17 Massachusetts Institute Of Technology Face recognition system
US5835613A (en) 1992-05-05 1998-11-10 Automotive Technologies International, Inc. Optical identification and monitoring system using pattern recognition for use with vehicles
US6144366A (en) * 1996-10-18 2000-11-07 Kabushiki Kaisha Toshiba Method and apparatus for generating information input using reflected light image of target object
JP3410919B2 (en) * 1997-01-31 2003-05-26 株式会社東芝 Image extraction device
DE19645175A1 (en) * 1996-11-02 1998-05-07 Telefunken Microelectron Controlling optical monitoring appliance for seat occupancy of vehicle
JPH10147206A (en) 1996-11-19 1998-06-02 Nippon Soken Inc Cabin situation detector
JPH10315906A (en) 1997-05-21 1998-12-02 Zexel Corp Occupant recognition method, occupant recognition device, air bag control method and air bag device
JPH1120606A (en) 1997-07-01 1999-01-26 Mitsubishi Electric Corp Occupant restraint
JPH11112968A (en) 1997-10-01 1999-04-23 Harness Syst Tech Res Ltd Environmental monitoring device inside and outside the vehicle
DE19757595C2 (en) * 1997-12-23 2000-05-11 Siemens Ag Method and device for recording a three-dimensional distance image
US6373557B1 (en) 1997-12-23 2002-04-16 Siemens Aktiengesellschaft Method and apparatus for picking up a three-dimensional range image
JPH11201822A (en) 1998-01-09 1999-07-30 Denso Corp Car equipment control device
US6060989A (en) 1998-10-19 2000-05-09 Lucent Technologies Inc. System and method for preventing automobile accidents
US6298311B1 (en) * 1999-03-01 2001-10-02 Delphi Technologies, Inc. Infrared occupant position detection system and method for a motor vehicle

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0243195A (en) * 1988-06-03 1990-02-13 Inventio Ag Method and device for controlling position of automatic door
US5829782A (en) * 1993-03-31 1998-11-03 Automotive Technologies International, Inc. Vehicle interior identification and monitoring system

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
대한민국 특허공보 제1585호. 1부. *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140049980A (en) * 2011-02-17 2014-04-28 아이락 인크. Efficient method and system for the acquisition of scene imagery and iris imagery using a single sensor
KR102024949B1 (en) * 2011-02-17 2019-09-24 아이락 엘엘씨 Efficient method and system for the acquisition of scene imagery and iris imagery using a single sensor
KR101393570B1 (en) * 2012-12-28 2014-05-27 현대자동차 주식회사 Method and system for recognizing hand gesture using selective illumination
US9373026B2 (en) 2012-12-28 2016-06-21 Hyundai Motor Company Method and system for recognizing hand gesture using selective illumination

Also Published As

Publication number Publication date
EP1167127A3 (en) 2003-05-07
US6810135B1 (en) 2004-10-26
KR20020002221A (en) 2002-01-09
JP2002083287A (en) 2002-03-22
EP1167127A2 (en) 2002-01-02

Similar Documents

Publication Publication Date Title
KR100492765B1 (en) Apparatus and method for controlling an airbag in a vehicle by optimized human presence detection
KR100440669B1 (en) Human presence detection, identification and tracking using a facial feature image sensing system for airbag deployment
US7110570B1 (en) Application of human facial features recognition to automobile security and convenience
US6724920B1 (en) Application of human facial features recognition to automobile safety
JP4593942B2 (en) Pupil detection apparatus and method
JP2022120004A (en) Depth-sensing computer vision system
Hsu et al. Performance of a time-of-flight range camera for intelligent vehicle safety applications
US20010003168A1 (en) Vehicular occupant detection arrangements
US7580545B2 (en) Method and system for determining gaze direction in a pupil detection system
JP2008518195A (en) Occupant detection system
JPS60152904A (en) Vehicle-driver-position recognizing apparatus
US6678598B1 (en) Device and method for seat supervision in motor vehicles
GB2374228A (en) A collision warning device
US20020181742A1 (en) Apparatus and method for determining vehicle occupant characteristic utilizing imaging with provided light
KR101868293B1 (en) Apparatus for Providing Vehicle LIDAR
EP1552988A2 (en) Infrared proximity sensor for air bag safety
WO2003059697A1 (en) A camera arrangement
Koch et al. Real-time occupant classification in high dynamic range environments
JPS60166806A (en) Operator position recognizing apparatus for vehicle
GB2384305A (en) Human position detection by capturing spectral contents of images representative of human skin

Legal Events

Date Code Title Description
A201 Request for examination
PA0109 Patent application

St.27 status event code: A-0-1-A10-A12-nap-PA0109

PA0201 Request for examination

St.27 status event code: A-1-2-D10-D11-exm-PA0201

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

PG1501 Laying open of application

St.27 status event code: A-1-1-Q10-Q12-nap-PG1501

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

T11-X000 Administrative time limit extension requested

St.27 status event code: U-3-3-T10-T11-oth-X000

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

T11-X000 Administrative time limit extension requested

St.27 status event code: U-3-3-T10-T11-oth-X000

E13-X000 Pre-grant limitation requested

St.27 status event code: A-2-3-E10-E13-lim-X000

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

E13-X000 Pre-grant limitation requested

St.27 status event code: A-2-3-E10-E13-lim-X000

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

St.27 status event code: A-1-2-D10-D22-exm-PE0701

GRNT Written decision to grant
PR0701 Registration of establishment

St.27 status event code: A-2-4-F10-F11-exm-PR0701

PR1002 Payment of registration fee

St.27 status event code: A-2-2-U10-U11-oth-PR1002

Fee payment year number: 1

PG1601 Publication of registration

St.27 status event code: A-4-4-Q10-Q13-nap-PG1601

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 4

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 5

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 6

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 7

FPAY Annual fee payment

Payment date: 20120507

Year of fee payment: 8

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 8

FPAY Annual fee payment

Payment date: 20130508

Year of fee payment: 9

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 9

LAPS Lapse due to unpaid annual fee
PC1903 Unpaid annual fee

St.27 status event code: A-4-4-U10-U13-oth-PC1903

Not in force date: 20140525

Payment event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE

PC1903 Unpaid annual fee

St.27 status event code: N-4-6-H10-H13-oth-PC1903

Ip right cessation event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE

Not in force date: 20140525

P22-X000 Classification modified

St.27 status event code: A-4-4-P10-P22-nap-X000

P22-X000 Classification modified

St.27 status event code: A-4-4-P10-P22-nap-X000