KR100492765B1 - Apparatus and method for controlling an airbag in a vehicle by optimized human presence detection - Google Patents
Apparatus and method for controlling an airbag in a vehicle by optimized human presence detection Download PDFInfo
- Publication number
- KR100492765B1 KR100492765B1 KR10-2001-0034420A KR20010034420A KR100492765B1 KR 100492765 B1 KR100492765 B1 KR 100492765B1 KR 20010034420 A KR20010034420 A KR 20010034420A KR 100492765 B1 KR100492765 B1 KR 100492765B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- infrared
- delete delete
- airbag
- generating
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R21/00—Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
- B60R21/01—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
- B60R21/015—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
- B60R21/01512—Passenger detection systems
- B60R21/0153—Passenger detection systems using field detection presence sensors
- B60R21/01538—Passenger detection systems using field detection presence sensors for image processing, e.g. cameras or sensor arrays
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R21/00—Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
- B60R21/01—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
- B60R21/015—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
- B60R21/01512—Passenger detection systems
- B60R21/0153—Passenger detection systems using field detection presence sensors
- B60R21/01534—Passenger detection systems using field detection presence sensors using electromagneticwaves, e.g. infrared
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R21/00—Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
- B60R21/01—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
- B60R21/015—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
- B60R21/01512—Passenger detection systems
- B60R21/01552—Passenger detection systems detecting position of specific human body parts, e.g. face, eyes or hands
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01V—GEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
- G01V8/00—Prospecting or detecting by optical means
- G01V8/10—Detecting, e.g. by using light barriers
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Mechanical Engineering (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Geometry (AREA)
- Electromagnetism (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Geophysics (AREA)
- General Life Sciences & Earth Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Air Bags (AREA)
- Geophysics And Detection Of Objects (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
인간 존재 검출 시스템(50)은 시스템에 의해 생성되는 이미지로부터 배경 간섭을 감산하기 위한 프레임 구별 기술을 사용한다. 상기 시스템(50)은, 적외선 방사 빔을 생성하는 적외선 소스(28), 및 상기 빔의 경로에 있는 물체로부터 반사되는 적외선 방사를 수신하는 적외선 검출기(72)를 포함한다. 얼굴 인식 소프트웨어는 반사된 방사로부터 사람(16)의 존재를 결정하는데 사용된다. 적외선 소스(28)는 펄스 온 및 오프되고, 검출기(72)는 펄스에 동시에 차단되어, 이미지 프레임은 상이한 시간에 생성되는데, 여기서 하나의 프레임은 반사된 방사 및 배경 방사를 포함하고, 다른 프레임은 배경 방사만을 포함한다. 프레임은 배경 방사를 분리하도록 감산된다. 일실시예에서, 검출기(72)는, 포토다이오드(90)의 픽셀 어레이, 및 단일 CMOS 칩(70) 상에 이미지 프레임을 저장하기 위한 제 1 및 제 2 커패시터 저장 사이트(94, 98)를 포함한다. 저장 사이트(94, 98)는 CMOS 칩(70) 상에 또한 존재하는 합산 장치(102)에서 감산된다. 대안적인 실시예에서, 프레임은 오프-칩 사이트에서 저장되고 감산된다.The human presence detection system 50 uses a frame discrimination technique to subtract background interference from the image produced by the system. The system 50 includes an infrared source 28 for generating an infrared radiation beam, and an infrared detector 72 for receiving infrared radiation reflected from an object in the path of the beam. Facial recognition software is used to determine the presence of the person 16 from the reflected radiation. The infrared source 28 is pulsed on and off, and the detector 72 is blocked at the same time with the pulse so that the image frame is generated at different times, where one frame includes reflected radiation and background radiation, and the other frame Include only background radiation. The frame is subtracted to separate the background radiation. In one embodiment, detector 72 includes a pixel array of photodiodes 90 and first and second capacitor storage sites 94 and 98 for storing image frames on a single CMOS chip 70. do. Storage sites 94 and 98 are subtracted in summing device 102 that is also present on CMOS chip 70. In alternative embodiments, frames are stored and subtracted at off-chip sites.
Description
본 발명은 일반적으로 인간의 존재 검출 시스템에서 배경 간섭을 제거하기 위한 프레임 구별(differencing) 기술에 관한 것으로, 더 구체적으로는, 적절한 에어백 전개를 위해 차량에 사용되는 인간의 존재 검출 시스템에서 배경 간섭을 제거하기 위한 프레임 구별 기술에 관한 것이다.FIELD OF THE INVENTION The present invention relates generally to frame differentiation techniques for removing background interference in human presence detection systems, and more particularly to background interference in human presence detection systems used in vehicles for proper airbag deployment. A frame discrimination technique for removing.
미연방 도로 교통 안전국(National Highway Traffic Safety Administration)은 1998년 이후에 제조된 모든 승용차에 탑승자 측의 에어백을 요구한다. 에어백은 수 천명의 인명을 구할 수 있지만, 더 안전한 에어백 전개 시스템은 그 이상의 인명을 구할 수 있다. 더 안전하고 더 효과적인 개선된 에어백을 요구하는 제안이 미연방 도로 교통 안전국에 의해 제출되었다. 따라서, 차량의 조수석(passenger seat)에서 사람을 검출하고, 식별하며 추적함에 따라 에어백 전개를 결정하는 개선된 에어백 전개 시스템이 그 기술 분야에서 필요하다.The National Highway Traffic Safety Administration requires passenger airbags for all passenger cars manufactured after 1998. Airbags can save thousands of lives, but safer airbag deployment systems can save even more lives. Proposals requiring improved airbags that are safer and more effective have been submitted by the Federal Road Traffic Safety Administration. Accordingly, there is a need in the art for an improved airbag deployment system that determines airbag deployment as it detects, identifies, and tracks people in a passenger seat of a vehicle.
미래의 에어백 전개 시스템은 차량의 조수석에서 사람을 식별하고 추적할 수 있을 것이다. 이러한 정보에 기초하여, 상기 시스템은, 사람이 조수석에 착석했는지와, 에어백 전개 도어(airbag deployment door)에 대한 사람의 체형 및 사람의 위치에 따라, 충돌 사고시 에어백을 팽창(fire)시키고, 저속으로 에어백을 팽창시키거나 정상의 고속으로 에어백을 팽창시키는지의 여부에 대한 신호를 제공할 것이다. 일예로, 조수석에서 사람이 검출되고, 에어백 도어로부터 다소 좁은 거리(예를 들어, 3인치 이내)에 있으면, 충돌 사고시 에어백은 팽창하지 않는다. 조수석에서 사람이 검출되고, 에어백 도어와 가까이(예를 들어, 3인치와 8인치 사이) 있으면, 충돌 사고시 에어백은 더 낮은 속도로 팽창한다. 조수석에서 사람이 검출되고, 에어백 도어로부터 충분히 멀리 떨어져(예를 들어, 8인치를 초과) 있으면, 충돌 사고시 에어백은 정상적으로 고속으로 팽창한다.Future airbag deployment systems will be able to identify and track people in the passenger seat of the vehicle. Based on this information, the system inflates the airbag in the event of a crash, depending on whether the person is seated in the passenger seat, the person's body shape and the person's position relative to the airbag deployment door, and at a low speed. It will provide a signal as to whether to inflate the airbag or inflate it at normal high speed. For example, if a person is detected in the passenger seat and is at a somewhat narrow distance (eg, within 3 inches) from the airbag door, the airbag does not inflate during a crash. If a person is detected in the passenger seat and close to the airbag door (eg between 3 inches and 8 inches), the airbag inflates at a lower speed during a crash. If a person is detected in the passenger seat and far enough away from the airbag door (eg greater than 8 inches), the airbag will normally inflate at high speed in the event of a crash.
현재의 탑승자 감지 시스템은 일반적으로 에어백 전개를 위해 탑승자를 검출하도록 초음파 센서, 질량 센서, 적외선 센서 및/또는 전자기 센서를 포함한다. 초음파 감지 시스템은, 조수석 영역 내에 있는 물체의 움직임을 감지하고, 그 물체가 센서의 위치로부터 더 가깝거나 더 멀리 이동하는 지를 결정한다. 그러나, 초음파 센서는 그 물체의 성질을 식별하지 못하므로, 그 물체가 사람이거나 식료품 가방과 같은 다른 물체인지를 알 수 없다. 초음파 센서와 유사하게, 능동 도플러 레이더 시스템(active doppler radar systems)에 사용되는 극초단파 센서는 물체들을 추적할 수 있지만, 인간의 존재를 식별할 수 없다. 질량 센서는 가해진 압력에 기초하여 조수석에 있는 물체들을 식별하지만, 에어백에 대한 탑승자의 위치를 고려하지 않는다. 수동 IR 센서는 조수석의 열적 이미지를 포착하지만, 이러한 시스템은 매우 비싸다. 현재의 능동 IR 센서는 에어백에 대한 탑승자의 상대적인 위치를 감지하지만, 사람의 존재를 식별할 수 없다. 전자기 시스템은, 그 존재를 검출하여 물체를 식별하는데 신체 정전 용량(body capacitance)이 사용되는 LC 공진 회로를 포함하지만, 이러한 시스템은 그 물체를 추적할 수 없다.Current occupant detection systems generally include ultrasonic sensors, mass sensors, infrared sensors and / or electromagnetic sensors to detect occupants for airbag deployment. The ultrasonic sensing system senses the movement of an object within the passenger seat area and determines whether the object moves closer or farther from the position of the sensor. However, the ultrasonic sensor does not identify the property of the object, and therefore cannot know whether the object is a human or other object such as a grocery bag. Similar to ultrasonic sensors, microwave sensors used in active doppler radar systems can track objects, but cannot identify human presence. The mass sensor identifies objects in the passenger seat based on the pressure applied but does not consider the occupant's position with respect to the airbag. Passive IR sensors capture the thermal image of the passenger seat, but these systems are very expensive. Current active IR sensors detect the passenger's relative position with respect to the airbag, but cannot identify the presence of a person. Electromagnetic systems include LC resonant circuits in which body capacitance is used to detect the presence and identify an object, but such a system cannot track the object.
1998년, 11월 10일에 브리드(Breed) 등에 허여된 미국 특허(제 5,835,613호)는, 차량의 탑승자 구역에 있는 사람을 식별하고, 위치를 정하고(locate), 감시하는 것을 청구하는 차량 내부 감시 시스템을 개시한다. 상기 감시 시스템은 차량 내부를 조명하는 적외선 이미터와, 그 방사파를 검출하는 전하 결합 소자(CCD: Charge Couple Device) 어레이를 사용한다. CCD 어레이로부터의 출력은 연산 장치에 의해 분석되는데, 상기 연산 장치는, 조수석에 있는 내용물(content) 또는 물체를 분류하고, 식별하거나 위치를 정하기 위해 패턴 인식 알고리즘(pattern recognition algorithms)을 사용한다. 상기 미국 특허(제 5,835,613호)에 개시된 차량 점유자를 결정하기 위한 패턴 인식 시스템은, 다양한 조건 하에서 모든 종류의 조명 상황에서의 사람의 형태를 알아야 하는 복잡한 소프트웨어를 사용한다. 더욱이, 이러한 방식으로 패턴 인식을 사용하는 것은, 사람이 조수석에서 움직이기 때문에 사람을 추적할 수 있는 능력에 한계가 있다. 더욱이, 일반적인 패턴 인식에 의해 인간을 식별하고 추적할 수 있는 능력은 미심쩍은 정도로 신뢰할 수 없다. 상기 패턴 인식은 사람 자체를 식별할 수 없고, 단지 물체의 형태만을 검출한다.U.S. Patent No. 5,835,613, issued to Breed et al. On November 10, 1998, discloses an in-vehicle surveillance claiming to identify, locate, and monitor a person in the occupant's area of the vehicle. Start the system. The monitoring system uses an infrared emitter that illuminates the interior of the vehicle and a charge couple device (CCD) array that detects the radiation wave. Output from the CCD array is analyzed by a computing device, which uses pattern recognition algorithms to classify, identify or locate content or objects in the passenger seat. The pattern recognition system for determining a vehicle occupant disclosed in the above-mentioned US patent (No. 5,835,613) uses complicated software that needs to know the shape of a person in all kinds of lighting situations under various conditions. Moreover, using pattern recognition in this way is limited in the ability to track a person because he moves in the passenger seat. Moreover, the ability to identify and track humans by general pattern recognition is unsuspectingly unreliable. The pattern recognition cannot identify the person itself, only the shape of the object.
차량의 조수석에 있는 사람을 효과적으로 식별하고 추적할 수 있는 개선된 에어백 전개 센서 및 시스템이 필요하다. 그러므로, 본 발명의 목적은 차량 탑승자의 에어백 전개를 위해 그러한 감지 시스템을 제공하는 것이다.There is a need for improved airbag deployment sensors and systems that can effectively identify and track people in the passenger seat of a vehicle. It is therefore an object of the present invention to provide such a sensing system for airbag deployment of a vehicle occupant.
본 발명의 가르침에 따라, 상기 시스템에 의해 생성되는 이미지로부터 배경 간섭을 감산하기 위해 프레임 구별 기술을 사용하는 인간의 존재 검출 시스템이 개시된다. 상기 시스템은, 적외선 방사 빔을 생성하는 적외선 소스, 및 빔의 경로에 있는 물체로부터 반사되는 적외선 방사파를 수용하는 적외선 검출기를 포함한다. 얼굴 인식 소프트웨어는 반사된 방사파로부터 사람의 존재를 결정하는데 사용된다. 적외선 소스는 펄스되고, 검출기는 펄스와 동기적으로 차단되어, 이미지 프레임은 상이한 시간에 생성되는데, 여기서 하나의 프레임은 반사된 방사파 및 배경 방사파를 포함하고, 또 다른 프레임은 단지 배경 방사파만을 포함한다. 프레임은 배경 방사파를 분리하도록 감산된다.In accordance with the teachings of the present invention, a human presence detection system is disclosed that uses frame discrimination techniques to subtract background interference from an image produced by the system. The system includes an infrared source for generating an infrared radiation beam, and an infrared detector for receiving infrared radiation waves reflected from an object in the path of the beam. Facial recognition software is used to determine the presence of a person from reflected radiation. The infrared source is pulsed and the detector is blocked synchronously with the pulses so that the image frames are generated at different times, where one frame contains reflected radiation and background radiation, and the other frame is just background radiation. Includes only. The frame is subtracted to separate the background radiation wave.
일실시예에서, 검출기는, 포토다이오드의 픽셀 어레이와, 단일 CMOS 칩 상에 이미지 프레임을 저장하기 위한 제 1 및 제 2 커패시터 저장 사이트('메모리'라고도 한다)를 포함한다. 저장 사이트는 CMOS 칩 상에 또한 존재하는 합산 장치에서 감산된다. 대안적인 실시예에서, 프레임은 오프-칩 사이트에 저장되고, 감산된다.In one embodiment, the detector includes a pixel array of photodiodes and first and second capacitor storage sites (also referred to as 'memory') for storing image frames on a single CMOS chip. The storage site is subtracted from the summing device that also exists on the CMOS chip. In an alternative embodiment, the frame is stored at the off-chip site and subtracted.
사람의 얼굴 부위 인식을 사용하는 에어백 전개 시스템에 대한 바람직한 실시예의 이후의 논의는 사실상 단지 예시적이므로, 본 발명 또는 본 발명의 응용 또는 사용 방식을 전혀 한정하지 않는다.The following discussion of a preferred embodiment of an airbag deployment system using human face region recognition is merely exemplary in nature, and therefore does not limit the present invention or its application or mode of use at all.
본 발명의 일실시예에 따라, 차량의 조수석에 있는 사람을 검출하고, 식별하고, 추적하기 위한 기술이 개시된다. 전술한 바와 같이, 사람이 차량의 조수석에 있는 지의 여부와 사람이 에어백 도어에 인접해있는 지의 여부와 사람의 체형에 따라, 충돌 사고시 차량의 탑승자 측의 에어백을 저속으로 전개하거나, 에어백을 전개하지 않는 것이 때때로 바람직하다. 본 발명에 따라, 사람의 식별 및 추적은, 얼굴 인식 소프트웨어, 특히, 사람의 안구 및 다른 얼굴 부위를 인식하고 추적하는 소프트웨어에 의해 결정된다. 추적은 여러 가지 머리 각도 및 자세에서 그 방식으로 발생될 수 있다. 상기 소프트웨어 알고리즘은 범위를 추정하기 위해 교정된(calibrated) 얼굴 및 생김새의 거리(feature separation)를 사용한다. 인간의 얼굴상의 국한된 영역의 추적은, 초당 더 많은 이미지 프레임이 획득될 수 있도록 하여, 더 빈번한 사람의 추적을 허용한다. 얼굴 부위를 더 빈번히 추적하는 것은 흐릿한 이미지의 획득을 얻는 것을 방지하는데, 그 이유는 상기 이미지가 더 자주 갱신되기 때문이다.In accordance with one embodiment of the present invention, a technique for detecting, identifying, and tracking a person in the passenger seat of a vehicle is disclosed. As described above, depending on whether the person is in the passenger seat of the vehicle, whether the person is adjacent to the airbag door, and the person's body type, the airbag at the occupant's side of the vehicle should not be deployed at low speed or in the event of a crash. It is sometimes desirable not to. According to the invention, identification and tracking of a person is determined by facial recognition software, in particular software that recognizes and tracks the eye and other facial parts of the person. Tracking can occur that way at various head angles and postures. The software algorithm uses feature separation of the calibrated face and appearance to estimate the range. Tracking of localized areas on the human face allows more image frames per second to be obtained, allowing for more frequent tracking of people. Tracking the face area more frequently prevents obtaining a blurred image acquisition, because the image is updated more often.
분석되는 물체로부터 수신되는 비디오 데이터 패턴으로부터의 데이터를 처리하고, 물체가 얼굴을 갖는지의 여부를 결정하는 다양한 소프트웨어가 종래 기술에 알려져 있다. 예를 들어, 그러한 소프트웨어는 당업자에게 잘 알려진 Visionics Face-It 소프트웨어를 포함한다. 본 발명이, 임의의 특정한 얼굴 부위 매핑(mapping) 기능에 한정되지 않지만, 2차원 또는 3차원이든지 간에 얼굴 부위를 인식하기 위해 본 명세서에 설명된 목적에 적합하고, 게다가 기능의 범위를 정하는데 또한 사용될 수 있는, 임의의 알려진 알고리즘을 포함할 수 있다는 것이 강조된다. 더욱이, 본 발명에 따라, 알고리즘의 범위를 정하는 것은 알려진 얼굴 인식 소프트웨어와 함께 사용된다.Various software is known in the art to process data from video data patterns received from an object to be analyzed and to determine whether the object has a face. For example, such software includes Visionics Face-It software, which is well known to those skilled in the art. Although the present invention is not limited to any particular face region mapping function, it is suitable for the purposes described herein for recognizing face regions, whether in two or three dimensions, and in addition to defining a range of functions. It is emphasized that it can include any known algorithm that can be used. Moreover, in accordance with the present invention, delimiting algorithms is used with known face recognition software.
이후에 구체적으로 논의되는 바와 같이, 본 발명은, 차량의 탑승자 구역 중 탑승자 측에 있는 물체로부터 반사되며, 전자 비디오 카메라에 의해 수신되는 적외선 방사파를 사용한다. 비디오 카메라는, 사람의 존재의 식별 및 추적을 결정하기 위해 얼굴 인식 소프트웨어에 의해 사용되는 전자 신호 및 이미지를 생성한다.As will be discussed in detail later, the present invention uses infrared radiation waves reflected from an object on the occupant's side of the occupant's area of the vehicle and received by an electronic video camera. The video camera generates electronic signals and images used by facial recognition software to determine the identification and tracking of the presence of a person.
도 1은 차량(12)의 탑승자 측의 구역(10)에 대한, 부분이 절단된 측면도이다. 이 도면에서, 사람(16)은 조수석(18)에 있는 것으로 도시되는데, 여기서 사람(16)은 충돌 사고시 앞으로 이동한다. 에어백 쿠션(pillow)(20)은, 충돌시 계기판(22)에 수용된 에어백 도어(24)를 통해 전개되는 것으로 도시된다.1 is a side view, partly cut away, of the zone 10 on the occupant side of the vehicle 12. In this figure, the person 16 is shown as being in the passenger seat 18, where the person 16 moves forward in the event of a crash. The airbag pillow 20 is shown to be deployed through the airbag door 24 housed in the instrument panel 22 in the event of a crash.
비디오 카메라 및 IR LED 조명기 유닛(26)은, 본 명세서에 설명된 목적에 적합한 위치에 있는 계기판(22) 상에 장착된다. 도 2는 차량(12)에서 분리되는 유닛(26)의 개략도이다. 유닛(26)은 IR LED(30)의 클러스터(cluster)(28)를 포함한다. 복수의 LED(30)는 낮 동안의 동작을 위해 필요한 광도를 생성하는데 제공된다. 클러스터(28)는 IR 방사 빔을 사람(16)을 향해 방출하는데, 상기 빔은 사람으로부터 반사되어 유닛(26)으로 다시 돌아간다. 비디오 카메라(34)는 유닛(26)에 제공되어, 사람(16)으로부터 반사된 방사파를 수신한다. 본 명세서에 설명된 목적에 적합한 적외선 방사파를 검출하는 임의의 검출기가 사용될 수 있다는 점에서, 비디오 카메라(34)는 한정되지 않은 예로서 사용된다.The video camera and IR LED illuminator unit 26 are mounted on the instrument panel 22 in a position suitable for the purposes described herein. 2 is a schematic diagram of a unit 26 detached from the vehicle 12. Unit 26 includes a cluster 28 of IR LEDs 30. A plurality of LEDs 30 are provided to generate the brightness needed for daytime operation. The cluster 28 emits an IR radiation beam towards the person 16, which is reflected from the person and returns back to the unit 26. Video camera 34 is provided to unit 26 to receive the radiation waves reflected from person 16. The video camera 34 is used as a non-limiting example in that any detector that detects infrared radiation waves suitable for the purposes described herein can be used.
필터(36)는, 원하는 적외선 범위 내에 없는 방사파를 제거(filter out)하기 위해 카메라(34) 상에 제공된다. 필터(36)는, TiO2 필터 또는 편광 필터와 같은 본 명세서에 설명된 목적에 적합한 임의의 필터일 수 있다. IR 이미지는 검출기에 전달하지만, 그 검출기로부터 나오는 가시광선의 이미지는 반사하도록, 필터의 층 및 두께가 선택될 수 있다. 편광 필터는, IR 파장을 통과시키지만, 비-IR 파장을 강하게 감쇠시키는 전기-광학(electro-optical) 편광을 사용하여 검출기로 가는 가시광선을 감소시키는데 사용될 수 있다. 도 3은 햇빛에 대한 휘도 곡선을 도시하는데, 여기서 필터(36)는 40nm의 대역폭의 창에서 적외선 방사파를 통과시킨다. 필터(36)는, 에어백 전개 시스템의 동작, 및 사람(16)의 얼굴에 대한 인식에 영향을 줄 수 있는 햇빛에 대해 일종의 보호기능을 제공한다.Filter 36 is provided on camera 34 to filter out radiation waves that are not within the desired infrared range. Filter 36 may be any filter suitable for the purposes described herein, such as a TiO 2 filter or a polarizing filter. The IR image is delivered to the detector, but the layer and thickness of the filter can be selected to reflect the image of visible light coming from the detector. Polarizing filters can be used to reduce visible light to the detector using electro-optical polarization that passes IR wavelengths but strongly attenuates non-IR wavelengths. 3 shows a luminance curve for sunlight, where filter 36 passes infrared radiation in a window of 40 nm bandwidth. The filter 36 provides a kind of protection against sunlight that can affect the operation of the airbag deployment system and the perception of the face of the person 16.
본 발명의 이러한 실시예에서, 하나의 카메라는, 사람(16)의 범위를 포착하고 감시하는데 사용된다. 이러한 기능을 수행하는데 사용되는 소프트웨어는, 그 범위를 정하는 것을 제공하기 위해 탑승자의 얼굴상의 2개로 분리된 위치를 이용한다. 바람직한 실시예에서, 사람의 안구는, 작동 범위의 지정을 위해 삼각 측량 (triangulation)을 제공하도록 검출된다. 그러나, 당업자에 의해 인지되는 바와 같이, 사람의 귀 등과 같은 사람(16)의 다른 얼굴 부위가 또한 사용될 수 있다. 또한, 소프트웨어 알고리즘은 사람의 머리 크기가 결정되도록 하여, 사람이 포착된 후에는 사람을 추적하기 위해 양쪽 안구를 조사할 필요가 없다. 더욱이, 얼굴 부위 또는 머리 크기의 검출과 관련하여, 사람의 몸통(torso)과 같은 사람의 신체의 다른 부분을 조사하는데 상기 소프트웨어가 사용될 수도 있다.In this embodiment of the invention, one camera is used to capture and monitor the range of the person 16. The software used to perform this function uses two separate locations on the occupant's face to provide scoping. In a preferred embodiment, the human eye is detected to provide triangulation for the specification of the operating range. However, as will be appreciated by those skilled in the art, other facial portions of the person 16, such as the ear of a person, may also be used. In addition, software algorithms allow the head size of a person to be determined, so that once the person is captured, there is no need to examine both eyes to track the person. Furthermore, the software may be used to examine other parts of the body of the person, such as the torso of the person, in connection with the detection of facial areas or head size.
인간의 얼굴 부위는 고유하기 때문에, 데이터베이스는, 소프트웨어가 구체적으로 그 사람을 식별할 수 있도록, 사람에 대해 안구와 안구 사이의 분리 간격 (eye-to-eye separation)과 같은 특정 정보를 저장하는데 사용될 수 있다. 일예로 이것은, 정부 위임 규제에 의해 요구된 바와 같이, 이 시스템이 아이들과 20%의 여성을 식별하여 이 사람들에게는 에어백 팽창을 못하게 하도록 하기 위해, 중요하다. 또한, 특히 사람을 식별할 수 있는 것은 시스템의 작동 범위의 정확도를 향상시키는데, 그 이유는, 시스템이 그 사람의 안구의 분리 간격 또는 다른 특정한 얼굴 부위를 인식하기 때문이다.Because human face parts are unique, databases can be used to store specific information about a person, such as eye-to-eye separation, so that the software can specifically identify that person. Can be. In one example, this is important, as required by government mandates, to allow the system to identify children and 20% of women and prevent these people from inflating airbags. In addition, being able to identify a person in particular improves the accuracy of the operating range of the system, since the system recognizes the separation interval of the eye of the person or other specific facial areas.
포착 및 추적 소프트웨어는 특정한 좌석 위치, 에어백 위치, 차량 구조 등에 대해 교정할 필요가 있다. 도 4는 에어백 도어(24)의 중심 및 법선에 대한 카메라 방위 및 위치 파라미터에 대한 도면이다. 카메라 및 Visionics Face-It 소프트웨어가 교정된 후에 본 발명에 따라 작동 범위를 정하기 위해 차량에서 추정되어야 하는 3개의 파라미터는 2개의 위치 오프셋(offsets) 및 하나의 각도 오프셋을 포함한다. 2개의 위치 오프셋은, 에어백 도어(24)의 중심에서 법선 벡터와 측방향 (laterally) 및 수직으로 측정되는, 에어백의 중심에 대해 카메라(34)의 측면 오프셋(), 및 에어백 도어(24)의 중심에서 법선과 평행한 축을 따라 측정되는, 에어백 도어(24)의 중심에 대한 카메라(34)의 전방 또는 후방 오프셋()이다. 각도 파라미터는, 카메라(34)의 광축과 에어백(20)의 중심에서 나오는 법선 벡터 사이의 방위각 오프셋()이다. 3개의 파라미터 중 단지 2개, 즉 및 는 변경된 단안(monocular) 거리 방정식에 사용된다.Acquisition and tracking software needs to be calibrated for specific seat positions, airbag positions, vehicle structures, and the like. 4 is a diagram of camera orientation and position parameters for the center and normal of the airbag door 24. After the camera and the Visionics Face-It software have been calibrated, the three parameters that must be estimated in the vehicle to determine the operating range according to the invention include two position offsets and one angular offset. The two position offsets are the lateral offsets of the camera 34 relative to the center of the airbag, measured laterally and perpendicularly to the normal vector at the center of the airbag door 24. ) And the front or rear offset of the camera 34 relative to the center of the airbag door 24, measured along an axis parallel to the normal at the center of the airbag door 24 ( )to be. The angle parameter is the azimuth offset between the optical axis of the camera 34 and the normal vector emerging from the center of the airbag 20. )to be. Only two of three parameters, namely And Is used in the modified monocular distance equation.
아래에 설명되는 교정 절차는 , 및 를 결정하는데 사용될 수 있다. 다수의 교정 지점을 측정하는 것과, 상기 다수의 교정 지점 사이에서 선형적으로 보간(interpolating)하는 것 사이, 또는 소수의 교정 지점을 측정하는 것과, 상기 소수의 교정 지점 사이에서 비선형적으로 보간하는 것은 각기 일장일단(trade off)이 있다. 이론적으로, 다수의 지점으로 교정하는 것은 본 명세서에 설명되는 추정용 모델을 요구하지 않는다. 주먹구구식(brute force)의 교정에 필요한 다수의 측정을 하는데 드는 비용, 및 카메라(34) 또는 소프트웨어의 동작이 범위를 벗어나서 주먹구구식의 교정으로 무시돌 수 있는 가능성이 그러한 접근법을 사용하기 전에 고려되어야 한다. 본 명세서에 사용되는 접근법은 보간용 모델을 형성하기 위해 소수의 교정 시험을 사용한다.The calibration procedure described below , And Can be used to determine. Measuring a plurality of calibration points, interpolating linearly between the plurality of calibration points, or measuring a few calibration points, and nonlinear interpolation between the few calibration points Each one is trade off. In theory, calibrating to multiple points does not require the estimation model described herein. The cost of making many measurements necessary for the correction of brute force, and the possibility that the operation of the camera 34 or the software may be out of range and neglected to the correction of the oblique correction, should be considered before using such an approach. do. The approach used herein uses a few calibration tests to form a model for interpolation.
도 4로부터, 이하의 수학식이, 카메라 렌즈 기준 프레임(xyz)에서 이루어지는 측정과 에어백 도어 기준 프레임(xyz)에서 이루어지는 측정을 관련시키기 위해 쓰여질 수 있다. 에어백 도어의 전방에 있는 얼굴의 위치(x>0)만이 이하의 수학식에서 고려된다. 카메라의 원통 좌표계에서 정의되는 ρ, θ(피치 또는 앙각) 및 (편요각 또는 방위각)에 대해, 에어백 좌표계에서의 변위(x 및 y)에 대한 방정식은 다음과 같다:From Fig. 4, the following equation can be written to correlate the measurements made in the camera lens reference frame xyz with the measurements made in the airbag door reference frame xyz. Only the position (x> 0) of the face in front of the airbag door is considered in the following equation. Ρ, θ (pitch or elevation) defined in the camera's cylindrical coordinate system, and For yaw or azimuth, the equation for displacement (x and y) in the airbag coordinate system is:
이것은 가 교정할 동안 고정되는 것으로 간주한다. 수학식 1 및 수학식 2를 다시 정리하면 다음 식을 산출한다:this is Is considered to be fixed during calibration. Rearranging Equations 1 and 2 yields the following equations:
고정된 에서 안구의 좌표 판독 측정을 하고 난 후, y의 변화에 대해 탄젠트의 기울기를 취하면, 다음을 산출한다:Fixed Taking a reading of the eye coordinates at and taking the slope of the tangent with respect to y, yields:
x, 및 수학식 4의 우측의 결과를 앎으로써, 가 결정될 수 있다. 를 앎으로써, 수학식 3 및 그 측정된 데이터는 를 결정하는데 사용될 수 있다. 그 다음에, , , 수학식 3 및 그 데이터를 사용함으로써 가 결정될 수 있다. 수학식 3, 및 다음의 수학식 5를 사용함으로써,By subtracting the result of x and the right side of Equation 4, Can be determined. By knowing Equation 3 and the measured data Can be used to determine. Then, , , By using Equation 3 and its data Can be determined. By using Equation 3 and Equation 5 below,
변경된 단안 수학식은 물체 파라미터(x), 또는 에어백과 눈과의 거리를 정의하기 위해 수학식 6에 따른다.The modified monocular equation is according to equation (6) to define the object parameter (x), or the distance between the airbag and the eye.
교정 테이블은, 카메라의 좌표계에서 보았을 때, 연관된 광선의 기울기(ray slope)에 링크(linked)된 픽셀 값으로서 SDK 결정된 안구의 좌표의 룩업 테이블로 구성된다. 수학식 6은, 교정 테이블이 단안 동작으로부터 안구와 에어백간의 거리를 결정하는데 직접 사용될 수 있도록, 광선의 기울기(단일 각의 탄젠트) 항으로 간소화될 수 있다. 아래의 수학식 7에서 탄젠트의 삼각 항등식을 사용하고,The calibration table consists of a lookup table of the coordinates of the eyeballs determined by the SDK as pixel values linked to the associated ray slope when viewed in the camera's coordinate system. Equation 6 can be simplified to the slope of the ray (single angle tangent) term so that the calibration table can be used directly to determine the distance between the eyeball and the airbag from monocular operation. Equation 7 below uses the trigonometric identity of tangent,
이 항등식을 수학식 6에 적용하면, 교정 룩업 테이블로부터 탄젠트/기울기를 직접 구함으로써 사용될 수 있는 형태로 변경된 단안 수학식을 얻을 수 있다. 이 수학식은 아래의 수학식 8로 주어진다.Applying this identity to Equation 6 yields a modified monocular equation that can be used to obtain the tangent / tilt directly from the calibration lookup table. This equation is given by Equation 8 below.
도 5는 디지털 신호 프로세서(DSP)(52)를 포함하는 본 발명의 이미지 시스템(50)의 블록도이다. DSP(52)는 카메라(34)에 의해 생성된 이미지에 대한 분석을 수행하는 얼굴 인식 소프트웨어 및 작동범위 지정 기능을 포함한다. 클록 생성기(60)는 시스템(50)에 있는 여러 가지 디지털 장치에 대한 타이밍(timing)을 제공하고, 전력 관리 시스템(62)은 전력을 제공한다. DSP(52)는, 카메라(34)와 같은 IR 검출기를 나타내는 픽셀 어레이(72)를 포함하는 CMOS 칩(70)에 연결된다. 이 예에서, 픽셀 어레이(72)는 원하는 레벨의 해상도를 제공하기 위해 256×256 픽셀을 포함한다. CMOS 칩(70)은, 타이밍 및 제어의 목적을 위해 상태 매칭 논리 회로(74), 클록/타이밍 회로(76), 아날로그 조절(conditioning) 회로(78), 레지스터/버퍼(80), 온-칩(on-chip)의 프로그래밍가능한 논리 회로(82), 등을 포함하는 여러 가지 소자를 또한 포함한다. 더욱이, 아날로그/디지털 변환기(84)는 픽셀 어레이(72)로부터의 아날로그 신호를 전형적인 디지털 신호로 변환하도록 또한 제공된다. 저장 목적을 위해 온-칩의 SRAM 메모리(86)가 도시되지만, 또한 오프-칩에 있을 수도 있다. 본 명세서에 설명된 시스템에서 이들 장치의 동작은 당업자에게 명백하다.5 is a block diagram of an image system 50 of the present invention that includes a digital signal processor (DSP) 52. The DSP 52 includes face recognition software and an operating range designation function that perform analysis on the image generated by the camera 34. Clock generator 60 provides timing for various digital devices in system 50, and power management system 62 provides power. The DSP 52 is connected to a CMOS chip 70 that includes a pixel array 72 representing an IR detector, such as a camera 34. In this example, pixel array 72 includes 256 x 256 pixels to provide the desired level of resolution. CMOS chip 70 includes state matching logic circuit 74, clock / timing circuit 76, analog conditioning circuit 78, register / buffer 80, on-chip for timing and control purposes. Also included are various devices including (on-chip) programmable logic circuits 82, and the like. Moreover, analog-to-digital converter 84 is also provided to convert analog signals from pixel array 72 into typical digital signals. On-chip SRAM memory 86 is shown for storage purposes, but may also be off-chip. The operation of these devices in the systems described herein is apparent to those skilled in the art.
일실시예에서, 적외선 LED(30)는 카메라(34)에 의해 수신되는 반사된 방사파를 제공하기 위해 계속해서 온(on)된다. 그러나, 바로 들어오는 햇빛에 의하여 카메라(34) 상에 야기되는 문제를 정정하기 위해 일반적으로 몇몇 종류의 필터링(filtering) 또는 신호 처리가 이루어지는데, 이것은 필터(36)를 통해 시행한다. 특히, 시스템(50)은, 햇빛에 의해 야기되는 그림자와 점유자(16)의 생김새에 대한 실제 에지(edges) 사이를 구별할 수 있는 것이 필요하다. 본 발명에 따라, 프레임 구별(differencing) 기술이 사용되는데, 이 기술은, LED(30)를 미리 결정된 시간 기간 및 미리 결정된 수의 비디오 데이터 프레임에 대해서는 동기적으로 펄스 온하고, 그 다음에 동일한 수의 비디오 데이터 프레임에 걸친 미리 결정된 시간 기간에 대해서는 펄스 오프한다. 그 다음에, 데이터의 프레임은 서로 감산되어, IR 조명이 없는 프레임은 IR 조명을 갖는 프레임으로부터 감산될 수 있고, 그 배경(background)은 제거될 수 있다. 검출기는 노출 제어를 제공하기 위해 그 펄스와 동기적으로 전기적으로 차단(shuttered)된다. 본 명세서에 설명되는 프레임 구별 기술은 원하는 결과를 달성하기 위해 적외선 펄스 동작과 관련하여 사용된다. 달리 말하면, 프레임 구별 동작은 적외선 펄스와 동기화된다.In one embodiment, the infrared LED 30 is continuously on to provide reflected radiation waves received by the camera 34. However, some sort of filtering or signal processing is generally done to correct the problems caused by the direct sunlight coming on the camera 34, which is done through the filter 36. In particular, the system 50 needs to be able to distinguish between the shadows caused by sunlight and the actual edges for the appearance of the occupant 16. According to the present invention, a frame differentiation technique is used, which pulses the LED 30 synchronously for a predetermined time period and for a predetermined number of video data frames, and then the same number. Pulse off for a predetermined time period over the video data frame The frames of data are then subtracted from each other so that frames without IR illumination can be subtracted from frames with IR illumination and the background can be removed. The detector is electrically shuttered synchronously with the pulse to provide exposure control. The frame differentiation technique described herein is used in connection with infrared pulse operation to achieve the desired result. In other words, the frame discrimination operation is synchronized with the infrared pulse.
프레임 구별의 개념은, 자연 조명만을 사용하는 이미지와, 또한 자연 조명과 부가된 적외선 조명을 함께 사용하는 이미지를 시간-개구(time-aperture)에 의해, 픽셀-레벨로 저장하는 기술이다. 이 프레임 구별은, 강한 가시광선 조명의 영향을 경감시키도록 이들 이미지를 감산시킨다. 이 구성(set-up)은, 아날로그/디지털 변환기 입력을 극대화하기 위해 최악의 경우의 배경에 더하여 IR 조명을 설정하는 중간 밀도 필터(neutral density filter)를 포함한다. 얼굴 인식은, 구별된 이미지에 대한 최악의 경우의 아날로그/디지털 범위가 5 내지 6비트인 것을 필요로 한다. 가시 광선은 아날로그/디지털 변환기에 의해 허용되는 나머지 범위 내에 적합하다. 이미지 구별은, 두개의 픽셀 레벨 커패시터가 각 조명 레벨에서 각각 충전되는 아날로그 영역에서, 또는 디지털화된 픽셀 출력의 RAM 메모리가 각 조명에서 취해지는 디지털 영역에서 수행된다. 프레임 구별 기술은, 가시광선 조명의 조명 효과를 감산하고, 그 이미지 콘트라스트(contrast)를 증가시키도록 작용한다. 프레임 구별 기능은 포착 모드/높은 대역폭 생성 모드에서, 또는 펄스된 LED 조명을 사용하는 협대역폭 추적 모드에서 수행될 수 있다. 펄스된 IR 광원으로부터의 전자의 수는 주위의 조명의 포톤 노이즈(photon noise)보다 10배 더 커야 한다. 여기서, 주위의 조명의 노이즈는 햇빛의 세기 내의 전자의 개수의 2배인 값의 제곱근()인데, 그 이유는, 수신되는 매 하나의 IR 이미지마다 2개의 이미지 프레임이 획득되기 때문이다.The concept of frame differentiation is a technique for storing images using only natural light and also images using both natural and added infrared light at a time-aperture, on a pixel-level basis. This frame discrimination subtracts these images to mitigate the effects of strong visible light illumination. This set-up includes a neutral density filter that sets the IR illumination in addition to the worst case background to maximize the analog / digital converter input. Face recognition requires that the worst case analog / digital range for the distinct image is between 5 and 6 bits. Visible light fits within the remaining range allowed by the analog-to-digital converter. Image discrimination is performed in the analog region in which two pixel level capacitors are charged at each illumination level, or in the digital region where RAM memory of the digitized pixel output is taken in each illumination. Frame discrimination techniques work by subtracting the lighting effect of visible light illumination and increasing its image contrast. Frame differentiation can be performed in acquisition mode / high bandwidth generation mode, or in narrow bandwidth tracking mode using pulsed LED illumination. The number of electrons from the pulsed IR light source should be 10 times greater than the photon noise of the ambient light. Here, the noise of the ambient light is the square root of the value that is twice the number of electrons in the intensity of sunlight ( This is because two image frames are acquired for every one IR image received.
도 6은 본 발명의 일실시예에 따라, 프레임 구별 기술이 카메라(34)에서 어떻게 수행되는지에 대한 도면이다. 도 7은 본 발명의 프레임 구별 기술의 동작을 보여주는 신호 타이밍 라인이다. 카메라(34) 내의 픽셀 어레이(90)는 LED(30)로부터의 IR의 온 기간 동안 미리 결정된 시간 기간(10㎲)에 씬(scene)으로부터 방사파를 수신한다. 이 때에, 픽셀 어레이(90)는 주위의 광 및 적외선 광을 수신한다. 그 다음에, 어레이(90)에 있는 각 픽셀 즉 포토다이오드(92)에 의해 저장된 전하는, 각 픽셀(92)마다 하나의 커패시터(96)가 있는 복수의 커패시터로 이루어진 전하 저장 사이트(94)로 전달된다. 약 10㎲ 후에, 클러스터(28)로부터 펄스가 오프된 때에, 픽셀 어레이(90)는 동일한 시간 기간 동안 단지 주위의 광만을 검출한다. 이러한 시간 기간에 픽셀 어레이(90)에 수신되는 전하는 커패시터(100)를 갖는 커패시터 저장 사이트(98)에 저장된다. 전자 셔터(shutter)는, 본 명세서에 설명된 동작을 위해 IR 방사파의 펄스('펄스'이라고도 한다)와 동기적으로 적절한 시간에 개폐하기 위해 검출기에 사용된다.6 is a diagram of how a frame discrimination technique is performed in the camera 34, in accordance with an embodiment of the present invention. 7 is a signal timing line showing the operation of the frame discrimination technique of the present invention. Pixel array 90 in camera 34 receives radiation waves from the scene in a predetermined time period 10 ms during the on period of the IR from LED 30. At this time, the pixel array 90 receives ambient light and infrared light. The charge stored by each pixel, ie photodiode 92, in array 90 is then transferred to charge storage site 94, which is composed of a plurality of capacitors with one capacitor 96 for each pixel 92. do. After about 10 ms, when the pulse from the cluster 28 is off, the pixel array 90 detects only ambient light for the same time period. The charge received at the pixel array 90 in this time period is stored at the capacitor storage site 98 with the capacitor 100. An electronic shutter is used in the detector to open and close at an appropriate time synchronously with a pulse of IR radiation (also called a 'pulse') for the operations described herein.
2개의 저장 사이트(94 및 98)는 합산 증폭기(summation amplifier)(102)에서 합산된다. 그 다음에, 2개의 저장 사이트(94 및 98) 사이의 차이는, 아날로그/디지털 변환기(104)에 의해 디지털화되고, 주위의 광이 제거된 데이터의 프레임을 나타낸다. 데이터 판독은 약 10ms가 걸리고, 이후, 그 다음 시간 기간에서, 클러스터(28)로부터의 그 다음 펄스가 발생한다. 완전한 프레임 구별 과정은, 픽셀 어레이(90) 및 저장 사이트(94 및 98)가 함께 존재하는 CMOS의 단일 칩 상에서 수행될 수 있다. 대안적인 실시예에서, 프레임 구별 기술은 오프-칩 사이트(site)에서 상이한 시간 기간에서 수행되는데, 여기서 저장 사이트(94 및 98)는 RAM이다.The two storage sites 94 and 98 are summed in a summation amplifier 102. The difference between the two storage sites 94 and 98 then represents a frame of data that has been digitized by the analog-to-digital converter 104 and ambient light has been removed. The data read takes about 10 ms and then, in the next time period, the next pulse from cluster 28 occurs. The complete frame discrimination process can be performed on a single chip of CMOS where the pixel array 90 and storage sites 94 and 98 are present together. In alternative embodiments, the frame discrimination technique is performed at different time periods at off-chip sites, where storage sites 94 and 98 are RAM.
본 발명의 프레임 구별 기술은 이후의 방식으로 설명될 수 있다. 변수는, 주위의 조명{I(x,y)}, 직접적인 주위의 조명{T(x,y)}, 씬(scene) 반사율{R(x,y)}, 및 온일 때 L이고, 오프일 때 0으로 변조되는 소스(source)로 한정된다. 카메라(34)의 응답은 반사율과 조명의 곱과 비례한다.The frame discrimination technique of the present invention can be described in the following manner. Variables are L when ambient light {I (x, y)}, direct ambient light {T (x, y)}, scene reflectance {R (x, y)}, and on and off. Is limited to a source that is modulated to zero when The response of camera 34 is proportional to the product of reflectance and illumination.
S(x,y,OFF)=k*{I(x,y)*R(x,y)}S (x, y, OFF) = k * {I (x, y) * R (x, y)}
S*(x,y,ON)=k*{(L+I(x,y))*R(x,y)}+T(x,y)S * (x, y, ON) = k * {(L + I (x, y)) * R (x, y)} + T (x, y)
D(x,y)=S(x,y,ON)-S(x,y,OFF)=KL*R(x,y)D (x, y) = S (x, y, ON) -S (x, y, OFF) = KL * R (x, y)
이러한 차이의 씬(scene)은 간단한 이미지{S(x,y,OFF)}보다 훨씬 더 적은 동적 범위를 갖는다. 동일한 이익이, LED하에서 프레임을 판독하고 나서, LED가 없이 프레임을 판독하고, 카메라(34)의 외부에서 프레임을 감산함으로써 유도될 수 있다. 불리한 점은, 포화(saturation)를 피하는데 요구되는 증가된 동적 범위이다.The scene of this difference has much less dynamic range than a simple image {S (x, y, OFF)}. The same benefit can be derived by reading the frame under the LED, then reading the frame without the LED and subtracting the frame outside of the camera 34. The disadvantage is the increased dynamic range required to avoid saturation.
L은 I에 대한 포톤 노이즈보다 훨씬 더 커야 한다. 따라서, I는, 주파수에서 L에 정렬되는 협대역 필터를 사용함으로써 가능한 한 적게 이루어진다. 로우(raw) 샘플링 속도는 물체 추적에 의해 설정된 필요 조건의 2배이어야 하는데, 그 이유는, 얼굴 인식 소프트웨어에 공급하기 위한 하나의 프레임을 얻기 위해, 2개의 프레임이 구별되기 때문이다. LED(30)는 훨씬 더 빨라야 한다. IR 방사파 소스는, 모든 방출이 모든 검출기가 활성화될 때의 시간 동안 이루어지도록, 변조되어야 한다. 검출기 내의 모든 픽셀의 집적 시간(integration time)이 정렬되지 않는다면, 소스가 온(on) 될 수 있는 가능한 시간은 최악의 경우의 오정렬(misalignment)에 의해 감소된다.L must be much larger than the photon noise for I. Thus, I is made as little as possible by using a narrowband filter that is aligned to L at frequency. The raw sampling rate should be twice the requirement set by object tracking, because two frames are distinguished in order to obtain one frame for feeding facial recognition software. The LED 30 should be much faster. The IR radiation wave source must be modulated such that all emissions occur for the time when all the detectors are activated. If the integration time of all the pixels in the detector is not aligned, the possible time that the source can be turned on is reduced by the worst case misalignment.
전술한 논의는 본 발명의 단지 예시적인 실시예를 개시하고 설명한다. 예를 들어, 펄스된 레이저 다이오드는 LED 대신 사용될 수 있다. 당업자는 그러한 논의로부터 및 첨부 도면으로부터 쉽게 인식할 것이고, 청구항, 그러한 다양한 변화, 변형 및 변경이 이후의 청구항에 한정된 바와 같이 본 발명의 사상 및 범주에서 벗어나지 않고도 이루어질 수 있다.The foregoing discussion discloses and describes only exemplary embodiments of the invention. For example, pulsed laser diodes can be used in place of LEDs. Those skilled in the art will readily recognize from such discussion and from the accompanying drawings, and claims, and such various changes, modifications, and changes, may be made without departing from the spirit and scope of the invention as defined in the following claims.
상술한 바와 같이, 본 발명은 일반적으로 인간의 존재 검출 시스템에서 배경 간섭을 제거하기 위한 프레임 구별(differencing) 기술 등에 이용된다.As described above, the present invention is generally used in a frame differentiation technique for eliminating background interference in a human presence detection system.
도 1은, 본 발명의 일실시예에 따라 에어백 전개를 위한 이미지 감지 시스템에 관한 차량의 조수석에 있는 사람에 대한, 부분이 잘려진 측면도.1 is a cut away side view of a person in a passenger seat of a vehicle relating to an image sensing system for airbag deployment in accordance with one embodiment of the present invention;
도 2는, 본 발명의 에어백 전개 시스템에 사용되는 비디오 카메라 및 LED 조명기의 개략도.2 is a schematic diagram of a video camera and LED illuminator used in the airbag deployment system of the present invention.
도 3은, 햇빛에 대한 휘도 곡선을 보여주는, 수평축 상의 파장 및 수직축 상의 발광(luminous) 에너지에 대한 그래프.3 is a graph of wavelength on the horizontal axis and luminous energy on the vertical axis, showing a luminance curve for sunlight.
도 4는, 에어백 도어의 중심 및 법선(normal)에 대한 카메라 방위 및 위치 파라미터를 도시한 도면.4 shows the camera orientation and position parameters with respect to the center and normal of the airbag door.
도 5는 본 발명의 에어백 전개 시스템의 블록도.5 is a block diagram of an airbag deployment system of the present invention.
도 6은, 본 발명의 에어백 전개 시스템에 사용되는 프레임 구별 기술을 도시한 개략도.6 is a schematic diagram illustrating a frame discrimination technique used in the airbag deployment system of the present invention.
도 7은, 본 발명의 프레임 구별 기술에 대한 시간 다이어그램.7 is a time diagram for the frame discrimination technique of the present invention.
<도면 주요 부분에 대한 부호의 설명><Explanation of symbols for the main parts of the drawings>
16: 사람 28: 적외선 소스16: person 28: infrared source
50: 인간 존재 검출 시스템 72: 적외선 검출기(픽셀 어레이)50: human presence detection system 72: infrared detector (pixel array)
70: 단일 CMOS 칩 90: 포토다이오드70: single CMOS chip 90: photodiode
94, 98: 저장 사이트 102: 합산 장치94, 98: storage site 102: summing device
Claims (42)
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US09/607,008 US6810135B1 (en) | 2000-06-29 | 2000-06-29 | Optimized human presence detection through elimination of background interference |
US09/607,008 | 2000-06-29 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20020002221A KR20020002221A (en) | 2002-01-09 |
KR100492765B1 true KR100492765B1 (en) | 2005-06-07 |
Family
ID=24430410
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR10-2001-0034420A Expired - Fee Related KR100492765B1 (en) | 2000-06-29 | 2001-06-18 | Apparatus and method for controlling an airbag in a vehicle by optimized human presence detection |
Country Status (4)
Country | Link |
---|---|
US (1) | US6810135B1 (en) |
EP (1) | EP1167127A3 (en) |
JP (1) | JP2002083287A (en) |
KR (1) | KR100492765B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140049980A (en) * | 2011-02-17 | 2014-04-28 | 아이락 인크. | Efficient method and system for the acquisition of scene imagery and iris imagery using a single sensor |
KR101393570B1 (en) * | 2012-12-28 | 2014-05-27 | 현대자동차 주식회사 | Method and system for recognizing hand gesture using selective illumination |
Families Citing this family (52)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6959102B2 (en) * | 2001-05-29 | 2005-10-25 | International Business Machines Corporation | Method for increasing the signal-to-noise in IR-based eye gaze trackers |
EP1273928A1 (en) * | 2001-07-06 | 2003-01-08 | Leica Geosystems AG | Method and device for suppressing electromagnetic background radiation in an image |
US7136513B2 (en) * | 2001-11-08 | 2006-11-14 | Pelco | Security identification system |
US7305108B2 (en) * | 2001-11-08 | 2007-12-04 | Pelco | Security identification system |
US20060050927A1 (en) * | 2002-01-16 | 2006-03-09 | Marcus Klomark | Camera arrangement |
US7251350B2 (en) * | 2002-10-23 | 2007-07-31 | Intel Corporation | Method and apparatus for adaptive realtime system power state control |
US7111869B2 (en) * | 2003-07-22 | 2006-09-26 | Trw Automotive U.S. Llc | Apparatus and method for controlling an occupant protection system in response to determined passenger compartment occupancy information |
US20050074183A1 (en) * | 2003-09-19 | 2005-04-07 | Narlow Douglas A. | Object recognition system including an adaptive light source |
US7388971B2 (en) * | 2003-10-23 | 2008-06-17 | Northrop Grumman Corporation | Robust and low cost optical system for sensing stress, emotion and deception in human subjects |
US20060205489A1 (en) * | 2004-12-30 | 2006-09-14 | Jerome Carpenter | Methods for game player identification |
US7445073B2 (en) * | 2005-02-11 | 2008-11-04 | Trw Automotive U.S. Llc | Sensor assembly including a sensing channel having a void and an associated method |
CN101124610A (en) * | 2005-02-18 | 2008-02-13 | 富士通株式会社 | Image processing method, image processing system, image processing device and computer program |
JP2006259900A (en) * | 2005-03-15 | 2006-09-28 | Omron Corp | Image processing system, image processor and processing method, recording medium, and program |
US7580545B2 (en) * | 2005-10-03 | 2009-08-25 | Avago Technologies General Ip (Singapore) Pte. Ltd. | Method and system for determining gaze direction in a pupil detection system |
JP5001286B2 (en) | 2005-10-11 | 2012-08-15 | プライム センス リミティド | Object reconstruction method and system |
US9330324B2 (en) | 2005-10-11 | 2016-05-03 | Apple Inc. | Error compensation in three-dimensional mapping |
CN101496033B (en) * | 2006-03-14 | 2012-03-21 | 普莱姆森斯有限公司 | Depth-varying light fields for three dimensional sensing |
EP1994503B1 (en) * | 2006-03-14 | 2017-07-05 | Apple Inc. | Depth-varying light fields for three dimensional sensing |
JP2007316036A (en) * | 2006-05-29 | 2007-12-06 | Honda Motor Co Ltd | Vehicle occupant detection device |
JP5061767B2 (en) * | 2006-08-10 | 2012-10-31 | 日産自動車株式会社 | Image processing apparatus and image processing method |
TWI433052B (en) * | 2007-04-02 | 2014-04-01 | Primesense Ltd | Depth mapping using projected patterns |
WO2008155770A2 (en) * | 2007-06-19 | 2008-12-24 | Prime Sense Ltd. | Distance-varying illumination and imaging techniques for depth mapping |
ES2306616B1 (en) | 2008-02-12 | 2009-07-24 | Fundacion Cidaut | PROCEDURE FOR DETERMINATION OF THE LUMINANCE OF TRAFFIC SIGNS AND DEVICE FOR THEIR REALIZATION. |
US8456517B2 (en) * | 2008-07-09 | 2013-06-04 | Primesense Ltd. | Integrated processor for 3D mapping |
US8462207B2 (en) * | 2009-02-12 | 2013-06-11 | Primesense Ltd. | Depth ranging with Moiré patterns |
US8786682B2 (en) * | 2009-03-05 | 2014-07-22 | Primesense Ltd. | Reference image techniques for three-dimensional sensing |
US8717417B2 (en) * | 2009-04-16 | 2014-05-06 | Primesense Ltd. | Three-dimensional mapping and imaging |
US8054290B2 (en) * | 2009-05-27 | 2011-11-08 | Microsoft Corporation | Image contrast enhancement in depth sensor |
US9582889B2 (en) * | 2009-07-30 | 2017-02-28 | Apple Inc. | Depth mapping based on pattern matching and stereoscopic information |
US8830227B2 (en) * | 2009-12-06 | 2014-09-09 | Primesense Ltd. | Depth-based gain control |
US8982182B2 (en) * | 2010-03-01 | 2015-03-17 | Apple Inc. | Non-uniform spatial resource allocation for depth mapping |
US8279418B2 (en) | 2010-03-17 | 2012-10-02 | Microsoft Corporation | Raster scanning for depth detection |
US8836491B2 (en) * | 2010-04-29 | 2014-09-16 | Ford Global Technologies, Llc | Occupant detection |
CN103053167B (en) | 2010-08-11 | 2016-01-20 | 苹果公司 | Scanning projector and the image capture module mapped for 3D |
US8681255B2 (en) | 2010-09-28 | 2014-03-25 | Microsoft Corporation | Integrated low power depth camera and projection device |
US8592739B2 (en) | 2010-11-02 | 2013-11-26 | Microsoft Corporation | Detection of configuration changes of an optical element in an illumination system |
US9066087B2 (en) | 2010-11-19 | 2015-06-23 | Apple Inc. | Depth mapping using time-coded illumination |
US9167138B2 (en) | 2010-12-06 | 2015-10-20 | Apple Inc. | Pattern projection and imaging using lens arrays |
WO2012093323A1 (en) * | 2011-01-04 | 2012-07-12 | Koninklijke Philips Electronics N.V. | A presence detection system and a lighting system. |
US9030528B2 (en) | 2011-04-04 | 2015-05-12 | Apple Inc. | Multi-zone imaging sensor and lens array |
US9363869B2 (en) | 2012-01-04 | 2016-06-07 | Blackberry Limited | Optical navigation module with decoration light using interference avoidance method |
EP2817586B1 (en) | 2012-02-15 | 2020-03-25 | Apple Inc. | Scanning depth engine |
TW201401183A (en) * | 2012-06-18 | 2014-01-01 | tian-xiang Chen | Human face or head detection method for depth photography |
KR101490955B1 (en) * | 2013-10-29 | 2015-02-06 | 현대자동차 주식회사 | Vehicle operation device |
US10932103B1 (en) * | 2014-03-21 | 2021-02-23 | Amazon Technologies, Inc. | Determining position of a user relative to a tote |
FR3047951B1 (en) * | 2016-02-22 | 2019-04-19 | Peugeot Citroen Automobiles Sa | DEVICE FOR ANALYZING CONTROL SIGNALS DELIVERED BY VEHICLE SAFETY EQUIPMENT (S) MONITORING MEANS |
US10146375B2 (en) * | 2016-07-01 | 2018-12-04 | Intel Corporation | Feature characterization from infrared radiation |
US10574872B2 (en) | 2016-12-01 | 2020-02-25 | Semiconductor Components Industries, Llc | Methods and apparatus for single-chip multispectral object detection |
US20190012552A1 (en) * | 2017-07-06 | 2019-01-10 | Yves Lambert | Hidden driver monitoring |
CN107933461B (en) * | 2017-11-17 | 2020-07-10 | 重庆长安汽车股份有限公司 | In-vehicle identification fusion device and method based on single camera |
US11067673B2 (en) * | 2018-05-17 | 2021-07-20 | Cmos Sensor, Inc. | Sensor, apparatus for lidar application and method of background cancellation |
KR102274344B1 (en) * | 2021-04-09 | 2021-07-08 | 이철선 | Fall safety system for elevator hole |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0243195A (en) * | 1988-06-03 | 1990-02-13 | Inventio Ag | Method and device for controlling position of automatic door |
US5829782A (en) * | 1993-03-31 | 1998-11-03 | Automotive Technologies International, Inc. | Vehicle interior identification and monitoring system |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5845000A (en) | 1992-05-05 | 1998-12-01 | Automotive Technologies International, Inc. | Optical identification and monitoring system using pattern recognition for use with vehicles |
US4648052A (en) | 1983-11-14 | 1987-03-03 | Sentient Systems Technology, Inc. | Eye-tracker communication system |
JPS60152904A (en) | 1984-01-20 | 1985-08-12 | Nippon Denso Co Ltd | Vehicle-driver-position recognizing apparatus |
DE3583498D1 (en) | 1984-12-27 | 1991-08-22 | Kawasaki Steel Co | METHOD FOR DETECTING FINGERPRINTS BY MEANS OF A LASER. |
US4720189A (en) | 1986-01-07 | 1988-01-19 | Northern Telecom Limited | Eye-position sensor |
JPH01158579A (en) | 1987-09-09 | 1989-06-21 | Aisin Seiki Co Ltd | Image recognizing device |
US5164992A (en) | 1990-11-01 | 1992-11-17 | Massachusetts Institute Of Technology | Face recognition system |
US5835613A (en) | 1992-05-05 | 1998-11-10 | Automotive Technologies International, Inc. | Optical identification and monitoring system using pattern recognition for use with vehicles |
US6144366A (en) * | 1996-10-18 | 2000-11-07 | Kabushiki Kaisha Toshiba | Method and apparatus for generating information input using reflected light image of target object |
JP3410919B2 (en) * | 1997-01-31 | 2003-05-26 | 株式会社東芝 | Image extraction device |
DE19645175A1 (en) * | 1996-11-02 | 1998-05-07 | Telefunken Microelectron | Controlling optical monitoring appliance for seat occupancy of vehicle |
JPH10147206A (en) | 1996-11-19 | 1998-06-02 | Nippon Soken Inc | Cabin situation detector |
JPH10315906A (en) | 1997-05-21 | 1998-12-02 | Zexel Corp | Occupant recognition method, occupant recognition device, air bag control method and air bag device |
JPH1120606A (en) | 1997-07-01 | 1999-01-26 | Mitsubishi Electric Corp | Occupant restraint |
JPH11112968A (en) | 1997-10-01 | 1999-04-23 | Harness Syst Tech Res Ltd | Environmental monitoring device inside and outside the vehicle |
DE19757595C2 (en) * | 1997-12-23 | 2000-05-11 | Siemens Ag | Method and device for recording a three-dimensional distance image |
US6373557B1 (en) | 1997-12-23 | 2002-04-16 | Siemens Aktiengesellschaft | Method and apparatus for picking up a three-dimensional range image |
JPH11201822A (en) | 1998-01-09 | 1999-07-30 | Denso Corp | Car equipment control device |
US6060989A (en) | 1998-10-19 | 2000-05-09 | Lucent Technologies Inc. | System and method for preventing automobile accidents |
US6298311B1 (en) * | 1999-03-01 | 2001-10-02 | Delphi Technologies, Inc. | Infrared occupant position detection system and method for a motor vehicle |
-
2000
- 2000-06-29 US US09/607,008 patent/US6810135B1/en not_active Expired - Lifetime
-
2001
- 2001-06-15 EP EP01113620A patent/EP1167127A3/en not_active Withdrawn
- 2001-06-18 KR KR10-2001-0034420A patent/KR100492765B1/en not_active Expired - Fee Related
- 2001-06-26 JP JP2001192772A patent/JP2002083287A/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0243195A (en) * | 1988-06-03 | 1990-02-13 | Inventio Ag | Method and device for controlling position of automatic door |
US5829782A (en) * | 1993-03-31 | 1998-11-03 | Automotive Technologies International, Inc. | Vehicle interior identification and monitoring system |
Non-Patent Citations (1)
Title |
---|
대한민국 특허공보 제1585호. 1부. * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140049980A (en) * | 2011-02-17 | 2014-04-28 | 아이락 인크. | Efficient method and system for the acquisition of scene imagery and iris imagery using a single sensor |
KR102024949B1 (en) * | 2011-02-17 | 2019-09-24 | 아이락 엘엘씨 | Efficient method and system for the acquisition of scene imagery and iris imagery using a single sensor |
KR101393570B1 (en) * | 2012-12-28 | 2014-05-27 | 현대자동차 주식회사 | Method and system for recognizing hand gesture using selective illumination |
US9373026B2 (en) | 2012-12-28 | 2016-06-21 | Hyundai Motor Company | Method and system for recognizing hand gesture using selective illumination |
Also Published As
Publication number | Publication date |
---|---|
EP1167127A3 (en) | 2003-05-07 |
US6810135B1 (en) | 2004-10-26 |
KR20020002221A (en) | 2002-01-09 |
JP2002083287A (en) | 2002-03-22 |
EP1167127A2 (en) | 2002-01-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100492765B1 (en) | Apparatus and method for controlling an airbag in a vehicle by optimized human presence detection | |
KR100440669B1 (en) | Human presence detection, identification and tracking using a facial feature image sensing system for airbag deployment | |
US7110570B1 (en) | Application of human facial features recognition to automobile security and convenience | |
US6724920B1 (en) | Application of human facial features recognition to automobile safety | |
JP4593942B2 (en) | Pupil detection apparatus and method | |
JP2022120004A (en) | Depth-sensing computer vision system | |
Hsu et al. | Performance of a time-of-flight range camera for intelligent vehicle safety applications | |
US20010003168A1 (en) | Vehicular occupant detection arrangements | |
US7580545B2 (en) | Method and system for determining gaze direction in a pupil detection system | |
JP2008518195A (en) | Occupant detection system | |
JPS60152904A (en) | Vehicle-driver-position recognizing apparatus | |
US6678598B1 (en) | Device and method for seat supervision in motor vehicles | |
GB2374228A (en) | A collision warning device | |
US20020181742A1 (en) | Apparatus and method for determining vehicle occupant characteristic utilizing imaging with provided light | |
KR101868293B1 (en) | Apparatus for Providing Vehicle LIDAR | |
EP1552988A2 (en) | Infrared proximity sensor for air bag safety | |
WO2003059697A1 (en) | A camera arrangement | |
Koch et al. | Real-time occupant classification in high dynamic range environments | |
JPS60166806A (en) | Operator position recognizing apparatus for vehicle | |
GB2384305A (en) | Human position detection by capturing spectral contents of images representative of human skin |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
PA0109 | Patent application |
St.27 status event code: A-0-1-A10-A12-nap-PA0109 |
|
PA0201 | Request for examination |
St.27 status event code: A-1-2-D10-D11-exm-PA0201 |
|
P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
PG1501 | Laying open of application |
St.27 status event code: A-1-1-Q10-Q12-nap-PG1501 |
|
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
St.27 status event code: A-1-2-D10-D21-exm-PE0902 |
|
T11-X000 | Administrative time limit extension requested |
St.27 status event code: U-3-3-T10-T11-oth-X000 |
|
P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
St.27 status event code: A-1-2-D10-D21-exm-PE0902 |
|
T11-X000 | Administrative time limit extension requested |
St.27 status event code: U-3-3-T10-T11-oth-X000 |
|
E13-X000 | Pre-grant limitation requested |
St.27 status event code: A-2-3-E10-E13-lim-X000 |
|
P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
St.27 status event code: A-1-2-D10-D21-exm-PE0902 |
|
E13-X000 | Pre-grant limitation requested |
St.27 status event code: A-2-3-E10-E13-lim-X000 |
|
P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
St.27 status event code: A-1-2-D10-D22-exm-PE0701 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
St.27 status event code: A-2-4-F10-F11-exm-PR0701 |
|
PR1002 | Payment of registration fee |
St.27 status event code: A-2-2-U10-U11-oth-PR1002 Fee payment year number: 1 |
|
PG1601 | Publication of registration |
St.27 status event code: A-4-4-Q10-Q13-nap-PG1601 |
|
PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 4 |
|
PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 5 |
|
PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 6 |
|
PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 7 |
|
FPAY | Annual fee payment |
Payment date: 20120507 Year of fee payment: 8 |
|
PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 8 |
|
FPAY | Annual fee payment |
Payment date: 20130508 Year of fee payment: 9 |
|
PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 9 |
|
LAPS | Lapse due to unpaid annual fee | ||
PC1903 | Unpaid annual fee |
St.27 status event code: A-4-4-U10-U13-oth-PC1903 Not in force date: 20140525 Payment event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE |
|
PC1903 | Unpaid annual fee |
St.27 status event code: N-4-6-H10-H13-oth-PC1903 Ip right cessation event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE Not in force date: 20140525 |
|
P22-X000 | Classification modified |
St.27 status event code: A-4-4-P10-P22-nap-X000 |
|
P22-X000 | Classification modified |
St.27 status event code: A-4-4-P10-P22-nap-X000 |