KR100949558B1 - Driver assistance system - Google Patents
Driver assistance system Download PDFInfo
- Publication number
- KR100949558B1 KR100949558B1 KR1020060077648A KR20060077648A KR100949558B1 KR 100949558 B1 KR100949558 B1 KR 100949558B1 KR 1020060077648 A KR1020060077648 A KR 1020060077648A KR 20060077648 A KR20060077648 A KR 20060077648A KR 100949558 B1 KR100949558 B1 KR 100949558B1
- Authority
- KR
- South Korea
- Prior art keywords
- subsystem
- vehicle
- driver
- landscape
- module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K28/00—Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions
- B60K28/10—Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the vehicle
- B60K28/16—Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the vehicle responsive to, or preventing, spinning or skidding of wheels
- B60K28/165—Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the vehicle responsive to, or preventing, spinning or skidding of wheels acting on elements of the vehicle drive train other than the propulsion unit and brakes, e.g. transmission, clutch, differential
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Y—INDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
- B60Y2400/00—Special features of vehicle units
- B60Y2400/30—Sensors
Landscapes
- Engineering & Computer Science (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Traffic Control Systems (AREA)
Abstract
본 발명은, 운전자 지원, 승객의 안전성 및 편의성, 예컨대 진단 및 정비 목적의 외부 시스템과의 통신 등과 관련된 어플리케이션에 대하여 일반적으로 사용할 수 있는 구조를 갖는 운전자 지원 시스템으로서, 차량(12)의 환경(10)으로부터 수신되는 외부 신호들을 센싱하기 위한 제1 인터페이스(18); 차량(12)의 내부 신호들을 센싱하기 위한 제2 인터페이스(20); 제1 인터페이스(18) 및 제2 인터페이스(20)의 출력 신호들을 융합하여 차량의 환경(10)에 대한 설명을 생성하는 제1 서브 시스템(26,28); 제1 서브시스템(26)의 출력 신호들을 수신하여 차량(12)의 현재 상태를 모델링하는 제2 서브 시스템(30); 운전자(14)의 행동을 모델링하는 제3 서브 시스템(32); 제1 서브 시스템(28)에 의해 설명된 현재 경관을 해석하여 차량(12)의 현재 외부 상태의 특징 상태를 결정하는 제4 서브 시스템(36); 및 제2, 제3 및 제4 서브 시스템(30,32,36)의 출력 신호들에 따라 차량(12)의 액추에이터(42)들 및/또는 운전자(14)에 대한 자극들을 생성하는 제5 서브 시스템(38,40)을 구비하는 운전자 지원 시스템을 제공한다.
차량, 환경, 제1 인터페이스, 제2 인터페이스, 제1 서브 시스템, 제2 서브 시스템, 운전자, 제3 서브 시스템, 제4 서브 시스템, 액추에이터, 제5 서브 시스 템.
The present invention provides a driver assistance system having a structure generally usable for applications related to driver assistance, passenger safety and convenience, such as communication with an external system for diagnostic and maintenance purposes, and the like. A first interface (18) for sensing external signals received from; A second interface 20 for sensing internal signals of the vehicle 12; First subsystems 26 and 28 for fusing output signals of first interface 18 and second interface 20 to generate a description of the environment 10 of the vehicle; A second subsystem 30 for receiving the output signals of the first subsystem 26 to model the current state of the vehicle 12; A third subsystem 32 that models the behavior of the driver 14; A fourth subsystem 36 for interpreting the current landscape described by the first subsystem 28 to determine a feature state of the current exterior state of the vehicle 12; And a fifth sub that generates stimuli for the actuators 42 and / or the driver 14 of the vehicle 12 in accordance with the output signals of the second, third and fourth subsystems 30, 32, 36. Provided is a driver assistance system having systems 38 and 40.
Vehicle, environment, first interface, second interface, first subsystem, second subsystem, driver, third subsystem, fourth subsystem, actuator, fifth subsystem.
Description
본 발명의 또 다른 측면과 장점은 첨부 도면에 대한 종속항 및 본 발명의 실시예의 설명에 의해 더욱 명백해 질 것이다. Further aspects and advantages of the present invention will become more apparent from the accompanying claims and the description of the embodiments of the present invention.
도 1은 본 발명에 의한 운전자 지원 시스템의 일실시예의 기능 블록도이다.1 is a functional block diagram of an embodiment of a driver assistance system according to the present invention.
도 2는 도 1의 실시예의 정보 융합, 경관 표현 및 해석 서브 시스템의 상세 도면이다.2 is a detailed diagram of the information fusion, landscape representation, and interpretation subsystem of the embodiment of FIG.
* 도면의 주요 부분에 대한 부호의 설명 *Explanation of symbols on the main parts of the drawings
10: 차량의 환경 12: 차량10: environment of the vehicle 12: vehicle
14: 운전자 16: 승객14: Driver 16: Passenger
18: 외부 센싱용 선연산 유니트 20: 내부 센싱용 선연산 유니트18: Pre-operation unit for external sensing 20: Pre-operation unit for internal sensing
22: 외부 센싱 24: 내부 센싱22: external sensing 24: internal sensing
26: 정보 융합 모듈 28: 경관 표현 모듈26: information fusion module 28: landscape representation module
30: 차량 모델 서브 시스템 32: 운전자 모델 서브 시스템30: vehicle model subsystem 32: driver model subsystem
34: 인간-기계 인터페이스(HMI) 36: 경관 해석 모듈34: Human-machine interface (HMI) 36: landscape analysis module
38: 행동 선택/결합 서브 시스템 40: 행동 생성 모듈38: Behavior Selection / Combination Subsystem 40: Behavior Generation Module
42: 차량 액추에이터 44: HMI42: vehicle actuator 44: HMI
45: 내부 승객 센싱 46: 경관 서술 모듈45: internal passenger sensing 46: landscape description module
48: 규칙 선택 모듈 50: 시각적 외부 센싱48: Rule Selection Module 50: Visual External Sensing
52: 확장 외부 센싱 54: 특성 추출 유니트52: extended external sensing 54: feature extraction unit
56: 대상물 가설 생성 58: 정보 데이터베이스56: Create Object Hypothesis 58: Information Database
60: 확장 정보 추출 62: 변환/매핑 유니트60: extension information extraction 62: conversion / mapping unit
64: 특성 바인딩 유니트 66: 대상물 가설 융합 시스템64: property binding unit 66: object hypothesis fusion system
68: 트래킹 모듈 70: 시각적 대상물 분류화68: Tracking Module 70: Visual Object Classification
72: "D-스케치" 표현 74: 2D 포인트 대상물 표현72: " D-Sketch "Representation 74: 2D point object representation
76: 주의/적절성 필터링76: attention / appropriate filtering
본 발명은 운전자 지원 시스템(driver assistance system)과 이에 상응하는 방법 및 컴퓨터 프로그램에 관한 것이다.The present invention relates to a driver assistance system and a corresponding method and computer program.
운전자 지원 시스템은 교통 관련자들의 편의성과 안전을 증대시키는 것을 목적으로 하는 차량 또는 지능형 차량 기술을 제어하는 시스템이다. 이러한 시스템의 잠재적인 응용은 차선 이탈 경고, 차선 유지, 충돌 경고 또는 방지, 적응형 크루즈 제어(adaptive cruise control) 및 혼잡한 교통 상황에서의 저속 자동화 등을 포함한다.Driver assistance systems are systems that control vehicles or intelligent vehicle technology aimed at increasing the convenience and safety of traffic personnel. Potential applications of such systems include lane departure warning, lane keeping, collision warning or prevention, adaptive cruise control, and low speed automation in crowded traffic situations.
따라서, 본 발명에 있어서의 운전자 지원 시스템은 운전자에 의해 유발되거 나 수행되는 동작을 "지원"할 뿐 아니라, 또한 차량의 제어 동작을 자발적으로 시작하거나 수행할 수 있다.Accordingly, the driver assistance system in the present invention not only "supports" the actions caused or performed by the driver, but also can voluntarily start or perform the control operation of the vehicle.
일반적으로 상기 언급한 모든 응용 분야들은 이미 다수의 별도의 센서들과 센서를 제어하고 센서 데이터를 분석하고 적절한 출력 신호를 생성하는 전자 제어 유니트(electronic control units, ECUs)들을 필요로 하고 있다. 예를 들면, 레이더(RADAR, RAdio Detecting And Ranging) 및 리다(LIDAR, LIght Detecting And Ranging) 센서들은 감지되는 물체까지의 거리를 정확하게 측정할 수 있으나, 감지되는 물체와 관련된 의미론적인(semantic) 정보(예컨대, 차량이 어느 차선에 위치하는가, 어떤 종류의 물체가 감지되고 있는가)를 제공할 수는 없다. 이러한 정보는 비디오 카메라나 카메라에 의해 별도로 수집되어야 한다.In general, all the above mentioned applications already require a number of separate sensors and electronic control units (ECUs) to control the sensors, analyze the sensor data and generate the appropriate output signals. For example, radar (RAdio Detecting And Ranging) and LIDAR (Light Detecting And Ranging) sensors can accurately measure the distance to an object being detected, but can be used for semantic information related to the object being detected. For example, it is not possible to provide which lane the vehicle is located and what kind of object is being sensed. This information must be collected separately by the video camera or camera.
안전성을 증대시키고 운전자와 승객들에게 새로운 편의 기능을 지원하기 위한 경향이 증대됨에 따라, 현대적인 차량에 있어서는 응용 분야의 숫자뿐 아니라 각각의 응용 분야의 복잡성이 증가하고 있으며 미래에는 더욱 증가하게 될 것이다. 기본적으로, 다수의 센서 시스템을 구비하는 차량은 그에 상응하는 숫자의 전자 제어 유니트(ECU)를 의미하는데, 이들 전자 제어 유니트 모두는 다른 것들과는 독립적으로 자신의 작업을 수행한다.As the trend towards increased safety and support for new convenience features for drivers and passengers increases, the complexity of each application, as well as the number of applications in modern vehicles, will increase further in the future. . Basically, a vehicle with multiple sensor systems means a corresponding number of electronic control units (ECUs), all of which carry out their work independently of the others.
예컨대, 캔-버스(CAN(Controller Area Network)-bus) 등과 같이 차량 내에 버스 시스템(bus system)을 구비하는 기술이 알려져 있는데, 캔-버스에는 거의 대부분 또는 모든 전자 제어 유니트(ECUs)들이 연결된다. 캔-버스는 연결된 전자 제어 유니트들 사이에서 데이터를 교환할 수 있도록 해 준다. 그러나, 단순히 다수의 센서 및/또는 어플리케이션을 함께 추가하고 하나의 버스에 이들을 서로 연결시키는 것은 신뢰성 또는 안정성 및 견고성(robustness) 등과 같은 관점에서 볼 때 매우 단순한 형태만을 만족시키는 운전자 지원 시스템이 구현된다는 점이 판명되었다. For example, a technique is known in which a bus system is provided in a vehicle such as a controller area network (CAN) bus, and almost all or all electronic control units (ECUs) are connected to the can bus. . The canvas allows the exchange of data between connected electronic control units. However, simply adding multiple sensors and / or applications together and interconnecting them on a single bus means that a driver assistance system can be implemented that satisfies a very simple form in terms of reliability or stability and robustness. It turned out.
그럼에도 불구하고, 안정성을 더욱 증대시키고 더욱 많은 편의성을 제공하는 동시에 이러한 새롭고 및/또는 개선된 안전성 및 편의성 특성을 전개하기 위한 비용을 제한하는 것을 목적으로 한다. 따라서, 현재까지의 별도 분리된 센서 시스템을 차량을 능동적으로 제어할 수 있는 단일 정보 시스템으로 통합하는 것이 요망되고 있다.Nevertheless, it is aimed at limiting the costs for deploying these new and / or improved safety and convenience features while further increasing stability and providing more convenience. Thus, there is a desire to integrate separate, separate sensor systems to date into a single information system capable of actively controlling a vehicle.
종래 기술의 문제점Problems of the Prior Art
그러나, 이러한 행동 생성(behaviour generation)에 대한 일반적인 모델은 아직 알려져 있지 않다. 종래의 운전자 지원 시스템은 특정한 어플리케이션용으로만 특별히 구현된 하나 또는 다수의 센서와 이에 수반하는 센서 데이터 처리 과정을 구비한다. 또 다른 어플리케이션을 구현하기 위해서는, 반드시 시스템을 재구성해야만 한다.However, a general model for this behavior generation is not yet known. Conventional driver assistance systems have one or more sensors and accompanying sensor data processing procedures that are specifically implemented only for specific applications. To implement another application, the system must be reconfigured.
상기한 바와 같은 관점에서, 본 발명은 용이하게 적응될 수 있도록 유연성 있는 구조에 기반을 둔 운전자 지원 시스템을 제공하는 것을 목적으로 한다. In view of the foregoing, it is an object of the present invention to provide a driver assistance system based on a flexible structure that can be easily adapted.
또한, 본 발명은 종래의 시스템과 비교해 볼 때 안전성 및 편의성에 있어서의 의미 있는 개선 사항을 제공하는 운전자 지원 시스템을 제공하는 것을 또 다른 목적으로 한다.It is a further object of the present invention to provide a driver assistance system which provides a significant improvement in safety and convenience compared to conventional systems.
또한, 본 발명은 예컨대 에너지 소비, 연산 능력 및 공간 등과 같이 제한된 자원(resource)을 공유할 수 있도록 하는 운전자 지원 시스템 또는 그 방법을 제공하는 것을 또 다른 목적으로 한다.It is still another object of the present invention to provide a driver assistance system or method that enables sharing of limited resources, such as energy consumption, computing power and space, for example.
또한, 본 발명은 강인한 예측능력을 제공하고 복잡한 행동을 가능하게 하는 운전자 지원 시스템을 제공하는 것을 또 다른 목적으로 한다.It is yet another object of the present invention to provide a driver assistance system that provides robust predictive capability and enables complex behavior.
본 발명의 또 다른 목적은 예컨대 센서의 측면, 새로운 어플리케이션 또는 개선된 내부 연산 유니트 등과 같은 새로운 구성 요소를 용이하게 통합할 수 있도록 하는 모듈화된(modular) 구조 개념을 제공하는 것이다.It is yet another object of the present invention to provide a modular structure concept that allows for easy integration of new components such as, for example, aspects of sensors, new applications or improved internal computing units.
본 발명의 또 다른 목적은 실시간 제어 및 행동 선택을 가능하게 하는 운전자 지원 시스템을 제공하는 것이다.It is yet another object of the present invention to provide a driver assistance system that enables real time control and action selection.
상기한 목적들은 첨부된 독립항들의 특징에 의해 달성된다. 유리한 특징들은 종속항에 정의되어 있다.The above objects are achieved by the features of the appended independent claims. Advantageous features are defined in the dependent claims.
본 발명의 제1 측면에 의하면, 차량의 환경으로부터 수신되는 외부 신호들을 센싱하는 제1 인터페이스와, 차량의 내부 신호들을 센싱하는 제2 인터페이스를 구비하는 운전자 지원 시스템이 제공된다. 또한, 제1 인터페이스와 제2 인터페이스의 출력 신호들을 융합하여 차량의 환경에 대한 설명과 차량의 내부 신호들을 생성하는 제1 서브 시스템이 제공된다. 제2 서브 시스템은 제1 서브 시스템의 출력 신호들을 수신하여 차량의 현재 상태를 모델링한다. 제3 서브 시스템은 운전자의 행동 을 모델링하기 위한 것이다. 제4 서브 시스템은 제1 서브 시스템에 의해 설명되는 현재 경관(scene)을 해석하여 차량의 현재 외부 상황에 대한 특성 상태를 결정하도록 구성된다. 제1, 제2, 제3 및 제4 서브 시스템의 출력 신호들에 따라 차량의 액추에이터들 및/또는 운전자에 대한 자극들을 생성하는 제5 서브 시스템이 제공된다.According to a first aspect of the present invention, there is provided a driver assistance system having a first interface for sensing external signals received from an environment of a vehicle and a second interface for sensing internal signals of the vehicle. Also provided is a first subsystem for fusing output signals of a first interface and a second interface to produce a description of the environment of the vehicle and to generate internal signals of the vehicle. The second subsystem receives the output signals of the first subsystem to model the current state of the vehicle. The third subsystem is for modeling the driver's behavior. The fourth subsystem is configured to interpret the current scene described by the first subsystem to determine a characteristic state for the current exterior situation of the vehicle. A fifth subsystem is provided for generating stimuli for actuators and / or drivers of a vehicle in accordance with output signals of the first, second, third and fourth subsystems.
제5 서브 시스템은 현재 경관에 따라 추가 교통 규칙을 사용하도록 구성될 수 있다.The fifth subsystem may be configured to use additional traffic rules depending on the current landscape.
제5 서브 시스템은 생성된 자극들과 관련된 특정 정보를 나타내는 신호를 제4 서브 시스템으로 피드백하도록 구성될 수 있다. 제4 서브 시스템은 제5 서브 시스템의 피드백 신호에 따라 현재 경관을 해석하도록 구성될 수 있다.The fifth subsystem may be configured to feed back a signal indicative of specific information related to the generated stimuli to the fourth subsystem. The fourth subsystem may be configured to interpret the current landscape according to the feedback signal of the fifth subsystem.
본 발명의 다른 측면에 의하면, 차량의 환경으로부터 수신되는 외부 신호들을 센싱하는 제1 인터페이스와, 차량의 내부 신호들을 센싱하는 제2 인터페이스를 구비하는 운전자 지원 시스템이 제공된다. 또한, 제1 인터페이스와 제2 인터페이스의 출력 신호들을 융합하여 차량의 환경에 대한 설명과 차량의 내부 신호들을 생성하는 제1 서브 시스템이 제공된다. 제2 서브 시스템은 제1 서브 시스템의 출력 신호들을 수신하여 차량의 현재 상태를 모델링하기 위한 것이며, 제3 서브 시스템은 운전자의 행동을 모델링하기 위한 것이다. 제1 서브 시스템에 의해 설명되는 현재 경관을 해석하고 제2 및 제3 서브 시스템의 출력 신호들에 따라 차량의 액추에이터들 및/또는 운전자에 대한 자극들을 생성하는 제4 서브 시스템이 제공된다.According to another aspect of the present invention, a driver assistance system having a first interface for sensing external signals received from an environment of a vehicle and a second interface for sensing internal signals of the vehicle are provided. Also provided is a first subsystem for fusing output signals of a first interface and a second interface to produce a description of the environment of the vehicle and to generate internal signals of the vehicle. The second subsystem is for modeling the current state of the vehicle by receiving the output signals of the first subsystem and the third subsystem is for modeling the driver's behavior. A fourth subsystem is provided that interprets the current landscape described by the first subsystem and generates stimuli for the actuators and / or the driver of the vehicle in accordance with the output signals of the second and third subsystems.
제4 서브 시스템은 현재 경관에 따라 추가 교통 규칙을 사용하도록 구성될 수 있다.The fourth subsystem may be configured to use additional traffic rules depending on the current landscape.
제4 서브 시스템은 외부 경관에 대한 개괄적(global) 서술을 제공하는 경관 서술 서브 시스템(scene description subsystem)을 구비할 수 있는데, 경관 서술 서브 시스템은 차량의 현재 외부 상황의 특징적인 특성을 나타내는 제1 서브 시스템의 출력 신호에 의해 개괄적 경관을 결정하고 결정된 개괄적 경관을 나타내는 신호를 출력하도록 구성된다. 차량의 액추에이터들 및/또는 운전자들에 대해 자극들을 생성하는 서브 시스템이 경관 서술 서브 시스템의 출력 신호에 따라 상기 자극들을 생성하도록 구성될 수 있다.The fourth subsystem may have a scene description subsystem that provides a global description of the exterior landscape, wherein the landscape description subsystem may be configured to represent a characteristic characteristic of the current exterior situation of the vehicle. Determine the general landscape by the output signal of the subsystem and output a signal indicative of the determined general landscape. A subsystem for generating stimuli for actuators and / or drivers of the vehicle may be configured to generate the stimuli in accordance with the output signal of the landscape description subsystem.
경관 서술 서브 유니트는 그 출력 신호를 교통 규칙 선택에 제공할 수 있다.The landscape description subunit may provide its output signal to the traffic rule selection.
제4 서브 시스템은 제3 서브 시스템에 대한 자극 또한 생성하도록 구성될 수 있다. 제3 서브 시스템은 제4 서브 시스템의 입력 신호와 운전자의 행동을 나타내는 인간 기계 인터페이스(human machine interface)로부터의 입력 신호에 따라 운전자의 행동을 모델링하도록 구성될 수 있다.The fourth subsystem can be configured to also generate a stimulus for the third subsystem. The third subsystem may be configured to model the driver's behavior according to the input signal of the fourth subsystem and an input signal from a human machine interface representing the driver's behavior.
액추에이터 및/또는 운전자에 대한 자극을 생성하는 서브 시스템은 승객 모니터링으로부터의 입력 신호에 따라 상기 자극들을 더 생성하도록 구성될 수 있다.The subsystem for generating a stimulus for the actuator and / or the driver may be configured to further generate the stimuli in accordance with an input signal from passenger monitoring.
제1 서브 시스템은 대상물의 물리적 서술(physical object description)을 나타내는 출력 신호를 행동 생성 서브 시스템에 제공할 수 있다.The first subsystem may provide an output signal indicative of the physical object description of the object to the behavior generation subsystem.
제1 서브 시스템은 제1 인터페이스에 의해 전달되는 센서 데이터를 선연산하는 정보 추출 및 데이터 매핑 모듈과, 제1 및 제2 인터페이스의 출력 신호들이 의미하는 정보를 융합하는 정보 융합 모듈과, 대상물을 연관된 속성 및 성질과 함께 저장하는 정보 데이터베이스와, 외부 경관을 표현하는 경관 표현 모듈을 구비할 수 있다.The first subsystem includes an information extraction and data mapping module for pre-computing sensor data delivered by the first interface, an information fusion module for fusing information meant by output signals of the first and second interfaces, and an object. It may be provided with an information database for storing the attributes and properties, and a landscape expression module for expressing the external landscape.
정보 융합 모듈은 결정된 대상물을 나타내는 대상물 신호를 정보 데이터베이스에 제공할 수 있고, 정보 데이터베이스는 대상물 신호에 따라 결정된 대상물의 속성 및/또는 성질을 나타내는 속성 신호를 경관 표현 모듈에 제공할 수 있다.The information fusion module may provide an object signal indicative of the determined object to the information database, and the information database may provide an attribute signal indicative of the attribute and / or property of the object determined according to the object signal to the landscape representation module.
정보 융합 모듈은 제1 인터페이스의 출력에서 추출된 특징으로부터 가설 대상물 성질(hypothetical object properties)들을 결정하는 특징 서브 모듈을 구비할 수 있으며, 대상물에 대한 특징을 바인딩(binding)하고 대상물을 트래킹(tracking)하기 위한 대상물 서브 모듈을 더 구비할 수 있다.The information fusion module may have a feature submodule that determines hypothetical object properties from the feature extracted at the output of the first interface, binding the feature to the object and tracking the object. It may further comprise an object sub-module for.
정보 데이터베이스는 결정된 대상물의 가능한 움직임(motion)에 대한 제한 조건을 정보 융합 모듈의 트래킹 모듈에 제공하여, 대상물 트래킹 과정에서의 불명료함을 감소시킬 수 있다. 또한, 정보 데이터베이스의 출력 신호는 적절한 움직임 모델을 선택하기 위한 정보를 대상물 트래킹 모듈에 제공할 수 있다.The information database can provide the tracking module of the information fusion module with constraints on the determined possible motion of the object, thereby reducing ambiguity in the object tracking process. In addition, the output signal of the information database can provide the object tracking module with information for selecting an appropriate motion model.
특징 서브 모듈은 개괄적 경관 정보를 나타내는 신호를 경관 표현 모듈에 제공할 수 있는데, 경관 표현 모듈은 개괄적 경관 정보에 근거하여 제한 조건을 결정하도록 구성될 수 있다.The feature submodule may provide a signal representing the general landscape information to the landscape expression module, wherein the landscape expression module may be configured to determine the constraint condition based on the general landscape information.
운전자의 행동을 모델링하는 제3 서브 시스템은 일반적인 매핑 구성에 관련된 입력 신호를 경관 표현 모듈에 제공할 수 있다.The third subsystem for modeling the driver's behavior may provide an input signal related to the general mapping configuration to the landscape representation module.
상기 설명한 바와 같은 본 발명의 모든 측면에 의한 시스템에 있어서 차량이 구비된 시스템이 제안된다.In a system according to all aspects of the invention as described above, a system equipped with a vehicle is proposed.
본 발명의 또 다른 측면에 의하면, 차량의 운전자를 지원기 위한 방법이 제안되는데, 이러한 방법의 특징 및 장점은 상기 설명한 바와 같은 본 발명에 의한 시스템의 특징 및 장점에 기인한다.According to another aspect of the present invention, a method for supporting a driver of a vehicle is proposed, which is characterized by the features and advantages of the system according to the invention as described above.
본 발명의 또 다른 측면에 의하면, 현재 시나리오의 현재 문맥에 적절한 대상물 표현들에 집중할 수 있도록 표현된 경관을 필터링하는 방법이 제안된다.According to another aspect of the present invention, a method of filtering the expressed landscape is proposed to focus on object representations appropriate to the current context of the current scenario.
본 발명의 또 다른 측면에 의하면, 상기 설명한 바와 같은 방법을 구현한 컴퓨터 소프트웨어 프로그램 제품이 제안된다.According to another aspect of the present invention, a computer software program product implementing the method as described above is proposed.
프로그램 제품은 차량의 프로그래머블 장치로 플래쉬(flashing)되도록 구성된 펌웨어(firmware)를 구비할 수 있다.The program product may have firmware configured to flash with a programmable device of the vehicle.
본 발명의 또 다른 측면에 의하면, 본 발명에 의한 컴퓨터 소프트웨어 프로그램 제품이 저장될 수 있는 예컨대 CD-ROM 또는 DVD-ROM 등과 같은 저장 장치가 제안된다.According to another aspect of the present invention, a storage device, for example a CD-ROM or a DVD-ROM or the like, in which a computer software program product according to the present invention can be stored, is proposed.
본 발명의 전반적인 측면 및 장점Overall Aspects and Advantages of the Invention
상기한 바와 같은 목적을 신뢰성있게 달성하기 위하여, 본 발명은 선험적으로(a priori) 분리된 다수의 센서 시스템을 통합하여 차량 환경의 중앙 집중형 모델을 구현하는 운전자 지원 시스템을 제안한다. 상기 모델은 서로 다른 종류의 센서들로부터 전달되는 데이터를 분석함으로써 달성된다. 공통적인 표현(common representation)은 예컨대 운전자에 대해 경고 메시지를 생성하거나 및/또는 시스템이 연결되어 있는 차량의 여러 가지 액추에이터들에 대한 명령을 제어하는 것과 같이 본 시스템의 복잡한 행동 양식을 구현하는 기초를 형성하게 된다.In order to achieve the above object reliably, the present invention proposes a driver assistance system incorporating a priori separated multiple sensor systems to implement a centralized model of the vehicle environment. The model is achieved by analyzing data from different kinds of sensors. The common representation provides the basis for implementing the complex behavior of the system, such as generating warning messages for the driver and / or controlling commands for the various actuators of the vehicle to which the system is connected. To form.
본 발명은 운전자 지원 시스템의 일반적 구조를 제안하며 이러한 점에서 특정한 종래의 센서 시스템이 별도로 서로 연결되어 있는 종래 기술과 상이하다. 본 발명에 의한 시스템에 있어서, 센서는 특정 어플리케이션에만 할당되는 것이 아니라, 여러 개의 내부 및 외부 센서들이 시스템에 통합되어 상기한 바와 같은 환경의 중앙 집중식 표현을 달성한다. 따라서, 새로운 어플리케이션이라도 특별한 변경 없이 차량의 센서 풀(pool)에 정의될 수 있다.The present invention proposes a general structure of a driver assistance system and in this respect differs from the prior art in which certain conventional sensor systems are separately connected to one another. In the system according to the invention, the sensors are not only assigned to a specific application, but several internal and external sensors are integrated into the system to achieve a centralized representation of the environment as described above. Thus, even new applications can be defined in the vehicle's sensor pool without special changes.
상기한 바로부터, 정보 융합(데이터 융합)이 진보성이 있는 운전자 지원 시스템의 중요한 측면이라는 것은 명백할 것이다. 예를 들면, 이미지 프로세싱 단계에 의해 획득된 대상물 정보는 예컨대 레이다(RADAR) 데이터와 같이 다른 센서들로부터 생성되는 데이터와 융합되어 센싱된 환경을 통합적으로 기술해야 한다.From the foregoing it will be clear that information fusion (data fusion) is an important aspect of an advanced driver assistance system. For example, the object information obtained by the image processing step should be integrated with the data generated from other sensors, such as, for example, radar (RADAR) data, to collectively describe the sensed environment.
융합 과정, 즉 경관 표현의 결과는 상징적 정보(symbolic information)에 의해 평가되고 행동이 창출된다.The result of the fusion process, or landscape expression, is evaluated by symbolic information and action is created.
본 발명에 의한 운전자 지원 시스템은 운전자와 독립적으로 동작하여 운전자에게 정보를 출력하거나 차량의 액추에이터들에 작용하므로, 본 문서 전반에 걸쳐 본 시스템을 '에이전트(agent)'라고 하는 경우도 있다.Since the driver assistance system according to the present invention operates independently of the driver and outputs information to the driver or acts on the actuators of the vehicle, the system may be referred to as an 'agent' throughout this document.
본 발명의 몇몇 장점들을 요약하면 다음과 같다.Some advantages of the present invention are summarized as follows.
운전자 지원 시스템의 구조는 환경 및 차량 자체의 상태를 중앙 집중형으로 표현하는 것에 근거한다. 따라서, 본 발명은 예컨대 에너지, 연산 능력 및 공간 등과 같은 제한된 자원(resource)을 절약하도록 한다. 이러한 자원들은 본 발명에 의한 공통적인 구조 내에 구현된 다양한 지원 기능들 사이에서 공유된다. 또한, 본 발명에 의하면, 다수의 제어 센터가 조화되거나 통합됨으로써 전체적인 시스템을 안정화시킨다.The structure of the driver assistance system is based on a centralized representation of the environment and the state of the vehicle itself. Thus, the present invention allows saving of limited resources such as energy, computing power and space, for example. These resources are shared among the various supporting functions implemented within the common structure according to the present invention. In addition, according to the present invention, multiple control centers are coordinated or integrated to stabilize the overall system.
표현(representation)은 본 발명에 의한 에이전트가 시간에 대한 다수의 정보 흐름을 통합하고 안정화하기 때문에 복잡한 또는 하이레벨의 행동을 생성하기에 적절한 형태이므로, 강인성(robustness)을 보장하게 된다.Representation is a form suitable for generating complex or high-level behavior because the agent in accordance with the present invention integrates and stabilizes multiple flows of information over time, thereby ensuring robustness.
본 발명에 의한 에이전트는 또한 하이레벨의 실시간 제어 및 행동 선택을 위한 사용가능한 정보에 대한 즉각적인 억세스를 제공한다. 경관을 모든 면에서 상세하게 해석하는 것은 기술적으로 불가능하기 때문에, 인식(perception)은 예측(prediction)에 의해 조직화되고 지원되며 이러한 방식에 의해 복잡한 행동을 가능하게 한다.Agents according to the present invention also provide immediate access to available information for high-level real-time control and action selection. Since it is technically impossible to interpret the landscape in every detail, perception is organized and supported by prediction and in this way enables complex behavior.
본 발명에 의한 모델은 구성 요소들(서브 시스템들, 모듈들, 유니트들)을 용이하게 교환할 수 있어서 최소의 비용 및 노력으로 기술적인 진보를 달성하도록 하는 개방형 모듈라(modular) 구조를 개시한다. 마지막으로 본 모델은 인간 요소(human factor) 또한 용이하게 고려할 수 있도록 한다.The model according to the invention discloses an open modular structure which allows for easy exchange of components (subsystems, modules, units) to achieve technical advances with minimal cost and effort. Finally, the model also allows for easy consideration of human factors.
도면에서 동일한 부호는 동일 또는 유사한 구성요소를 나타낸다.Like reference numerals in the drawings denote like or similar components.
도 1은 본 발명에 의한 운전자 지원 시스템의 특정 일실시예의 기능 블록도를 나타낸 것이다. 본 시스템은 환경(10), 환경(10)과 상호 작용하는 차량(12), 운전자(14) 및 잠재적인 추가 승객(16)과 연결된다.1 illustrates a functional block diagram of a particular embodiment of a driver assistance system according to the present invention. The system is connected to the
운전자 지원 시스템은 차량 내에 에이전트(agent) 즉, 차량(12)의 부품으로서 예컨대 프로그래머블 장치(programmable device)에 플래쉬(flashed)되는, 예컨 대 자율적 오퍼레이팅 소프트웨어 시스템(autonomously operating software system)(펌웨어, firmware) 등과 같은 형태로 구현될 수 있다. 상기 프로그래머블 장치는 단일 중앙 처리 장치(central processing unit)이거나 또는 차량(12) 전체에 걸쳐 분산된 복수개의 프로세서를 포함할 수 있다. The driver assistance system is for example an autonomously operating software system (firmware, flashed) as an agent in the vehicle, i.e. as part of the
도 1은 본 발명에 의한 에이전트와 운전자(14) 사이의 상호 작용을 상세하게 나타낸 것이다. 간결하게 나타내기 위해, 외부 시스템이나 예컨대 차량 정비소의 서비스 요원 등과 같은 사람과의 또 다른 가능한 상호 작용은 생략되어 있다.1 illustrates in detail the interaction between the agent and the
우선, 본 시스템의 기능적 요소를 설명한다. 원칙적으로, 에이전트는 입력 단계(입력 데이터용 인터페이스), 연산 단계 및 출력 단계(출력 데이터용 인터페이스)를 구비한다. 2개의 선연산 유니트(pre-processing unit, 18, 20)가 입력 단계를 형성한다. 이들은 외부 센싱(22)(external sensing)(예컨대, 레이더(Radar), 리다(Lidar), 비디오, GPS, 전자 교통 보고, 차량-차량-통신, 디지털 지도 등) 및 내부 센싱(24)(internal sensing)(예컨대, 속도, 가속도, 요율(yaw-rate), 경사도(tilt), 고도 등)과 각각 연결되어 있다. 유니트(18, 20)들은 정보 융합 모듈(information fusion module, 26), 경관 표현 모듈(scene representation module, 28)과 정보 데이터베이스(knowledge database, 58)를 구비하는 운전자 지원 시스템의 제1 서브 시스템과 연결되는데, 상기 정보 데이터베이스(58)는 정보 융합 모듈(26)의 대상물(object) 정보가 제공되며 또한 경관 표현 모듈(28)로 대상물의 속성(attribute)을 출력한다.First, the functional elements of the present system will be described. In principle, the agent has an input step (interface for input data), an operation step and an output step (interface for output data). Two pre-processing units (18, 20) form the input stage. These include external sensing 22 (eg, radar, Lidar, video, GPS, electronic traffic reporting, vehicle-vehicle-communication, digital maps, etc.) and internal sensing 24 (internal sensing). ) (Eg, speed, acceleration, yaw-rate, tilt, altitude, etc.). The
경관 표현 모듈(28)은 외부 센싱 모듈(22)에 의해 캡쳐(capture)되는 모든 적절한 대상물(및 정보 데이터베이스(58)로부터 제공되는 대상물의 속성)을 저장한다. 모든 대상물은 그 속성(예컨대, 부드럽다/딱딱하다 등과 같은 물리적 성질)에 대한 설명들의 집합과 에고-중심 차량 좌표 시스템(ego-centered vehicle coordinate-system)에 대한 상대적인 위치를 포함한다. 또한, 경관 표현 모듈(28)에는, 특정한 지역에서의 교통 혼잡 발생 등과 같이 다소 추상적인 정보뿐 아니라, 정보 융합 모듈(26)로부터 전송되는 '자동차' 또는 '보행자' 등과 같은 대상물 카테고리 관점에서의 의미론적인 정보(semantic information)들 또한 저장될 수 있다.The
이에 대한 상세 내용은 도 2를 참조하여 설명한다.Details thereof will be described with reference to FIG. 2.
정보 융합 모듈(26)은 선 연산 유니트(18, 20)로부터 제공되는 모든 정보를 결합하여 경관 표현 모듈(28)에 저장되는 환경에 대한 일관적인 설명을 결정한다. 경관 표현의 강인성(robustness)은 융합되는 정보의 일시적인 트래킹(tracking)에 의해 달성되는데, 이는 선 연산 모듈(18, 20)에 의해 제공되는 새로운 센서 데이터뿐 아니라 모듈(28)에 의해 전송되는 현재 이용 가능한 대상물의 설명을 필요로 한다. 따라서, 모듈(26, 28)들은 상호간에 잘 결합되어야 한다. 이에 대한 상세 설명은 도 2를 참조하여 설명한다.The
내부적으로 선연산된 센싱 신호들은 제2 서브 시스템 즉, 차량 모델 서브 시스템(vehicle model subsystem, 30)으로도 제공된다.Internally pre-computed sensing signals are also provided to a second subsystem, the
차량 모델 서브 시스템(30)은 모듈(24)로부터 전송되는 내부 측정치들에 근거하여 차량의 내부 상태를 평가(estimate)하도록 구성된 것이다. 이것은 내부 센 서 일부가 고장나는 경우, 강인 상태 평가(robust state estimates)를 생성하기 위한 상태-공간 관찰자(state-space observer)(예컨대, 칼만-필터(Kalman-Filter))로서의 역할을 주로 수행한다. 또한, 차량 모델 서브 시스템(30)은 에이전트로 그 자신의 물리적 역학 정보를 제공하는데, 이러한 정보에 의해 행동 선택 모듈(38)은 물리적 제한 조건에 따라 예정된 행동이 수행될 수 있는가를 결정할 수 있게 된다.
예를 들어, 중요한 평가 중의 하나는 차량의 질량(mass)인데 이는 많은 승객들을 수송할 때 달라질 수 있는 것이다. 차량의 질량은 가능한 가속 및 감속에 많은 영향을 미치게 되므로 충돌 예방 조작(collision avoidance manoeuvre)에 있어서 고려해야 한다.For example, one of the important assessments is the mass of a vehicle, which can vary when carrying many passengers. The mass of the vehicle will have as much influence on the possible accelerations and decelerations and must be taken into account in collision avoidance manoeuvre.
제3 서브 시스템에 있어서, 운전자 모델 서브 시스템(32)은 운전자(14)에 의해 조작되는 인간-기계 인터페이스(human-machine interface,HMI,34)에 연결된다.In the third subsystem, the
운전자 모델 서브 시스템(32)은, 인간-기계 인터페이스(HMI, 34)로부터의 운전자의 행동과, 모듈(36)에 의해 해석된 현재 경관을 관찰함으로써 운전자의 의도(intention)를 결정하는 역할을 수행한다. 이러한 의도는 예컨대 회전 신호가 동작되고 경관 해석 모듈에 의해 해당 방향에 장애물이 없는 것으로 탐지된 경우, 차선-변경 조작을 수행하도록 차선-유지/차선-벗어남 경고를 위한 측면 제어가 비활성화되어야 하는 등과 같이, 모듈(38)에서의 행동 선택 과정 중에 있어서 최적 행동을 선택하는데 중요한 것이다.The
경관 표현 모듈(28)은 행동 선택/결합 서브 시스템(action selection/combination subsystem, 38)과 연결되는 경관 해석 모듈(scene interpretation module, 36)에 연결된다. 이 서브 시스템(38)은 주로 (로우-레벨) 행동 생성 모듈(behaviour generation module, 40)을 구비하는 에이전트의 출력 단계와 연결되는데, 상기 (로우-레벨) 행동 생성 모듈(40)은 예컨대 쓰로틀(throttle), 브레이크, 기어-쉬프팅(gear-shifting), 스티어링(steering)을 위한 액추에이터(actuator) 및 에어백(airbag)이나 벨트-프리텐셔너(belt-pretensioner) 등의 안전 액추에이터 등과 같은 차량 액추에이터(42)와 연결된다.
경관 해석 모듈(36)은 감지된 대상물에 대해 모듈(28)에 의해 표현된 경관을 분석한다. 예를 들면, 경관 해석 모듈(36)은 감지된 차선-경계(lane-border)에 근거한 차선 정보를 생성하고 정확한 차선으로 교통 신호를 할당한다. 또한, 예컨대 차선 내에서 전방의 최근접 차량 등과 같은 적절한 대상물을 결정한다. 경관 해석 모듈(36)은 또한 현재의 작업에 따라 적절성 필터링 과정(relevance filtering process)을 가이드하여 인식(perception)을 조직화하고 예측(prediction)을 지원하게 한다.The
다음으로, 도 1에 도시한 운전자 지원 시스템 내에서의 정보 처리 과정을 설명한다. 차량의 내부 상태를 센싱하는 센서(24)는 속도, 가속도, 요율(yaw-rate), 경사도 등에 대한 센서들을 구비할 수 있다. 센서 데이터는 적절한 HMI(44)를 통해 운전자에게도 전달된다.Next, the information processing process in the driver assistance system shown in FIG. 1 is demonstrated. The
HMI(44)는 행동 선택/결합 시스템(38)으로부터의 경고 또한 운전자(14)에게 알려줄 수 있다.The
예컨대, 차량의 바퀴 각각의 속도 등과 같이 더욱 상세한 정보가 지원 시스 템으로 제공될 수 있다. 선연산 모듈(20)은 입력되는 센서 정보를 일시적으로 안정화하고(temporal stabilization) 평탄화하는(smoothing) 유니트로서의 역할을 수행한다. 또한, 선연산 모듈(20)은 그 다음의 정보 융합 과정에 맞도록 센서 정보를 구성한다. 예를 들면, 에이전트의 연산 단계의 시간 단계 구조(time step scheme)에 맞도록 정보를 구성할 수 있다.For example, more detailed information may be provided to the support system, such as the speed of each wheel of the vehicle. The
차량의 환경(10)을 센싱하는 센서(22)들은 예컨대 비디오, 레이다(RADAR) 및 리다(LIDAR) 데이터 등을 전달할 수 있다. 또한, 라디오 정보, 차량-차량-통신 또는 전자 지도를 통해 캡쳐되는 데이터들도 적절한 장치들에 의해 전달될 수 있다. 선연산 유니트(18)는 센서 데이터를 선연산하도록 구성된 다수의 서로 다른 과정들을 포함한다. 2개의 유니트(18,20)는 선연산된 데이터를 외부 및 내부 데이터가 융합되는 정보 융합 모듈(26)로 전달한다. 데이터의 융합에는 뉴럴 네트워크(neural network)가 사용될 수 있다.
융합 과정에 의해 생성된 데이터는 경관 표현 모듈(28)로 전달되는데 여기에서는 차량(12)의 환경을 나타내는 경관이 결정된다. 경관(scene)은 예컨대 교통 상황을 나타낼 수 있다. 일반적으로 경관 표현(scene representation)은 예컨대 자동차, 모터사이클 및/또는 보행자 등과 같이 탐지된 대상물과, 예컨대 거리, 식물 및/또는 하늘 등과 같은 것으로 구성되는 배경(background)을 포함한다. 정보 융합 및 경관 표현에 대한 더욱 상세한 설명은 도 2를 참조하여 이하에서 설명할 것이다.The data generated by the fusion process is passed to the
경관 표현과 관련된 데이터는 또한, 예컨대 추후의 시간 단계에서의 예측 등 을 지원하는 정보 융합 모듈(26)로 피드백(feedback)으로서 전달된다.Data associated with the landscape representation is also conveyed as feedback to the
본 발명에 의하면, 인식(perception)은 예측(prediction)에 의해 조직화되고 지원된다. 운전자 서브 시스템(32)은 운전자(14)로부터 HMI(34)를 통해 데이터를 수신한다. 따라서, 모듈(32)은 예를 들면 다차선 도로(아우토반(Autobahn,...))에서의 계획된 차선 변경 조작 등과 같은 운전자의 의도를 결정하고 예측할 수 있다. 또한, 운전자-또는 승객-와 관련된 데이터는 차량(12)의 내부 센싱(45)으로부터 수신된다. 특히, 내부 센싱(45)은 운전자의 눈을 관찰하기 위한 카메라를 구비할 수 있다. 운전자 모델 서브 시스템(32) 내에서, 시각적 데이터는 기타 다른 데이터들과 함께, 예컨대 운전자가 깨어 있는지/졸고 있는지를 평가하는 것과 같이 운전자의 상태를 추론할 수 있도록 한다. 운전자 모델(32)은 이하에서 설명하는 바와 같이, 에이전트에서 이용될 수 있도록 운전자의 상태를 결정하고 표현한다.According to the present invention, perception is organized and supported by prediction. The
경관 표현(28)의 데이터는 경관 해석 모듈(36) 내에서 추가 처리된다.The data of the
경관 해석 모듈(36)은 운전자 모델 서브 시스템(32)으로 신호들을 출력한다. 적절한 데이터는 예컨대, 소정의 최소값 이하에 속하는 다른 대상물(다른 차량)에 대한 거리 또는 소정의 값 이상의 차량의 (상대) 속도 등과 같은 것들에 대한 구문의 표현(representation of statements)을 포함할 수 있다.The
또한, 경관 해석 모듈(36)은 신호들을 (개괄적(global)) 경관 서술 모듈(scene description module, 46)로 제공한다. 여기에서, 개괄적 시나리오 또는 경관 서술이 기록된다. 가장 중요한 시나리오는 각각 '도시(urban)' 또는 부도심(extra-urban), "시골(rural)" 환경들과 관련된다. 부가적으로 또는 이를 대신하 여, '고속도로(Freeway)' 및 '간선도로(Highway)' 등과 같은 시나리오가 포함될 수도 있다. 선연산 모듈(18)로부터 추출된 개괄적 특징들은 경관 서술 모듈(46)로 직접 전달된다. The
경관 해석 모듈(36)로부터의 데이터는 모듈(28)로 피드백되어, 예컨대 현재 상황에서의 적절한 대상물에 집중할 수 있도록, 표현된 시나리오에서의 의도/적절성 필터링 과정(intention/relevance filtering process)을 가이드한다.Data from the
경관 묘사 모듈(46)로부터, 데이터는 (교통) 규칙-선택 모듈(48)로 전달된다. 데이터는 예컨대 감지된 하나의 교통 신호 또는 교통 신호들의 복합체와 관련된 데이터 등과 같이, 경관 해석 모듈(36)로부터 전송된 데이터를 포함할 수도 있다. 모듈(48)은 개괄적 경관 서술의 표현뿐 아니라 교통 신호 리스트 및 기타 교통 규칙들을 구비하는데, 상기 리스트 내의 각각의 엔트리(entry)는 예컨대 최대 속도, 차선 변경, 주차 금지 등과 같은 규칙과 관련된 하나 또는 그 이상의 교통 규칙을 지시한다. 경관 내에서 모든 종류의 규칙을 개괄적 경관 및/또는 대상물로 할당하는 것은 규칙 선택 모듈(48)로서 구현될 수 있다.From the
에이전트의 서브 시스템(38)은 다수의 서브 시스템 및 모듈들로부터의 데이터를 수집한다. 차량 모델(30)은 차량(12)의 결정된 상태와 관련된 데이터를 전달한다. 운전자 모델(32)은 운전자(14)의 상태와 관련된 데이터를 전달한다. 경관 해석 모듈(36)은 표현된 경관의 상태 변수들과 관련된 데이터를 전달한다. 경관 서술 모듈(46)은 개괄적 시나리오 및 날씨 상태와 관련된 데이터를 전달한다. 규칙 선택 모듈(48)은 차량(12) 또는 운전자(14)의 미래 행동에 대한 적절한 교통 규칙과 관 련된 데이터를 전달한다. 서브 시스템(38)은 취해야 할 행동을 정의하고 가능한 한 예컨대 안전성 등과 관련된 소정 기준에 따라 요구되는 행동을 랭크(rank)시킬 수 있도록 데이터를 해석해야 한다. 관련 데이터는 경관 해석 모듈(36)로도 피드백된다.The agent's
서브 시스템(38)은 운전자에 대하여 HMI(44)를 통해 출력되는 경고 메시지를 생성할 수 있다. 적절한 인터페이스는 예컨대 LED, 디스플레이 또는 프론트 쉴드(front shield)로의 숫자 또는 문자의 출력 또는 음성 메시지 등과 같은 시각적 또는 청각적 인터페이스를 포함할 수 있다. The
다음으로, 취해야 할 하나 또는 그 이상의 행동과 관련된 데이터는 에이전트의 출력 단계인 행동 생성 모듈(40)로 전달되는데, 행동 생성 모듈(40)에는 ACC, 차선-유지 또는 충돌 방지 기능 등과 같은 운전자-지원 모듈이 위치한다. 대상물의 물리적 설명과 관련된 별도의 추가 데이터가 경관 표현 모듈(28)로부터 전달될 수도 있다. 운전자의 의도와 관련된 추가 데이터가 운전자(14)로부터 HMI(34)를 통해 입력된다. 모듈(40)에서 상단의 모듈들에 의해 계산된 행동이 함께 통합된다. 예컨대, 운전자(14)(HMI(34))로부터 수신되는 행동 신호가 최우선 순위를 가지도록 행동 신호 구조를 구현할 수 있다.Next, data related to one or more actions to be taken are passed to the
모듈(40)은 출력 명령을 생성하고 이들을 예컨대 쓰로틀, 브레이크, 스티어링, 기어 등과 같은 적절한 액추에이터(42)나 예컨대, 에어백, 프리텐셔너(pre-tensioners), 내부 점등, 온도 제어 또는 윈도우 레귤레이터(window regulator) 등과 같은 운전자 및 승객과 관련된 액추에이터를 포함하는 기타 액추에이터로 전송 한다.The
여기에서 설명되는 본 발명의 실시예는 운전자와 운전 지원 에이전트 사이에서의 다양한 상호작용을 제공한다. 적절한 운전자의 행동은 운전자 모델에 의해 표현되고 또한 행동 생성에 직접적인 영향을 주게 된다. 에이전트는 경고를 통해서 또는 더욱 일반적으로는 경관 해석 모듈에 의해 생성되는 정보 메시지와 운전자 관련 액추에이터의 제어에 의해 운전자를 지원한다. 따라서, 본 발명에 의한 시스템은 복잡한 상호 작용을 가능하게 하며 자신을 보호하지 않아도 될 정도의 지원을 할 수 있을 만큼 충분히 유연하다.Embodiments of the invention described herein provide for various interactions between the driver and the driving assistance agent. Appropriate driver behavior is represented by the driver model and has a direct impact on behavior generation. The agent assists the driver by alerting or, more generally, by the control of driver-related actuators and information messages generated by the landscape analysis module. Thus, the system according to the present invention is flexible enough to allow complex interactions and to provide support that does not have to protect itself.
도 2는 센싱된 정보를 융합하여 경관 표현을 생성하는 제1 서브 시스템과, 현재 경관을 해석하여 외부 경관에 대한 몇 가지 의미 있는 정보에 의해 최적 행동을 선택할 수 있도록 하는 제4 서브 시스템의 상세 기능을 나타낸 도면이다. 2 is a detailed function of a first sub-system for fusing sensed information to generate a landscape representation, and a fourth sub-system for interpreting the current landscape and selecting an optimal action based on some meaningful information about the external landscape. It is a diagram showing.
외부 센싱 모듈(22)은 예컨대 시각적 외부 센싱 유니트(50)와 확장 외부 센싱 유니트(52)를 구비한다. 시각적 외부 센싱 유니트(50)는 카메라, 레이다(RADAR) 및 리다(LIDAR) 등과 같은 돌출형 센서 요소(projective sensor element)에 의해 감지되는 정보를 캡쳐하는 반면, 확장 외부 센싱 유니트(52)는 전자 지도 데이터 등과 같은 비돌출형 요소로부터의 정보와 라디오 교통 보고 또는 차량-차량-통신 메시지 등과 같은 시각적 범위에 포함되는 정보를 수신한다.The
시각적으로 캡쳐된 데이터는 특성 추출 유니트(54)로 전달되는데, 특성 추출 유니트(54)는 예컨대 카메라 영상의 엣지(edge) 및 스테레오-카메라 시스템의 불일치 (깊이) 또는 레이다(RADAR)/리다(LIDAR) 장치로부터의 거리 및 속도 데이터 등 과 같은 센서 측정값들의 특징적인 특성을 결정한다. 또한, 개괄적 특성이 추출되어 개괄적 경관 서술 유니트(46)로 제공된다. 카메라-영상으로부터의 적절한 개괄적 특성은 주파수-요소(퓨리에-스펙트럼(Fourier-spectrum), 가버-웨이브렛(Gabor-wavelets) 또는 전력-밀도 스펙트럼(power-density spectrum)으로부터 결정될 수 있다.The visually captured data is passed to a
유니트(54)에 의해 전달되는 특성은 집적화되거나(clustered) 및/또는 대상물-모델에 맞게 매칭되어 유니트(56)에 의해 각각의 특성 양식(feature modalities)로부터의 대상물 가설(object hypothesis)을 생성한다. 대상물 가설들은 추가적인 정보 통합 및 일관성 검증에 의해 더욱 검증되어야 하는 실세계의 대상물에 대한 유력한 후보자들로 정의된다. The characteristics conveyed by
대상물 가설 자체와 이에 상응하는 특성 양자 모두는 유니트(62)에 의해 (필요한 경우) 적절한 좌표 시스템으로 변형되어 정보 융합 시스템(26)으로 직접 공급된다. 융합 시스템(26)은 유니트(64)에서의 특성 바인딩 과정(feature binding process)에 근거하여 유니트(66)에서 융합된 대상물-가설을 생성한다. 서로 다르고 불필요한 특성 양식은 융합되어 상응하는 대상물 가설을 지원하고 센싱된 데이터의 불일치가 제거된다. 대상물-가설 융합 및 특성 바인딩은 이러한 융합 구조에서 서로 연동하여 작용하며, 일반적으로 통계적 융합 방법 또는 뉴럴 네트워크에 의해 수행될 수 있다. 특성 바인딩에 사용할 수 있는 알고리듬은 당업자에게 자명한 사항이므로 여기에서는 설명하지 않는다. 측정치의 노이즈와 불확실한 정보에 대한 강인성(robustness)은 특성 및 대상물 가설 양자의 일시적 트래킹(temporal tracking)(유니트(68))에 의해 이루어진다.Both the object hypothesis itself and its corresponding characteristics are transformed by the
융합된 대상물 가설은 또한 예컨대 '자동차', '보행자' 또는 '교통 신호' 등과 같이 대상물의 종류의 관점에서 대상물의 의미론적인 설명을 전달하는 시각적 대상물 분류화 유니트(70)에 의해 검증된다.The fused object hypothesis is also validated by the visual object classification unit 70, which conveys a semantic description of the object in terms of the type of the object, for example 'car', 'pedestrian' or 'traffic signal'.
대상물의 물리적 설명(위치, 속도, 가속도) 및 이에 상응하는 대상물 종류는 경관 표현 모듈(28)내에 근접 범위의 시각적 경관 탐색에 사용되는 유니트(72)의 차원 스케치 형태로 저장된다. "D 스케치"라는 용어는 2-D 돌출형 센서 요소만을 사용하여 경관의 실제적인 3-D 특징을 완벽히 탐색하는 것은 가능하지 않다는 것을 의미한다.The physical description of the object (position, velocity, acceleration) and the corresponding object type are determined by the unit 72 used to navigate the visual landscape in the near range within the
유니트(70)에 의해 전달되는 대상물 카테고리는 정보 데이터베이스(58)를 통해 몇몇 속성들과 링크되는데, 예컨대 감지된 대상물의 몇몇 속성들은 대상물의 견고성(solidity)에 근거하여 서로 다른 위험-카테고리를 설명할 수도 있다. 다른 가능한 속성들은 트래킹 유니트(68)를 조절하기 위한 모션 파라미터(motion parameter) 또는 모션 모델(motion model)일 수 있다. 속성들 또한 유니트(72)에서 표현된다.The object category conveyed by the unit 70 is linked with several attributes via the
확장 외부 센싱 모듈(52)로부터의 데이터는 정보 추출 모듈(60)로 직접 공급되는데, 정보 추출 모듈(60)은 지도 데이터 분석과 여러 가지 메시지로부터의 보고 분석을 수행하여, 시각적 외부 센싱 모듈(50)에 의해 캡쳐될 수 없는 차량 주변의 교통 상황에 대한 적절한 정보를 추출한다. 획득된 정보는 매핑 유니트(62)를 통해 유니트(74)의 2D-공간 포인트 대상물 표현(2D-space point object representation)으로 매핑된다. 유니트(74)에서의 표현은 일종의 '버드뷰(birdview)' 광범위 환경 지도이며, 주의(attention)를 가이드하고 센서-융합 모듈(26)에서의 예측을 지원하는 D 스케치 표현(72)의 특정 지역을 선-활성화(pre-activating) 시키는데 사용된다.Data from the extended external sensing module 52 is fed directly to the
유니트(74)에서 이용가능한 데이터의 예로서는, 융합 시스템을 선활성화시켜 고정된 목적물 탐지에 집중할 수 있도록, 차선 탐지 과정을 가이드하기 위한 곡선 또는 교통 혼잡 및 사고 발생지의 개괄적인 위치 등과 같은 지도-데이터 정보가 있다. Examples of data available at unit 74 include map-data information, such as curves to guide the lane detection process or general locations of incidents, such as to guide the lane detection process so that the convergence system can be pre-activated to focus on fixed object detection. There is.
D 스케치 표현에 축적된 데이터는 획득된 대상물 정보에 근거하여 현재 상황에서 무엇이 발생하고 있는가에 대한 일종의 '이해(understanding)'를 에이전트에 제공하는 경관 해석 모듈(36)에서 재차 평가된다. 경관을 '이해'하기 위한 몇 가지 해석은 탐지된 교통 신호를 다른 차선에 할당하거나 탐지된 장애물을 다른 차선에 할당하는 것 등이다. 어떤 것이 길이고 차량이 어디로 진행할 수 있는가에 대한 해석 또한 경관 해석 모듈(36)의 작업에 속한다. The data accumulated in the D sketch representation is evaluated again in the
모듈(36)은 결정/행동 선택 모듈(38)로 차선의 수, 그 차선의 장애물 등과 같이 분산된 의미론적 정보와 함께 경관의 물리적 성질(거리, 속도) 등과 같은 연속된 정보를 포함하는 현재 경관의 몇 가지 상태를 제공한다. 결정 시스템(38)은 이러한 정보와 점유 모니터링(occupancy monitoring)에 의해 획득되며 운전자-모델 에 의해 전송되는 운전자의 상태에 근거하여 경관의 상태 공간(state space of the scene)을 분석함으로써 최적 행동을 선택한다.
경관 해석 모듈(36)은 또한 개괄적 경관 서술 유니트(46), 즉 교통 신호 및 차선-설정으로 정보를 전달한다. 개괄적 경관 서술 유니트(46)는 특성 추출 유니트(54)에 의해 전달된 개괄적 특성을 사용하여 상기에서 설명한 바와 같이 경관의 개괄적 상태를 결정한다. The
개괄적 경관 서술 유니트(46)는 또한 서로 다른 개괄적 경관에서 발생하는 서로 다른 통계에 따라 시각적 대상물 분류화 유니트(70)를 조절한다. 경관의 개괄적 측면(도시, 부도심, 간선도로)은 또한 정보 데이터베이스(48)로도 제공되어 현재 상황에 유효한 교통 규칙의 적절한 집합을 결정한다. 이러한 규칙들은 행동 선택 모듈(38)의 몇 가지 제한 조건을 나타낸다. 또한, 모듈(38)은 작업 또는 행동에 따라 적절한 대상물을 필터링하기 위한 주의/적절성 필터링 모듈(attention/relevance filtering module, 76)을 가이드한다. 적절성 필터링 모듈(76)은 또한 예컨대, 차량에 대해 차선 안에 있는 또는 차선에 인접해 있는 대상물들만을 전송할 수 있는 모듈(36)로부터 해석된 정보를 수신한다. The general
유니트(38)로부터의 행동 선택 정보는 경관 표현 유니트(28)에 의해 전달되는 대상물의 물리적 정보에 근거하여 차량을 제어할 수 있는 서로 다른 운전자 지원 모듈(40)들을 활성화 또는 비활성화시키거나 결합시킨다. 길이 방향 제어(ACC, ACC 정지 또는 진행), 측방향 제어(차선-유지, 차선 이탈 경고), 충돌 예방/완화, 교통 규칙에 따른 경고 등과 같은 것들이 가능한 기능이다.Behavior selection information from
내부 센싱 모듈(24)은 앞서 설명한 바와 같이 평탄화/안정화 선연산 유니트(smoothing/stabilization pre-processing unit, 20)에 연결된다. 내부 차량 데이터는 예컨대 사영 변환(projective transformation)을 위해 경사각 정보를 이용하는 경우 등과 같이 매핑을 수정하거나 특성 바인딩 과정을 위한 변환/매핑 유니트(62)와, 결정/행동 선택 모델(38) 및 지원 모듈(40)로 차량의 내부 상태와 역학 정보를 제공하는 차량 모델(30)에서 사용될 수 있다.The
본 발명의 운전자 지원 시스템에 의하면, 운전자에게 용이하게 적응될 수 있도록 유연성이 있다. According to the driver assistance system of the present invention, it is flexible to be easily adapted to the driver.
또한, 본 발명의 운전자 지원 시스템은 종래의 시스템과 비교해 볼 때 더욱 안전하고 편리하다.In addition, the driver assistance system of the present invention is safer and more convenient compared to the conventional system.
또한, 본 발명은 예컨대 에너지 소비, 연산 능력 및 공간 등과 같이 제한된 자원(resource)을 공유할 수 있다.In addition, the present invention may share limited resources such as, for example, energy consumption, computing power and space.
또한, 본 발명은 강인한 예측능력을 제공하고 복잡한 행동을 가능하게 한다.In addition, the present invention provides robust predictive capability and enables complex behavior.
또한, 본 발명은 예컨대 센서의 측면, 새로운 어플리케이션 또는 개선된 내부 연산 유니트 등과 같은 새로운 구성 요소를 용이하게 통합할 수 있게 한다.In addition, the present invention makes it easy to integrate new components such as, for example, aspects of sensors, new applications or improved internal computing units.
또한, 본 발명은 실시간 제어 및 행동 선택을 가능하게 한다.The present invention also enables real time control and action selection.
도면의 부호의 설명Explanation of symbols of drawing
(도면의 번역은 좌측부터 아래방향 순서에 따라 기재함)(The translation of the drawings should be written in descending order from left to right.)
(도 1)(Figure 1)
Sensor-fusion, representation and interpretation : system details : 센서 융합, 표현 및 해석 : 시스템 상세도Sensor-fusion, representation and interpretation: system details
52 extended external sensing 확장 외부 센싱52 extended external sensing extended external sensing
- digital map 디지탈 지도-digital map
- traffic reports 교통 보고서-traffic reports
- vehicle-vehicle-comm.. 차량-차량 통신-vehicle-vehicle-comm .. vehicle-vehicle communication
50 "visual" external sensing "시각적" 외부 센싱50 "visual" external sensing "visual" external sensing
- camera 카메라camera
- radar, lidar 레이더(radar), 리다(lidar)-radar, lidar radar, lidar
- ...-...
22 external sensing 외부 센싱22 external sensing External sensing
24 internal sensing 내부 센싱24 internal sensing internal sensing
- velocity, acceleration 속도, 가속도velocity, acceleration
- yaw-rate 요율(yaw-rate)yaw-rate rate
- tilt 경사도tilt tilt
60 information extraction 정보 추출60 information extraction
- map-data analysis 지도 데이터 분석map-data analysis
- report analysis 보고서 분석-report analysis
56 building object hypothesis 대상물 가설 생성56 Building object hypothesis Create object hypothesis
- data-clustering 데이터-집적화data-clustering
- model-matching 모델-매칭model-matching
54 feature extraction 특징 추출54 feature extraction feature extraction
- edge, depth... 엣지, 깊이...edge, depth ... edge, depth ...
- distance, velocity 거리, 속도distance, velocity
- global features 개괄적 특징-global features
62 transformation/mapping 변환/매핑62 transformation / mapping transformation / mapping
20 smoothing/stabilization 평탄화/안정화20 smoothing / stabilization smoothing / stabilization
correction 수정correction correction
global scene description 개괄적 경관 서술global scene description
weather condition 기상 상태weather condition weather condition
prediction 예측prediction prediction
70 visual object categorization 시각적 대상물 분류화70 visual object categorization
66 fusing object-hypothesis 대상물 가설 융합66 fusing object-hypothesis object hypothesis fusion
64 feature binding 특징 바인딩64 feature binding feature binding
68 tracking 트래킹68 tracking tracking
26 fusion system 융합 시스템26 fusion system
58 knowledge base 정보 데이터베이스58 knowledge base Information Database
attribute 속성 attribute attribute
type 종류type type
object-position 대상물 위치object-position object position
74 2D point object representation 2D 포인트 대상물 표현74 2D
lon-range, environment-map 광범위 환경 지도lon-range, environment-map
prediction/attention 예측/주의prediction / attention prediction / attention
72 21/2 D-sketch representation 2 1/2 D-스케치 표현72 21/2 D-
close-range, projective 협범위 돌출형close-range, projective narrow-range protrusions
28 pseudo 3D world-representation 수도(pseudo) 3D세계 표현28 pseudo 3D world-representation Pseudo 3D world representation
global features 개괄적 특징global features
76 attention/relevance filtering 주의/적절성 필터링76 attention / relevance filtering
- relevant object filtering 적절한 대상물 필터링relevant object filtering
- attention control 주의 제어attention control
36 scene interpretation 경관 해석36 scene interpretation
- traffic sign assignment 교통 신호 할당traffic sign assignment
- road following 도로 추적-road following
- targets in lane 차선의 목표물-targets in lane
traffic signs/lane-configuration 차량 신호/차선 구성traffic signs / lane-configuration traffic signs / lane-configuration
46 global scene description 개괄적 경관 서술46 global scene description
- urban/rural 도시/시골urban / rural
- kind of road 도로의 종류kind of road
- weather 날씨-weather
scene interpretation 경관 해석scene interpretation scene interpretation
task dependent scene analysis 작업에 따른 경관 분석task dependent scene analysis
"states" of the scene 경관의 "상태""states" of the scene
traffic signs, road description 교통 신호/도로 서술traffic signs, road description traffic signs, road description
measurement 측정치measurement
occupancy monitoring 점유 모니터링occupancy monitoring occupancy monitoring
32 driver-model 운전자 모델32 driver-model
38 decision state space 결정 상태 공간38 decision state space
- state of the environment 환경의 상태state of the environment
- states of the vehicle 차량의 상태states of the vehicle
- states of the driver 운전자의 상태states of the driver
constraints 제한조건constraints constraints
48 knowledge base 정보 데이터베이스48 knowledge base information database
- traffic rule selection 교통 규칙 선택traffic rule selection
behavior control 행동 제어behavior control behavior control
30 vehicle model 차량 모델30 vehicle model
activation/combination 활성화/결합activation / combination activation / combination
internal states 내부 상태internal states internal states
40 assistance modules 지원 모듈40 assistance modules
- longitudinal control 길이방향 제어longitudinal control
- lateral control 측방향 제어lateral control
- collision mitigation 충돌 완화collision mitigation collision mitigation
- rule violation warning 규칙 위반 경고rule violation warning
- ...-...
physical object description 물리적 대상물 서술physical object description physical object description
(도 2)(Figure 2)
Driver-agent-interaction model 운전자-에이전트-상호작용 모델Driver-agent-interaction model Driver-agent-interaction model
10 environment 환경10 environment
24 internal sensing 내부 센싱24 internal sensing internal sensing
velocity 속도velocity velocity
accel. 가속도accel. acceleration
yaw-rate 요율(yaw-rate)yaw-rate rate
tilt 경사도tilt slope
....
22 external sensing 외부 센싱22 external sensing External sensing
RADAR 레이더(RADAR)Radar radar (radar)
LIDAR 리다(LIDAR)LIDAR
Video 비디오Video Video
GPS GPSGPS GPS
traffic reports 교통 보고서traffic reports traffic reports
vehicle-vehicle-comm. 차량-차량 통신vehicle-vehicle-comm. Vehicle-vehicle communication
map,.. 지도...map, .. map ...
20 pre-processing 선연산20 pre-processing linear computation
2. interface 인터페이스2. interface interface
1. interface 인터페이스Interface
18 pre-processing 선연산18 pre-processing linear computation
stabilized mesurements 안정화된 측정치stabilized mesurements
16 passenger 승객16 passenger passenger
44 HMI HMI44 HMI HMI
warning 경고warning warning
1. subsystem 서브 시스템1. subsystem subsystem
58 knowledge base 정보 데이터베이스58 knowledge base Information Database
objects 대상물objects
attributes 속성attributes attribute
26 information fusion 정보 융합26 information fusion
28 scene representation 경관 표현28 scene representation
2. subsystem 서브 시스템2. subsystem subsystem
30 vehicle model 차량 모델30 vehicle model
global feature 개괄적 특징global feature
45 interior sensing 내부 센싱45 interior sensing interior sensing
occupancy monitoring 점유 모니터링occupancy monitoring occupancy monitoring
3. subsystem 서브 시스템3. subsystem subsystem
seat beat ? 좌석 벨트?seat beat? Seat belt?
driver ok? 운전자 ok?driver ok? Driver ok?
32 driver model 운전자 모델32 driver model driver model
14 driver 운전자14 driver
34 HMI HMI34 HMI HMI
driver states 운전자 상태driver states driver states
36 scene interpretation 경관 해석36 scene interpretation
4. sub-system 서브 시스템4. sub-system subsystem
46 global scene description(urban/rural) 개괄적 경관 서술(도시/시골)46 global scene description (urban / rural) general landscape description (urban / rural)
scenery state variables 경관 상태 변수scenery state variables
38 action selection/combination system 행동 선택/결합 시스템38 action selection / combination system
rules 규칙rules rules
48 traffic rule selection 교통 규칙 선택48 traffic rule selection
5. sub-system 서브 시스템5. sub-system subsystem
40 lowlevel behaviour generation 로우레벨 행동 생성40 lowlevel behavior generation
(control loops) 제어 루프(control loops) control loops
physical object description 대상물의 물리적 서술physical object description physical description of the object
vehicle-states 차량 상태vehicle-states vehicle-states
42 actuators 액추에이터42 actuators
throttle 쓰로틀throttle throttle
brake 브레이크brake brake
gear 기어gear gear
steering 스티어링steering steering
....
airbags 에어백airbags airbags
pretensioner 프리텐셔너pretensioner pretensioner
12 vehicle 차량12 vehicle
Claims (19)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020060077648A KR100949558B1 (en) | 2005-08-18 | 2006-08-17 | Driver assistance system |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP05017976.1 | 2005-08-18 | ||
KR1020060077648A KR100949558B1 (en) | 2005-08-18 | 2006-08-17 | Driver assistance system |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20070021944A KR20070021944A (en) | 2007-02-23 |
KR100949558B1 true KR100949558B1 (en) | 2010-03-25 |
Family
ID=43653776
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020060077648A Expired - Fee Related KR100949558B1 (en) | 2005-08-18 | 2006-08-17 | Driver assistance system |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100949558B1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111746391B (en) * | 2019-03-26 | 2025-07-01 | 深圳市赛格导航科技股份有限公司 | A vehicle emergency rescue method and system with automatic alarm |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2002025291A2 (en) * | 2000-09-21 | 2002-03-28 | American Calcar Inc. | Technique for operating a vehicle effectively and safely |
US20020120371A1 (en) | 2000-10-14 | 2002-08-29 | Leivian Robert H. | Method of response synthesis in a driver assistance system |
US20030065432A1 (en) | 1999-03-12 | 2003-04-03 | Valerie Shuman | Method and system for an in-vehicle computing architecture |
JP2003331390A (en) | 2002-05-16 | 2003-11-21 | Fujitsu Ltd | In-vehicle sensor information provision program and in-vehicle sensor information utilization program |
-
2006
- 2006-08-17 KR KR1020060077648A patent/KR100949558B1/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030065432A1 (en) | 1999-03-12 | 2003-04-03 | Valerie Shuman | Method and system for an in-vehicle computing architecture |
WO2002025291A2 (en) * | 2000-09-21 | 2002-03-28 | American Calcar Inc. | Technique for operating a vehicle effectively and safely |
US20020120371A1 (en) | 2000-10-14 | 2002-08-29 | Leivian Robert H. | Method of response synthesis in a driver assistance system |
JP2003331390A (en) | 2002-05-16 | 2003-11-21 | Fujitsu Ltd | In-vehicle sensor information provision program and in-vehicle sensor information utilization program |
Also Published As
Publication number | Publication date |
---|---|
KR20070021944A (en) | 2007-02-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1754621B1 (en) | Driver assistance system | |
US12124263B2 (en) | Generating trajectories for autonomous vehicles | |
JP7440324B2 (en) | Vehicle control device, vehicle control method, and program | |
JP6841843B2 (en) | Vehicle control systems, vehicle control methods, and vehicle control programs | |
US20180370502A1 (en) | Method and system for autonomous emergency self-learning braking for a vehicle | |
JP7369077B2 (en) | Vehicle control device, vehicle control method, and program | |
EP3407251A1 (en) | Method of classifying objects for a perception scene graph and system for using a scene detection schema for classifying objects in a perception scene graph (psg) in a motor vehicle | |
JP6913716B2 (en) | Vehicle control devices, vehicle control methods, and programs | |
US20060117297A1 (en) | Device and method for controlling at least one system component of an information system | |
EP3407249A2 (en) | A method and system for generating and using a perception scene graph in motor vehicle applications | |
JP7369078B2 (en) | Vehicle control device, vehicle control method, and program | |
CN115298073A (en) | Vehicle driving support method and driving support device | |
JP7465705B2 (en) | Vehicle control device, vehicle control method, and program | |
US10210617B2 (en) | Method and system for generating a perception scene graph having a focus region for a motor vehicle | |
EP3407250A1 (en) | Method of prioritizing sensors for a perception system and perception system for a motor vehicle | |
Kohlhaas et al. | Towards driving autonomously: Autonomous cruise control in urban environments | |
JP7464425B2 (en) | Vehicle control device, vehicle control method, and program | |
US12037024B1 (en) | Trajectory planning with other road user reactions for autonomous vehicles | |
Michalke et al. | The narrow road assistant-next generation advanced driver assistance in inner-city | |
JP7388208B2 (en) | Vehicle control device | |
KR100949558B1 (en) | Driver assistance system | |
Sathiyan et al. | A comprehensive review on cruise control for intelligent vehicles | |
Holzmann et al. | Robots go automotive-The SPARC approach | |
Saavedra | Design of Cooperative Advanced Driver Assistance System based on Artificial Intelligence Models aware of driving profiles and the environment surrounding the vehicle | |
CN120716703A (en) | Braking method, device and vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
St.27 status event code: A-0-1-A10-A12-nap-PA0109 |
|
PG1501 | Laying open of application |
St.27 status event code: A-1-1-Q10-Q12-nap-PG1501 |
|
A201 | Request for examination | ||
AMND | Amendment | ||
E13-X000 | Pre-grant limitation requested |
St.27 status event code: A-2-3-E10-E13-lim-X000 |
|
P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
PA0201 | Request for examination |
St.27 status event code: A-1-2-D10-D11-exm-PA0201 |
|
D13-X000 | Search requested |
St.27 status event code: A-1-2-D10-D13-srh-X000 |
|
D14-X000 | Search report completed |
St.27 status event code: A-1-2-D10-D14-srh-X000 |
|
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
St.27 status event code: A-1-2-D10-D21-exm-PE0902 |
|
T11-X000 | Administrative time limit extension requested |
St.27 status event code: U-3-3-T10-T11-oth-X000 |
|
AMND | Amendment | ||
E13-X000 | Pre-grant limitation requested |
St.27 status event code: A-2-3-E10-E13-lim-X000 |
|
P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
E601 | Decision to refuse application | ||
PE0601 | Decision on rejection of patent |
St.27 status event code: N-2-6-B10-B15-exm-PE0601 |
|
T11-X000 | Administrative time limit extension requested |
St.27 status event code: U-3-3-T10-T11-oth-X000 |
|
J201 | Request for trial against refusal decision | ||
PJ0201 | Trial against decision of rejection |
St.27 status event code: A-3-3-V10-V11-apl-PJ0201 |
|
AMND | Amendment | ||
E13-X000 | Pre-grant limitation requested |
St.27 status event code: A-2-3-E10-E13-lim-X000 |
|
P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
PB0901 | Examination by re-examination before a trial |
St.27 status event code: A-6-3-E10-E12-rex-PB0901 |
|
B701 | Decision to grant | ||
PB0701 | Decision of registration after re-examination before a trial |
St.27 status event code: A-3-4-F10-F13-rex-PB0701 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
St.27 status event code: A-2-4-F10-F11-exm-PR0701 |
|
PR1002 | Payment of registration fee |
St.27 status event code: A-2-2-U10-U11-oth-PR1002 Fee payment year number: 1 |
|
PG1601 | Publication of registration |
St.27 status event code: A-4-4-Q10-Q13-nap-PG1601 |
|
FPAY | Annual fee payment |
Payment date: 20130208 Year of fee payment: 4 |
|
PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 4 |
|
FPAY | Annual fee payment |
Payment date: 20140211 Year of fee payment: 5 |
|
PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 5 |
|
FPAY | Annual fee payment |
Payment date: 20150216 Year of fee payment: 6 |
|
PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 6 |
|
FPAY | Annual fee payment |
Payment date: 20160216 Year of fee payment: 7 |
|
PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 7 |
|
P22-X000 | Classification modified |
St.27 status event code: A-4-4-P10-P22-nap-X000 |
|
FPAY | Annual fee payment |
Payment date: 20170123 Year of fee payment: 8 |
|
PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 8 |
|
FPAY | Annual fee payment |
Payment date: 20180208 Year of fee payment: 9 |
|
PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 9 |
|
P22-X000 | Classification modified |
St.27 status event code: A-4-4-P10-P22-nap-X000 |
|
PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 10 |
|
FPAY | Annual fee payment |
Payment date: 20200120 Year of fee payment: 11 |
|
PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 11 |
|
PC1903 | Unpaid annual fee |
St.27 status event code: A-4-4-U10-U13-oth-PC1903 Not in force date: 20210319 Payment event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE |
|
PC1903 | Unpaid annual fee |
St.27 status event code: N-4-6-H10-H13-oth-PC1903 Ip right cessation event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE Not in force date: 20210319 |
|
P22-X000 | Classification modified |
St.27 status event code: A-4-4-P10-P22-nap-X000 |