[go: up one dir, main page]

KR100949558B1 - Driver assistance system - Google Patents

Driver assistance system Download PDF

Info

Publication number
KR100949558B1
KR100949558B1 KR1020060077648A KR20060077648A KR100949558B1 KR 100949558 B1 KR100949558 B1 KR 100949558B1 KR 1020060077648 A KR1020060077648 A KR 1020060077648A KR 20060077648 A KR20060077648 A KR 20060077648A KR 100949558 B1 KR100949558 B1 KR 100949558B1
Authority
KR
South Korea
Prior art keywords
subsystem
vehicle
driver
landscape
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
KR1020060077648A
Other languages
Korean (ko)
Other versions
KR20070021944A (en
Inventor
크리스티안 고에릭
젠스 게이코
마르틴 슈나이더
Original Assignee
혼다 리서치 인스티튜트 유럽 게엠베하
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 혼다 리서치 인스티튜트 유럽 게엠베하 filed Critical 혼다 리서치 인스티튜트 유럽 게엠베하
Priority to KR1020060077648A priority Critical patent/KR100949558B1/en
Publication of KR20070021944A publication Critical patent/KR20070021944A/en
Application granted granted Critical
Publication of KR100949558B1 publication Critical patent/KR100949558B1/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K28/00Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions
    • B60K28/10Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the vehicle 
    • B60K28/16Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the vehicle  responsive to, or preventing, spinning or skidding of wheels
    • B60K28/165Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the vehicle  responsive to, or preventing, spinning or skidding of wheels acting on elements of the vehicle drive train other than the propulsion unit and brakes, e.g. transmission, clutch, differential
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2400/00Special features of vehicle units
    • B60Y2400/30Sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 발명은, 운전자 지원, 승객의 안전성 및 편의성, 예컨대 진단 및 정비 목적의 외부 시스템과의 통신 등과 관련된 어플리케이션에 대하여 일반적으로 사용할 수 있는 구조를 갖는 운전자 지원 시스템으로서, 차량(12)의 환경(10)으로부터 수신되는 외부 신호들을 센싱하기 위한 제1 인터페이스(18); 차량(12)의 내부 신호들을 센싱하기 위한 제2 인터페이스(20); 제1 인터페이스(18) 및 제2 인터페이스(20)의 출력 신호들을 융합하여 차량의 환경(10)에 대한 설명을 생성하는 제1 서브 시스템(26,28); 제1 서브시스템(26)의 출력 신호들을 수신하여 차량(12)의 현재 상태를 모델링하는 제2 서브 시스템(30); 운전자(14)의 행동을 모델링하는 제3 서브 시스템(32); 제1 서브 시스템(28)에 의해 설명된 현재 경관을 해석하여 차량(12)의 현재 외부 상태의 특징 상태를 결정하는 제4 서브 시스템(36); 및 제2, 제3 및 제4 서브 시스템(30,32,36)의 출력 신호들에 따라 차량(12)의 액추에이터(42)들 및/또는 운전자(14)에 대한 자극들을 생성하는 제5 서브 시스템(38,40)을 구비하는 운전자 지원 시스템을 제공한다.

Figure R1020060077648

차량, 환경, 제1 인터페이스, 제2 인터페이스, 제1 서브 시스템, 제2 서브 시스템, 운전자, 제3 서브 시스템, 제4 서브 시스템, 액추에이터, 제5 서브 시스 템.

The present invention provides a driver assistance system having a structure generally usable for applications related to driver assistance, passenger safety and convenience, such as communication with an external system for diagnostic and maintenance purposes, and the like. A first interface (18) for sensing external signals received from; A second interface 20 for sensing internal signals of the vehicle 12; First subsystems 26 and 28 for fusing output signals of first interface 18 and second interface 20 to generate a description of the environment 10 of the vehicle; A second subsystem 30 for receiving the output signals of the first subsystem 26 to model the current state of the vehicle 12; A third subsystem 32 that models the behavior of the driver 14; A fourth subsystem 36 for interpreting the current landscape described by the first subsystem 28 to determine a feature state of the current exterior state of the vehicle 12; And a fifth sub that generates stimuli for the actuators 42 and / or the driver 14 of the vehicle 12 in accordance with the output signals of the second, third and fourth subsystems 30, 32, 36. Provided is a driver assistance system having systems 38 and 40.

Figure R1020060077648

Vehicle, environment, first interface, second interface, first subsystem, second subsystem, driver, third subsystem, fourth subsystem, actuator, fifth subsystem.

Description

운전자 지원 시스템{DRIVER ASSISTANCE SYSTEM}Driver Assistance System {DRIVER ASSISTANCE SYSTEM}

본 발명의 또 다른 측면과 장점은 첨부 도면에 대한 종속항 및 본 발명의 실시예의 설명에 의해 더욱 명백해 질 것이다. Further aspects and advantages of the present invention will become more apparent from the accompanying claims and the description of the embodiments of the present invention.

도 1은 본 발명에 의한 운전자 지원 시스템의 일실시예의 기능 블록도이다.1 is a functional block diagram of an embodiment of a driver assistance system according to the present invention.

도 2는 도 1의 실시예의 정보 융합, 경관 표현 및 해석 서브 시스템의 상세 도면이다.2 is a detailed diagram of the information fusion, landscape representation, and interpretation subsystem of the embodiment of FIG.

* 도면의 주요 부분에 대한 부호의 설명 *Explanation of symbols on the main parts of the drawings

10: 차량의 환경 12: 차량10: environment of the vehicle 12: vehicle

14: 운전자 16: 승객14: Driver 16: Passenger

18: 외부 센싱용 선연산 유니트 20: 내부 센싱용 선연산 유니트18: Pre-operation unit for external sensing 20: Pre-operation unit for internal sensing

22: 외부 센싱 24: 내부 센싱22: external sensing 24: internal sensing

26: 정보 융합 모듈 28: 경관 표현 모듈26: information fusion module 28: landscape representation module

30: 차량 모델 서브 시스템 32: 운전자 모델 서브 시스템30: vehicle model subsystem 32: driver model subsystem

34: 인간-기계 인터페이스(HMI) 36: 경관 해석 모듈34: Human-machine interface (HMI) 36: landscape analysis module

38: 행동 선택/결합 서브 시스템 40: 행동 생성 모듈38: Behavior Selection / Combination Subsystem 40: Behavior Generation Module

42: 차량 액추에이터 44: HMI42: vehicle actuator 44: HMI

45: 내부 승객 센싱 46: 경관 서술 모듈45: internal passenger sensing 46: landscape description module

48: 규칙 선택 모듈 50: 시각적 외부 센싱48: Rule Selection Module 50: Visual External Sensing

52: 확장 외부 센싱 54: 특성 추출 유니트52: extended external sensing 54: feature extraction unit

56: 대상물 가설 생성 58: 정보 데이터베이스56: Create Object Hypothesis 58: Information Database

60: 확장 정보 추출 62: 변환/매핑 유니트60: extension information extraction 62: conversion / mapping unit

64: 특성 바인딩 유니트 66: 대상물 가설 융합 시스템64: property binding unit 66: object hypothesis fusion system

68: 트래킹 모듈 70: 시각적 대상물 분류화68: Tracking Module 70: Visual Object Classification

72: "

Figure 112006058540114-pat00001
D-스케치" 표현 74: 2D 포인트 대상물 표현72: "
Figure 112006058540114-pat00001
D-Sketch "Representation 74: 2D point object representation

76: 주의/적절성 필터링76: attention / appropriate filtering

본 발명은 운전자 지원 시스템(driver assistance system)과 이에 상응하는 방법 및 컴퓨터 프로그램에 관한 것이다.The present invention relates to a driver assistance system and a corresponding method and computer program.

운전자 지원 시스템은 교통 관련자들의 편의성과 안전을 증대시키는 것을 목적으로 하는 차량 또는 지능형 차량 기술을 제어하는 시스템이다. 이러한 시스템의 잠재적인 응용은 차선 이탈 경고, 차선 유지, 충돌 경고 또는 방지, 적응형 크루즈 제어(adaptive cruise control) 및 혼잡한 교통 상황에서의 저속 자동화 등을 포함한다.Driver assistance systems are systems that control vehicles or intelligent vehicle technology aimed at increasing the convenience and safety of traffic personnel. Potential applications of such systems include lane departure warning, lane keeping, collision warning or prevention, adaptive cruise control, and low speed automation in crowded traffic situations.

따라서, 본 발명에 있어서의 운전자 지원 시스템은 운전자에 의해 유발되거 나 수행되는 동작을 "지원"할 뿐 아니라, 또한 차량의 제어 동작을 자발적으로 시작하거나 수행할 수 있다.Accordingly, the driver assistance system in the present invention not only "supports" the actions caused or performed by the driver, but also can voluntarily start or perform the control operation of the vehicle.

일반적으로 상기 언급한 모든 응용 분야들은 이미 다수의 별도의 센서들과 센서를 제어하고 센서 데이터를 분석하고 적절한 출력 신호를 생성하는 전자 제어 유니트(electronic control units, ECUs)들을 필요로 하고 있다. 예를 들면, 레이더(RADAR, RAdio Detecting And Ranging) 및 리다(LIDAR, LIght Detecting And Ranging) 센서들은 감지되는 물체까지의 거리를 정확하게 측정할 수 있으나, 감지되는 물체와 관련된 의미론적인(semantic) 정보(예컨대, 차량이 어느 차선에 위치하는가, 어떤 종류의 물체가 감지되고 있는가)를 제공할 수는 없다. 이러한 정보는 비디오 카메라나 카메라에 의해 별도로 수집되어야 한다.In general, all the above mentioned applications already require a number of separate sensors and electronic control units (ECUs) to control the sensors, analyze the sensor data and generate the appropriate output signals. For example, radar (RAdio Detecting And Ranging) and LIDAR (Light Detecting And Ranging) sensors can accurately measure the distance to an object being detected, but can be used for semantic information related to the object being detected. For example, it is not possible to provide which lane the vehicle is located and what kind of object is being sensed. This information must be collected separately by the video camera or camera.

안전성을 증대시키고 운전자와 승객들에게 새로운 편의 기능을 지원하기 위한 경향이 증대됨에 따라, 현대적인 차량에 있어서는 응용 분야의 숫자뿐 아니라 각각의 응용 분야의 복잡성이 증가하고 있으며 미래에는 더욱 증가하게 될 것이다. 기본적으로, 다수의 센서 시스템을 구비하는 차량은 그에 상응하는 숫자의 전자 제어 유니트(ECU)를 의미하는데, 이들 전자 제어 유니트 모두는 다른 것들과는 독립적으로 자신의 작업을 수행한다.As the trend towards increased safety and support for new convenience features for drivers and passengers increases, the complexity of each application, as well as the number of applications in modern vehicles, will increase further in the future. . Basically, a vehicle with multiple sensor systems means a corresponding number of electronic control units (ECUs), all of which carry out their work independently of the others.

예컨대, 캔-버스(CAN(Controller Area Network)-bus) 등과 같이 차량 내에 버스 시스템(bus system)을 구비하는 기술이 알려져 있는데, 캔-버스에는 거의 대부분 또는 모든 전자 제어 유니트(ECUs)들이 연결된다. 캔-버스는 연결된 전자 제어 유니트들 사이에서 데이터를 교환할 수 있도록 해 준다. 그러나, 단순히 다수의 센서 및/또는 어플리케이션을 함께 추가하고 하나의 버스에 이들을 서로 연결시키는 것은 신뢰성 또는 안정성 및 견고성(robustness) 등과 같은 관점에서 볼 때 매우 단순한 형태만을 만족시키는 운전자 지원 시스템이 구현된다는 점이 판명되었다. For example, a technique is known in which a bus system is provided in a vehicle such as a controller area network (CAN) bus, and almost all or all electronic control units (ECUs) are connected to the can bus. . The canvas allows the exchange of data between connected electronic control units. However, simply adding multiple sensors and / or applications together and interconnecting them on a single bus means that a driver assistance system can be implemented that satisfies a very simple form in terms of reliability or stability and robustness. It turned out.

그럼에도 불구하고, 안정성을 더욱 증대시키고 더욱 많은 편의성을 제공하는 동시에 이러한 새롭고 및/또는 개선된 안전성 및 편의성 특성을 전개하기 위한 비용을 제한하는 것을 목적으로 한다. 따라서, 현재까지의 별도 분리된 센서 시스템을 차량을 능동적으로 제어할 수 있는 단일 정보 시스템으로 통합하는 것이 요망되고 있다.Nevertheless, it is aimed at limiting the costs for deploying these new and / or improved safety and convenience features while further increasing stability and providing more convenience. Thus, there is a desire to integrate separate, separate sensor systems to date into a single information system capable of actively controlling a vehicle.

종래 기술의 문제점Problems of the Prior Art

그러나, 이러한 행동 생성(behaviour generation)에 대한 일반적인 모델은 아직 알려져 있지 않다. 종래의 운전자 지원 시스템은 특정한 어플리케이션용으로만 특별히 구현된 하나 또는 다수의 센서와 이에 수반하는 센서 데이터 처리 과정을 구비한다. 또 다른 어플리케이션을 구현하기 위해서는, 반드시 시스템을 재구성해야만 한다.However, a general model for this behavior generation is not yet known. Conventional driver assistance systems have one or more sensors and accompanying sensor data processing procedures that are specifically implemented only for specific applications. To implement another application, the system must be reconfigured.

상기한 바와 같은 관점에서, 본 발명은 용이하게 적응될 수 있도록 유연성 있는 구조에 기반을 둔 운전자 지원 시스템을 제공하는 것을 목적으로 한다. In view of the foregoing, it is an object of the present invention to provide a driver assistance system based on a flexible structure that can be easily adapted.

또한, 본 발명은 종래의 시스템과 비교해 볼 때 안전성 및 편의성에 있어서의 의미 있는 개선 사항을 제공하는 운전자 지원 시스템을 제공하는 것을 또 다른 목적으로 한다.It is a further object of the present invention to provide a driver assistance system which provides a significant improvement in safety and convenience compared to conventional systems.

또한, 본 발명은 예컨대 에너지 소비, 연산 능력 및 공간 등과 같이 제한된 자원(resource)을 공유할 수 있도록 하는 운전자 지원 시스템 또는 그 방법을 제공하는 것을 또 다른 목적으로 한다.It is still another object of the present invention to provide a driver assistance system or method that enables sharing of limited resources, such as energy consumption, computing power and space, for example.

또한, 본 발명은 강인한 예측능력을 제공하고 복잡한 행동을 가능하게 하는 운전자 지원 시스템을 제공하는 것을 또 다른 목적으로 한다.It is yet another object of the present invention to provide a driver assistance system that provides robust predictive capability and enables complex behavior.

본 발명의 또 다른 목적은 예컨대 센서의 측면, 새로운 어플리케이션 또는 개선된 내부 연산 유니트 등과 같은 새로운 구성 요소를 용이하게 통합할 수 있도록 하는 모듈화된(modular) 구조 개념을 제공하는 것이다.It is yet another object of the present invention to provide a modular structure concept that allows for easy integration of new components such as, for example, aspects of sensors, new applications or improved internal computing units.

본 발명의 또 다른 목적은 실시간 제어 및 행동 선택을 가능하게 하는 운전자 지원 시스템을 제공하는 것이다.It is yet another object of the present invention to provide a driver assistance system that enables real time control and action selection.

상기한 목적들은 첨부된 독립항들의 특징에 의해 달성된다. 유리한 특징들은 종속항에 정의되어 있다.The above objects are achieved by the features of the appended independent claims. Advantageous features are defined in the dependent claims.

본 발명의 제1 측면에 의하면, 차량의 환경으로부터 수신되는 외부 신호들을 센싱하는 제1 인터페이스와, 차량의 내부 신호들을 센싱하는 제2 인터페이스를 구비하는 운전자 지원 시스템이 제공된다. 또한, 제1 인터페이스와 제2 인터페이스의 출력 신호들을 융합하여 차량의 환경에 대한 설명과 차량의 내부 신호들을 생성하는 제1 서브 시스템이 제공된다. 제2 서브 시스템은 제1 서브 시스템의 출력 신호들을 수신하여 차량의 현재 상태를 모델링한다. 제3 서브 시스템은 운전자의 행동 을 모델링하기 위한 것이다. 제4 서브 시스템은 제1 서브 시스템에 의해 설명되는 현재 경관(scene)을 해석하여 차량의 현재 외부 상황에 대한 특성 상태를 결정하도록 구성된다. 제1, 제2, 제3 및 제4 서브 시스템의 출력 신호들에 따라 차량의 액추에이터들 및/또는 운전자에 대한 자극들을 생성하는 제5 서브 시스템이 제공된다.According to a first aspect of the present invention, there is provided a driver assistance system having a first interface for sensing external signals received from an environment of a vehicle and a second interface for sensing internal signals of the vehicle. Also provided is a first subsystem for fusing output signals of a first interface and a second interface to produce a description of the environment of the vehicle and to generate internal signals of the vehicle. The second subsystem receives the output signals of the first subsystem to model the current state of the vehicle. The third subsystem is for modeling the driver's behavior. The fourth subsystem is configured to interpret the current scene described by the first subsystem to determine a characteristic state for the current exterior situation of the vehicle. A fifth subsystem is provided for generating stimuli for actuators and / or drivers of a vehicle in accordance with output signals of the first, second, third and fourth subsystems.

제5 서브 시스템은 현재 경관에 따라 추가 교통 규칙을 사용하도록 구성될 수 있다.The fifth subsystem may be configured to use additional traffic rules depending on the current landscape.

제5 서브 시스템은 생성된 자극들과 관련된 특정 정보를 나타내는 신호를 제4 서브 시스템으로 피드백하도록 구성될 수 있다. 제4 서브 시스템은 제5 서브 시스템의 피드백 신호에 따라 현재 경관을 해석하도록 구성될 수 있다.The fifth subsystem may be configured to feed back a signal indicative of specific information related to the generated stimuli to the fourth subsystem. The fourth subsystem may be configured to interpret the current landscape according to the feedback signal of the fifth subsystem.

본 발명의 다른 측면에 의하면, 차량의 환경으로부터 수신되는 외부 신호들을 센싱하는 제1 인터페이스와, 차량의 내부 신호들을 센싱하는 제2 인터페이스를 구비하는 운전자 지원 시스템이 제공된다. 또한, 제1 인터페이스와 제2 인터페이스의 출력 신호들을 융합하여 차량의 환경에 대한 설명과 차량의 내부 신호들을 생성하는 제1 서브 시스템이 제공된다. 제2 서브 시스템은 제1 서브 시스템의 출력 신호들을 수신하여 차량의 현재 상태를 모델링하기 위한 것이며, 제3 서브 시스템은 운전자의 행동을 모델링하기 위한 것이다. 제1 서브 시스템에 의해 설명되는 현재 경관을 해석하고 제2 및 제3 서브 시스템의 출력 신호들에 따라 차량의 액추에이터들 및/또는 운전자에 대한 자극들을 생성하는 제4 서브 시스템이 제공된다.According to another aspect of the present invention, a driver assistance system having a first interface for sensing external signals received from an environment of a vehicle and a second interface for sensing internal signals of the vehicle are provided. Also provided is a first subsystem for fusing output signals of a first interface and a second interface to produce a description of the environment of the vehicle and to generate internal signals of the vehicle. The second subsystem is for modeling the current state of the vehicle by receiving the output signals of the first subsystem and the third subsystem is for modeling the driver's behavior. A fourth subsystem is provided that interprets the current landscape described by the first subsystem and generates stimuli for the actuators and / or the driver of the vehicle in accordance with the output signals of the second and third subsystems.

제4 서브 시스템은 현재 경관에 따라 추가 교통 규칙을 사용하도록 구성될 수 있다.The fourth subsystem may be configured to use additional traffic rules depending on the current landscape.

제4 서브 시스템은 외부 경관에 대한 개괄적(global) 서술을 제공하는 경관 서술 서브 시스템(scene description subsystem)을 구비할 수 있는데, 경관 서술 서브 시스템은 차량의 현재 외부 상황의 특징적인 특성을 나타내는 제1 서브 시스템의 출력 신호에 의해 개괄적 경관을 결정하고 결정된 개괄적 경관을 나타내는 신호를 출력하도록 구성된다. 차량의 액추에이터들 및/또는 운전자들에 대해 자극들을 생성하는 서브 시스템이 경관 서술 서브 시스템의 출력 신호에 따라 상기 자극들을 생성하도록 구성될 수 있다.The fourth subsystem may have a scene description subsystem that provides a global description of the exterior landscape, wherein the landscape description subsystem may be configured to represent a characteristic characteristic of the current exterior situation of the vehicle. Determine the general landscape by the output signal of the subsystem and output a signal indicative of the determined general landscape. A subsystem for generating stimuli for actuators and / or drivers of the vehicle may be configured to generate the stimuli in accordance with the output signal of the landscape description subsystem.

경관 서술 서브 유니트는 그 출력 신호를 교통 규칙 선택에 제공할 수 있다.The landscape description subunit may provide its output signal to the traffic rule selection.

제4 서브 시스템은 제3 서브 시스템에 대한 자극 또한 생성하도록 구성될 수 있다. 제3 서브 시스템은 제4 서브 시스템의 입력 신호와 운전자의 행동을 나타내는 인간 기계 인터페이스(human machine interface)로부터의 입력 신호에 따라 운전자의 행동을 모델링하도록 구성될 수 있다.The fourth subsystem can be configured to also generate a stimulus for the third subsystem. The third subsystem may be configured to model the driver's behavior according to the input signal of the fourth subsystem and an input signal from a human machine interface representing the driver's behavior.

액추에이터 및/또는 운전자에 대한 자극을 생성하는 서브 시스템은 승객 모니터링으로부터의 입력 신호에 따라 상기 자극들을 더 생성하도록 구성될 수 있다.The subsystem for generating a stimulus for the actuator and / or the driver may be configured to further generate the stimuli in accordance with an input signal from passenger monitoring.

제1 서브 시스템은 대상물의 물리적 서술(physical object description)을 나타내는 출력 신호를 행동 생성 서브 시스템에 제공할 수 있다.The first subsystem may provide an output signal indicative of the physical object description of the object to the behavior generation subsystem.

제1 서브 시스템은 제1 인터페이스에 의해 전달되는 센서 데이터를 선연산하는 정보 추출 및 데이터 매핑 모듈과, 제1 및 제2 인터페이스의 출력 신호들이 의미하는 정보를 융합하는 정보 융합 모듈과, 대상물을 연관된 속성 및 성질과 함께 저장하는 정보 데이터베이스와, 외부 경관을 표현하는 경관 표현 모듈을 구비할 수 있다.The first subsystem includes an information extraction and data mapping module for pre-computing sensor data delivered by the first interface, an information fusion module for fusing information meant by output signals of the first and second interfaces, and an object. It may be provided with an information database for storing the attributes and properties, and a landscape expression module for expressing the external landscape.

정보 융합 모듈은 결정된 대상물을 나타내는 대상물 신호를 정보 데이터베이스에 제공할 수 있고, 정보 데이터베이스는 대상물 신호에 따라 결정된 대상물의 속성 및/또는 성질을 나타내는 속성 신호를 경관 표현 모듈에 제공할 수 있다.The information fusion module may provide an object signal indicative of the determined object to the information database, and the information database may provide an attribute signal indicative of the attribute and / or property of the object determined according to the object signal to the landscape representation module.

정보 융합 모듈은 제1 인터페이스의 출력에서 추출된 특징으로부터 가설 대상물 성질(hypothetical object properties)들을 결정하는 특징 서브 모듈을 구비할 수 있으며, 대상물에 대한 특징을 바인딩(binding)하고 대상물을 트래킹(tracking)하기 위한 대상물 서브 모듈을 더 구비할 수 있다.The information fusion module may have a feature submodule that determines hypothetical object properties from the feature extracted at the output of the first interface, binding the feature to the object and tracking the object. It may further comprise an object sub-module for.

정보 데이터베이스는 결정된 대상물의 가능한 움직임(motion)에 대한 제한 조건을 정보 융합 모듈의 트래킹 모듈에 제공하여, 대상물 트래킹 과정에서의 불명료함을 감소시킬 수 있다. 또한, 정보 데이터베이스의 출력 신호는 적절한 움직임 모델을 선택하기 위한 정보를 대상물 트래킹 모듈에 제공할 수 있다.The information database can provide the tracking module of the information fusion module with constraints on the determined possible motion of the object, thereby reducing ambiguity in the object tracking process. In addition, the output signal of the information database can provide the object tracking module with information for selecting an appropriate motion model.

특징 서브 모듈은 개괄적 경관 정보를 나타내는 신호를 경관 표현 모듈에 제공할 수 있는데, 경관 표현 모듈은 개괄적 경관 정보에 근거하여 제한 조건을 결정하도록 구성될 수 있다.The feature submodule may provide a signal representing the general landscape information to the landscape expression module, wherein the landscape expression module may be configured to determine the constraint condition based on the general landscape information.

운전자의 행동을 모델링하는 제3 서브 시스템은 일반적인 매핑 구성에 관련된 입력 신호를 경관 표현 모듈에 제공할 수 있다.The third subsystem for modeling the driver's behavior may provide an input signal related to the general mapping configuration to the landscape representation module.

상기 설명한 바와 같은 본 발명의 모든 측면에 의한 시스템에 있어서 차량이 구비된 시스템이 제안된다.In a system according to all aspects of the invention as described above, a system equipped with a vehicle is proposed.

본 발명의 또 다른 측면에 의하면, 차량의 운전자를 지원기 위한 방법이 제안되는데, 이러한 방법의 특징 및 장점은 상기 설명한 바와 같은 본 발명에 의한 시스템의 특징 및 장점에 기인한다.According to another aspect of the present invention, a method for supporting a driver of a vehicle is proposed, which is characterized by the features and advantages of the system according to the invention as described above.

본 발명의 또 다른 측면에 의하면, 현재 시나리오의 현재 문맥에 적절한 대상물 표현들에 집중할 수 있도록 표현된 경관을 필터링하는 방법이 제안된다.According to another aspect of the present invention, a method of filtering the expressed landscape is proposed to focus on object representations appropriate to the current context of the current scenario.

본 발명의 또 다른 측면에 의하면, 상기 설명한 바와 같은 방법을 구현한 컴퓨터 소프트웨어 프로그램 제품이 제안된다.According to another aspect of the present invention, a computer software program product implementing the method as described above is proposed.

프로그램 제품은 차량의 프로그래머블 장치로 플래쉬(flashing)되도록 구성된 펌웨어(firmware)를 구비할 수 있다.The program product may have firmware configured to flash with a programmable device of the vehicle.

본 발명의 또 다른 측면에 의하면, 본 발명에 의한 컴퓨터 소프트웨어 프로그램 제품이 저장될 수 있는 예컨대 CD-ROM 또는 DVD-ROM 등과 같은 저장 장치가 제안된다.According to another aspect of the present invention, a storage device, for example a CD-ROM or a DVD-ROM or the like, in which a computer software program product according to the present invention can be stored, is proposed.

본 발명의 전반적인 측면 및 장점Overall Aspects and Advantages of the Invention

상기한 바와 같은 목적을 신뢰성있게 달성하기 위하여, 본 발명은 선험적으로(a priori) 분리된 다수의 센서 시스템을 통합하여 차량 환경의 중앙 집중형 모델을 구현하는 운전자 지원 시스템을 제안한다. 상기 모델은 서로 다른 종류의 센서들로부터 전달되는 데이터를 분석함으로써 달성된다. 공통적인 표현(common representation)은 예컨대 운전자에 대해 경고 메시지를 생성하거나 및/또는 시스템이 연결되어 있는 차량의 여러 가지 액추에이터들에 대한 명령을 제어하는 것과 같이 본 시스템의 복잡한 행동 양식을 구현하는 기초를 형성하게 된다.In order to achieve the above object reliably, the present invention proposes a driver assistance system incorporating a priori separated multiple sensor systems to implement a centralized model of the vehicle environment. The model is achieved by analyzing data from different kinds of sensors. The common representation provides the basis for implementing the complex behavior of the system, such as generating warning messages for the driver and / or controlling commands for the various actuators of the vehicle to which the system is connected. To form.

본 발명은 운전자 지원 시스템의 일반적 구조를 제안하며 이러한 점에서 특정한 종래의 센서 시스템이 별도로 서로 연결되어 있는 종래 기술과 상이하다. 본 발명에 의한 시스템에 있어서, 센서는 특정 어플리케이션에만 할당되는 것이 아니라, 여러 개의 내부 및 외부 센서들이 시스템에 통합되어 상기한 바와 같은 환경의 중앙 집중식 표현을 달성한다. 따라서, 새로운 어플리케이션이라도 특별한 변경 없이 차량의 센서 풀(pool)에 정의될 수 있다.The present invention proposes a general structure of a driver assistance system and in this respect differs from the prior art in which certain conventional sensor systems are separately connected to one another. In the system according to the invention, the sensors are not only assigned to a specific application, but several internal and external sensors are integrated into the system to achieve a centralized representation of the environment as described above. Thus, even new applications can be defined in the vehicle's sensor pool without special changes.

상기한 바로부터, 정보 융합(데이터 융합)이 진보성이 있는 운전자 지원 시스템의 중요한 측면이라는 것은 명백할 것이다. 예를 들면, 이미지 프로세싱 단계에 의해 획득된 대상물 정보는 예컨대 레이다(RADAR) 데이터와 같이 다른 센서들로부터 생성되는 데이터와 융합되어 센싱된 환경을 통합적으로 기술해야 한다.From the foregoing it will be clear that information fusion (data fusion) is an important aspect of an advanced driver assistance system. For example, the object information obtained by the image processing step should be integrated with the data generated from other sensors, such as, for example, radar (RADAR) data, to collectively describe the sensed environment.

융합 과정, 즉 경관 표현의 결과는 상징적 정보(symbolic information)에 의해 평가되고 행동이 창출된다.The result of the fusion process, or landscape expression, is evaluated by symbolic information and action is created.

본 발명에 의한 운전자 지원 시스템은 운전자와 독립적으로 동작하여 운전자에게 정보를 출력하거나 차량의 액추에이터들에 작용하므로, 본 문서 전반에 걸쳐 본 시스템을 '에이전트(agent)'라고 하는 경우도 있다.Since the driver assistance system according to the present invention operates independently of the driver and outputs information to the driver or acts on the actuators of the vehicle, the system may be referred to as an 'agent' throughout this document.

본 발명의 몇몇 장점들을 요약하면 다음과 같다.Some advantages of the present invention are summarized as follows.

운전자 지원 시스템의 구조는 환경 및 차량 자체의 상태를 중앙 집중형으로 표현하는 것에 근거한다. 따라서, 본 발명은 예컨대 에너지, 연산 능력 및 공간 등과 같은 제한된 자원(resource)을 절약하도록 한다. 이러한 자원들은 본 발명에 의한 공통적인 구조 내에 구현된 다양한 지원 기능들 사이에서 공유된다. 또한, 본 발명에 의하면, 다수의 제어 센터가 조화되거나 통합됨으로써 전체적인 시스템을 안정화시킨다.The structure of the driver assistance system is based on a centralized representation of the environment and the state of the vehicle itself. Thus, the present invention allows saving of limited resources such as energy, computing power and space, for example. These resources are shared among the various supporting functions implemented within the common structure according to the present invention. In addition, according to the present invention, multiple control centers are coordinated or integrated to stabilize the overall system.

표현(representation)은 본 발명에 의한 에이전트가 시간에 대한 다수의 정보 흐름을 통합하고 안정화하기 때문에 복잡한 또는 하이레벨의 행동을 생성하기에 적절한 형태이므로, 강인성(robustness)을 보장하게 된다.Representation is a form suitable for generating complex or high-level behavior because the agent in accordance with the present invention integrates and stabilizes multiple flows of information over time, thereby ensuring robustness.

본 발명에 의한 에이전트는 또한 하이레벨의 실시간 제어 및 행동 선택을 위한 사용가능한 정보에 대한 즉각적인 억세스를 제공한다. 경관을 모든 면에서 상세하게 해석하는 것은 기술적으로 불가능하기 때문에, 인식(perception)은 예측(prediction)에 의해 조직화되고 지원되며 이러한 방식에 의해 복잡한 행동을 가능하게 한다.Agents according to the present invention also provide immediate access to available information for high-level real-time control and action selection. Since it is technically impossible to interpret the landscape in every detail, perception is organized and supported by prediction and in this way enables complex behavior.

본 발명에 의한 모델은 구성 요소들(서브 시스템들, 모듈들, 유니트들)을 용이하게 교환할 수 있어서 최소의 비용 및 노력으로 기술적인 진보를 달성하도록 하는 개방형 모듈라(modular) 구조를 개시한다. 마지막으로 본 모델은 인간 요소(human factor) 또한 용이하게 고려할 수 있도록 한다.The model according to the invention discloses an open modular structure which allows for easy exchange of components (subsystems, modules, units) to achieve technical advances with minimal cost and effort. Finally, the model also allows for easy consideration of human factors.

도면에서 동일한 부호는 동일 또는 유사한 구성요소를 나타낸다.Like reference numerals in the drawings denote like or similar components.

도 1은 본 발명에 의한 운전자 지원 시스템의 특정 일실시예의 기능 블록도를 나타낸 것이다. 본 시스템은 환경(10), 환경(10)과 상호 작용하는 차량(12), 운전자(14) 및 잠재적인 추가 승객(16)과 연결된다.1 illustrates a functional block diagram of a particular embodiment of a driver assistance system according to the present invention. The system is connected to the environment 10, the vehicle 12 interacting with the environment 10, the driver 14 and potential additional passengers 16.

운전자 지원 시스템은 차량 내에 에이전트(agent) 즉, 차량(12)의 부품으로서 예컨대 프로그래머블 장치(programmable device)에 플래쉬(flashed)되는, 예컨 대 자율적 오퍼레이팅 소프트웨어 시스템(autonomously operating software system)(펌웨어, firmware) 등과 같은 형태로 구현될 수 있다. 상기 프로그래머블 장치는 단일 중앙 처리 장치(central processing unit)이거나 또는 차량(12) 전체에 걸쳐 분산된 복수개의 프로세서를 포함할 수 있다. The driver assistance system is for example an autonomously operating software system (firmware, flashed) as an agent in the vehicle, i.e. as part of the vehicle 12, flashed on a programmable device. It may be implemented in the form such as. The programmable device may be a single central processing unit or may include a plurality of processors distributed throughout the vehicle 12.

도 1은 본 발명에 의한 에이전트와 운전자(14) 사이의 상호 작용을 상세하게 나타낸 것이다. 간결하게 나타내기 위해, 외부 시스템이나 예컨대 차량 정비소의 서비스 요원 등과 같은 사람과의 또 다른 가능한 상호 작용은 생략되어 있다.1 illustrates in detail the interaction between the agent and the driver 14 according to the present invention. For the sake of brevity, another possible interaction with an external system or person, such as a service technician in a car shop, for example, is omitted.

우선, 본 시스템의 기능적 요소를 설명한다. 원칙적으로, 에이전트는 입력 단계(입력 데이터용 인터페이스), 연산 단계 및 출력 단계(출력 데이터용 인터페이스)를 구비한다. 2개의 선연산 유니트(pre-processing unit, 18, 20)가 입력 단계를 형성한다. 이들은 외부 센싱(22)(external sensing)(예컨대, 레이더(Radar), 리다(Lidar), 비디오, GPS, 전자 교통 보고, 차량-차량-통신, 디지털 지도 등) 및 내부 센싱(24)(internal sensing)(예컨대, 속도, 가속도, 요율(yaw-rate), 경사도(tilt), 고도 등)과 각각 연결되어 있다. 유니트(18, 20)들은 정보 융합 모듈(information fusion module, 26), 경관 표현 모듈(scene representation module, 28)과 정보 데이터베이스(knowledge database, 58)를 구비하는 운전자 지원 시스템의 제1 서브 시스템과 연결되는데, 상기 정보 데이터베이스(58)는 정보 융합 모듈(26)의 대상물(object) 정보가 제공되며 또한 경관 표현 모듈(28)로 대상물의 속성(attribute)을 출력한다.First, the functional elements of the present system will be described. In principle, the agent has an input step (interface for input data), an operation step and an output step (interface for output data). Two pre-processing units (18, 20) form the input stage. These include external sensing 22 (eg, radar, Lidar, video, GPS, electronic traffic reporting, vehicle-vehicle-communication, digital maps, etc.) and internal sensing 24 (internal sensing). ) (Eg, speed, acceleration, yaw-rate, tilt, altitude, etc.). The units 18, 20 are connected with a first subsystem of the driver assistance system comprising an information fusion module 26, a scene representation module 28 and a knowledge database 58. The information database 58 is provided with object information of the information fusion module 26 and also outputs the attribute of the object to the landscape representation module 28.

경관 표현 모듈(28)은 외부 센싱 모듈(22)에 의해 캡쳐(capture)되는 모든 적절한 대상물(및 정보 데이터베이스(58)로부터 제공되는 대상물의 속성)을 저장한다. 모든 대상물은 그 속성(예컨대, 부드럽다/딱딱하다 등과 같은 물리적 성질)에 대한 설명들의 집합과 에고-중심 차량 좌표 시스템(ego-centered vehicle coordinate-system)에 대한 상대적인 위치를 포함한다. 또한, 경관 표현 모듈(28)에는, 특정한 지역에서의 교통 혼잡 발생 등과 같이 다소 추상적인 정보뿐 아니라, 정보 융합 모듈(26)로부터 전송되는 '자동차' 또는 '보행자' 등과 같은 대상물 카테고리 관점에서의 의미론적인 정보(semantic information)들 또한 저장될 수 있다.The landscape representation module 28 stores all suitable objects (and attributes of objects provided from the information database 58) that are captured by the external sensing module 22. Every object includes a set of descriptions of its properties (eg, physical properties such as soft / hard) and its relative position to the ego-centered vehicle coordinate system. In addition, the landscape representation module 28 includes semantics in terms of object categories such as 'cars' or 'pedestrians' transmitted from the information fusion module 26, as well as somewhat abstract information such as traffic congestion in a particular area. Semantic information may also be stored.

이에 대한 상세 내용은 도 2를 참조하여 설명한다.Details thereof will be described with reference to FIG. 2.

정보 융합 모듈(26)은 선 연산 유니트(18, 20)로부터 제공되는 모든 정보를 결합하여 경관 표현 모듈(28)에 저장되는 환경에 대한 일관적인 설명을 결정한다. 경관 표현의 강인성(robustness)은 융합되는 정보의 일시적인 트래킹(tracking)에 의해 달성되는데, 이는 선 연산 모듈(18, 20)에 의해 제공되는 새로운 센서 데이터뿐 아니라 모듈(28)에 의해 전송되는 현재 이용 가능한 대상물의 설명을 필요로 한다. 따라서, 모듈(26, 28)들은 상호간에 잘 결합되어야 한다. 이에 대한 상세 설명은 도 2를 참조하여 설명한다.The information fusion module 26 combines all the information provided from the line computing units 18 and 20 to determine a consistent description of the environment stored in the landscape representation module 28. Robustness of the landscape representation is achieved by temporary tracking of the information being fused, which is the current use transmitted by module 28 as well as the new sensor data provided by line computing modules 18 and 20. Need explanation of possible objects. Thus, modules 26 and 28 should be well coupled to each other. Detailed description thereof will be described with reference to FIG. 2.

내부적으로 선연산된 센싱 신호들은 제2 서브 시스템 즉, 차량 모델 서브 시스템(vehicle model subsystem, 30)으로도 제공된다.Internally pre-computed sensing signals are also provided to a second subsystem, the vehicle model subsystem 30.

차량 모델 서브 시스템(30)은 모듈(24)로부터 전송되는 내부 측정치들에 근거하여 차량의 내부 상태를 평가(estimate)하도록 구성된 것이다. 이것은 내부 센 서 일부가 고장나는 경우, 강인 상태 평가(robust state estimates)를 생성하기 위한 상태-공간 관찰자(state-space observer)(예컨대, 칼만-필터(Kalman-Filter))로서의 역할을 주로 수행한다. 또한, 차량 모델 서브 시스템(30)은 에이전트로 그 자신의 물리적 역학 정보를 제공하는데, 이러한 정보에 의해 행동 선택 모듈(38)은 물리적 제한 조건에 따라 예정된 행동이 수행될 수 있는가를 결정할 수 있게 된다.Vehicle model subsystem 30 is configured to estimate the internal condition of the vehicle based on internal measurements transmitted from module 24. It primarily acts as a state-space observer (eg, Kalman-Filter) to generate robust state estimates if some of the internal sensors fail. . In addition, the vehicle model subsystem 30 provides its own physical dynamics information to the agent, which allows the behavior selection module 38 to determine whether the scheduled behavior can be performed according to physical constraints.

예를 들어, 중요한 평가 중의 하나는 차량의 질량(mass)인데 이는 많은 승객들을 수송할 때 달라질 수 있는 것이다. 차량의 질량은 가능한 가속 및 감속에 많은 영향을 미치게 되므로 충돌 예방 조작(collision avoidance manoeuvre)에 있어서 고려해야 한다.For example, one of the important assessments is the mass of a vehicle, which can vary when carrying many passengers. The mass of the vehicle will have as much influence on the possible accelerations and decelerations and must be taken into account in collision avoidance manoeuvre.

제3 서브 시스템에 있어서, 운전자 모델 서브 시스템(32)은 운전자(14)에 의해 조작되는 인간-기계 인터페이스(human-machine interface,HMI,34)에 연결된다.In the third subsystem, the driver model subsystem 32 is connected to a human-machine interface (HMI) 34 operated by the driver 14.

운전자 모델 서브 시스템(32)은, 인간-기계 인터페이스(HMI, 34)로부터의 운전자의 행동과, 모듈(36)에 의해 해석된 현재 경관을 관찰함으로써 운전자의 의도(intention)를 결정하는 역할을 수행한다. 이러한 의도는 예컨대 회전 신호가 동작되고 경관 해석 모듈에 의해 해당 방향에 장애물이 없는 것으로 탐지된 경우, 차선-변경 조작을 수행하도록 차선-유지/차선-벗어남 경고를 위한 측면 제어가 비활성화되어야 하는 등과 같이, 모듈(38)에서의 행동 선택 과정 중에 있어서 최적 행동을 선택하는데 중요한 것이다.The driver model subsystem 32 serves to determine the driver's intention by observing the driver's behavior from the human-machine interface (HMI) 34 and the current landscape as interpreted by the module 36. do. This intention, for example, requires that side control for lane-keep / lane-off warnings be deactivated to perform a lane-change operation if a turn signal is detected and detected by the landscape analysis module that there are no obstacles in that direction. This is important for selecting the optimal behavior during the behavior selection process in module 38.

경관 표현 모듈(28)은 행동 선택/결합 서브 시스템(action selection/combination subsystem, 38)과 연결되는 경관 해석 모듈(scene interpretation module, 36)에 연결된다. 이 서브 시스템(38)은 주로 (로우-레벨) 행동 생성 모듈(behaviour generation module, 40)을 구비하는 에이전트의 출력 단계와 연결되는데, 상기 (로우-레벨) 행동 생성 모듈(40)은 예컨대 쓰로틀(throttle), 브레이크, 기어-쉬프팅(gear-shifting), 스티어링(steering)을 위한 액추에이터(actuator) 및 에어백(airbag)이나 벨트-프리텐셔너(belt-pretensioner) 등의 안전 액추에이터 등과 같은 차량 액추에이터(42)와 연결된다.Scenery representation module 28 is coupled to a scene interpretation module 36 that is coupled to an action selection / combination subsystem 38. This subsystem 38 is primarily connected to the output stage of the agent with a (low-level) behavior generation module 40, which (low-level) behavior generation module 40 is for example a throttle ( vehicle actuators 42 such as throttles, brakes, gear-shifting, actuators for steering and safety actuators such as airbags or belt-pretensioners, and the like. Connected.

경관 해석 모듈(36)은 감지된 대상물에 대해 모듈(28)에 의해 표현된 경관을 분석한다. 예를 들면, 경관 해석 모듈(36)은 감지된 차선-경계(lane-border)에 근거한 차선 정보를 생성하고 정확한 차선으로 교통 신호를 할당한다. 또한, 예컨대 차선 내에서 전방의 최근접 차량 등과 같은 적절한 대상물을 결정한다. 경관 해석 모듈(36)은 또한 현재의 작업에 따라 적절성 필터링 과정(relevance filtering process)을 가이드하여 인식(perception)을 조직화하고 예측(prediction)을 지원하게 한다.The landscape analysis module 36 analyzes the landscape represented by the module 28 on the detected object. For example, landscape analysis module 36 generates lane information based on the detected lane-border and assigns traffic signals to the correct lane. It also determines the appropriate object, for example, the nearest vehicle ahead in the lane. The landscape analysis module 36 also guides the relevance filtering process in accordance with current work to organize perception and support prediction.

다음으로, 도 1에 도시한 운전자 지원 시스템 내에서의 정보 처리 과정을 설명한다. 차량의 내부 상태를 센싱하는 센서(24)는 속도, 가속도, 요율(yaw-rate), 경사도 등에 대한 센서들을 구비할 수 있다. 센서 데이터는 적절한 HMI(44)를 통해 운전자에게도 전달된다.Next, the information processing process in the driver assistance system shown in FIG. 1 is demonstrated. The sensor 24 sensing the internal state of the vehicle may include sensors for speed, acceleration, yaw rate, and inclination. Sensor data is also communicated to the driver via an appropriate HMI 44.

HMI(44)는 행동 선택/결합 시스템(38)으로부터의 경고 또한 운전자(14)에게 알려줄 수 있다.The HMI 44 may also inform the driver 14 of a warning from the behavior selection / combination system 38.

예컨대, 차량의 바퀴 각각의 속도 등과 같이 더욱 상세한 정보가 지원 시스 템으로 제공될 수 있다. 선연산 모듈(20)은 입력되는 센서 정보를 일시적으로 안정화하고(temporal stabilization) 평탄화하는(smoothing) 유니트로서의 역할을 수행한다. 또한, 선연산 모듈(20)은 그 다음의 정보 융합 과정에 맞도록 센서 정보를 구성한다. 예를 들면, 에이전트의 연산 단계의 시간 단계 구조(time step scheme)에 맞도록 정보를 구성할 수 있다.For example, more detailed information may be provided to the support system, such as the speed of each wheel of the vehicle. The pre-computation module 20 serves as a unit for temporarily stabilizing and smoothing input sensor information. In addition, the pre-computation module 20 configures the sensor information for the next information fusion process. For example, the information may be configured to match the time step scheme of the computational step of the agent.

차량의 환경(10)을 센싱하는 센서(22)들은 예컨대 비디오, 레이다(RADAR) 및 리다(LIDAR) 데이터 등을 전달할 수 있다. 또한, 라디오 정보, 차량-차량-통신 또는 전자 지도를 통해 캡쳐되는 데이터들도 적절한 장치들에 의해 전달될 수 있다. 선연산 유니트(18)는 센서 데이터를 선연산하도록 구성된 다수의 서로 다른 과정들을 포함한다. 2개의 유니트(18,20)는 선연산된 데이터를 외부 및 내부 데이터가 융합되는 정보 융합 모듈(26)로 전달한다. 데이터의 융합에는 뉴럴 네트워크(neural network)가 사용될 수 있다.Sensors 22 that sense the environment 10 of the vehicle may, for example, carry video, radar and lidar data. In addition, data captured via radio information, vehicle-vehicle-communication or electronic maps may also be delivered by appropriate devices. The pre-computation unit 18 includes a number of different processes configured to pre-compute sensor data. The two units 18 and 20 deliver the pre-computed data to the information fusion module 26 where the external and internal data are fused. A neural network may be used for data fusion.

융합 과정에 의해 생성된 데이터는 경관 표현 모듈(28)로 전달되는데 여기에서는 차량(12)의 환경을 나타내는 경관이 결정된다. 경관(scene)은 예컨대 교통 상황을 나타낼 수 있다. 일반적으로 경관 표현(scene representation)은 예컨대 자동차, 모터사이클 및/또는 보행자 등과 같이 탐지된 대상물과, 예컨대 거리, 식물 및/또는 하늘 등과 같은 것으로 구성되는 배경(background)을 포함한다. 정보 융합 및 경관 표현에 대한 더욱 상세한 설명은 도 2를 참조하여 이하에서 설명할 것이다.The data generated by the fusion process is passed to the landscape representation module 28, where the landscape representing the environment of the vehicle 12 is determined. A scene can, for example, represent a traffic situation. Scene representations generally include a background composed of detected objects such as, for example, cars, motorcycles and / or pedestrians, and the like such as streets, plants and / or the sky. A more detailed description of information fusion and landscape representation will be described below with reference to FIG. 2.

경관 표현과 관련된 데이터는 또한, 예컨대 추후의 시간 단계에서의 예측 등 을 지원하는 정보 융합 모듈(26)로 피드백(feedback)으로서 전달된다.Data associated with the landscape representation is also conveyed as feedback to the information fusion module 26 which supports, for example, prediction at a later time step.

본 발명에 의하면, 인식(perception)은 예측(prediction)에 의해 조직화되고 지원된다. 운전자 서브 시스템(32)은 운전자(14)로부터 HMI(34)를 통해 데이터를 수신한다. 따라서, 모듈(32)은 예를 들면 다차선 도로(아우토반(Autobahn,...))에서의 계획된 차선 변경 조작 등과 같은 운전자의 의도를 결정하고 예측할 수 있다. 또한, 운전자-또는 승객-와 관련된 데이터는 차량(12)의 내부 센싱(45)으로부터 수신된다. 특히, 내부 센싱(45)은 운전자의 눈을 관찰하기 위한 카메라를 구비할 수 있다. 운전자 모델 서브 시스템(32) 내에서, 시각적 데이터는 기타 다른 데이터들과 함께, 예컨대 운전자가 깨어 있는지/졸고 있는지를 평가하는 것과 같이 운전자의 상태를 추론할 수 있도록 한다. 운전자 모델(32)은 이하에서 설명하는 바와 같이, 에이전트에서 이용될 수 있도록 운전자의 상태를 결정하고 표현한다.According to the present invention, perception is organized and supported by prediction. The driver subsystem 32 receives data from the driver 14 via the HMI 34. Thus, the module 32 may determine and predict the driver's intention, for example, a planned lane change operation on a multi-lane road (Autobahn, ...). The driver- or passenger-related data is also received from the internal sensing 45 of the vehicle 12. In particular, the internal sensing 45 may include a camera for observing the driver's eyes. Within the driver model subsystem 32, the visual data, along with other data, allows for inferring the driver's condition, such as evaluating whether the driver is awake / sleeping. The driver model 32 determines and expresses the driver's state for use by the agent, as described below.

경관 표현(28)의 데이터는 경관 해석 모듈(36) 내에서 추가 처리된다.The data of the landscape representation 28 is further processed within the landscape analysis module 36.

경관 해석 모듈(36)은 운전자 모델 서브 시스템(32)으로 신호들을 출력한다. 적절한 데이터는 예컨대, 소정의 최소값 이하에 속하는 다른 대상물(다른 차량)에 대한 거리 또는 소정의 값 이상의 차량의 (상대) 속도 등과 같은 것들에 대한 구문의 표현(representation of statements)을 포함할 수 있다.The landscape analysis module 36 outputs signals to the driver model subsystem 32. Appropriate data may include, for example, a representation of statements for things such as a distance to another object (another vehicle) that falls below a predetermined minimum value or (relative) speed of the vehicle above a predetermined value, and the like.

또한, 경관 해석 모듈(36)은 신호들을 (개괄적(global)) 경관 서술 모듈(scene description module, 46)로 제공한다. 여기에서, 개괄적 시나리오 또는 경관 서술이 기록된다. 가장 중요한 시나리오는 각각 '도시(urban)' 또는 부도심(extra-urban), "시골(rural)" 환경들과 관련된다. 부가적으로 또는 이를 대신하 여, '고속도로(Freeway)' 및 '간선도로(Highway)' 등과 같은 시나리오가 포함될 수도 있다. 선연산 모듈(18)로부터 추출된 개괄적 특징들은 경관 서술 모듈(46)로 직접 전달된다. The landscape analysis module 36 also provides signals to a (global) scene description module 46. Here, an overview scenario or landscape description is recorded. The most important scenarios relate to 'urban' or extra-urban, "rural" environments, respectively. Additionally or alternatively, scenarios such as 'Freeway' and 'Highway' may be included. The general features extracted from the precomputation module 18 are passed directly to the landscape description module 46.

경관 해석 모듈(36)로부터의 데이터는 모듈(28)로 피드백되어, 예컨대 현재 상황에서의 적절한 대상물에 집중할 수 있도록, 표현된 시나리오에서의 의도/적절성 필터링 과정(intention/relevance filtering process)을 가이드한다.Data from the landscape analysis module 36 is fed back to the module 28 to guide the intention / relevance filtering process in the presented scenario, for example to focus on the appropriate object in the current situation. .

경관 묘사 모듈(46)로부터, 데이터는 (교통) 규칙-선택 모듈(48)로 전달된다. 데이터는 예컨대 감지된 하나의 교통 신호 또는 교통 신호들의 복합체와 관련된 데이터 등과 같이, 경관 해석 모듈(36)로부터 전송된 데이터를 포함할 수도 있다. 모듈(48)은 개괄적 경관 서술의 표현뿐 아니라 교통 신호 리스트 및 기타 교통 규칙들을 구비하는데, 상기 리스트 내의 각각의 엔트리(entry)는 예컨대 최대 속도, 차선 변경, 주차 금지 등과 같은 규칙과 관련된 하나 또는 그 이상의 교통 규칙을 지시한다. 경관 내에서 모든 종류의 규칙을 개괄적 경관 및/또는 대상물로 할당하는 것은 규칙 선택 모듈(48)로서 구현될 수 있다.From the landscape depiction module 46, the data is passed to the (traffic) rule-selection module 48. The data may include data transmitted from the landscape analysis module 36, such as data associated with one sensed traffic signal or a complex of traffic signals, for example. Module 48 has a traffic signal list and other traffic rules as well as a representation of the general landscape description, each entry in the list being one or more related to rules such as, for example, maximum speed, lane changes, no parking, etc. Instruct the above traffic rules. Allocating all kinds of rules within the landscape to the general landscape and / or objects may be implemented as rule selection module 48.

에이전트의 서브 시스템(38)은 다수의 서브 시스템 및 모듈들로부터의 데이터를 수집한다. 차량 모델(30)은 차량(12)의 결정된 상태와 관련된 데이터를 전달한다. 운전자 모델(32)은 운전자(14)의 상태와 관련된 데이터를 전달한다. 경관 해석 모듈(36)은 표현된 경관의 상태 변수들과 관련된 데이터를 전달한다. 경관 서술 모듈(46)은 개괄적 시나리오 및 날씨 상태와 관련된 데이터를 전달한다. 규칙 선택 모듈(48)은 차량(12) 또는 운전자(14)의 미래 행동에 대한 적절한 교통 규칙과 관 련된 데이터를 전달한다. 서브 시스템(38)은 취해야 할 행동을 정의하고 가능한 한 예컨대 안전성 등과 관련된 소정 기준에 따라 요구되는 행동을 랭크(rank)시킬 수 있도록 데이터를 해석해야 한다. 관련 데이터는 경관 해석 모듈(36)로도 피드백된다.The agent's subsystem 38 collects data from multiple subsystems and modules. Vehicle model 30 conveys data related to the determined state of vehicle 12. The driver model 32 conveys data related to the state of the driver 14. The landscape analysis module 36 delivers data related to the state variables of the expressed landscape. The landscape description module 46 conveys data related to general scenarios and weather conditions. The rule selection module 48 conveys data related to appropriate traffic rules for the future behavior of the vehicle 12 or the driver 14. The subsystem 38 should interpret the data to define the actions to be taken and to rank the required actions as much as possible according to certain criteria, such as for example safety. The relevant data is also fed back to the landscape analysis module 36.

서브 시스템(38)은 운전자에 대하여 HMI(44)를 통해 출력되는 경고 메시지를 생성할 수 있다. 적절한 인터페이스는 예컨대 LED, 디스플레이 또는 프론트 쉴드(front shield)로의 숫자 또는 문자의 출력 또는 음성 메시지 등과 같은 시각적 또는 청각적 인터페이스를 포함할 수 있다. The subsystem 38 may generate a warning message output through the HMI 44 to the driver. Suitable interfaces may include, for example, visual or audio interfaces such as the output of numbers or letters or voice messages to LEDs, displays or front shields.

다음으로, 취해야 할 하나 또는 그 이상의 행동과 관련된 데이터는 에이전트의 출력 단계인 행동 생성 모듈(40)로 전달되는데, 행동 생성 모듈(40)에는 ACC, 차선-유지 또는 충돌 방지 기능 등과 같은 운전자-지원 모듈이 위치한다. 대상물의 물리적 설명과 관련된 별도의 추가 데이터가 경관 표현 모듈(28)로부터 전달될 수도 있다. 운전자의 의도와 관련된 추가 데이터가 운전자(14)로부터 HMI(34)를 통해 입력된다. 모듈(40)에서 상단의 모듈들에 의해 계산된 행동이 함께 통합된다. 예컨대, 운전자(14)(HMI(34))로부터 수신되는 행동 신호가 최우선 순위를 가지도록 행동 신호 구조를 구현할 수 있다.Next, data related to one or more actions to be taken are passed to the action generation module 40, which is the output phase of the agent, which has driver-assisted assistance such as ACC, lane-keeping or collision avoidance functions, and the like. The module is located. Additional additional data related to the physical description of the object may be communicated from the landscape representation module 28. Additional data relating to the driver's intention is input from the driver 14 via the HMI 34. In module 40 the actions calculated by the top modules are integrated together. For example, the behavior signal structure may be implemented such that the behavior signal received from the driver 14 (HMI 34) has the highest priority.

모듈(40)은 출력 명령을 생성하고 이들을 예컨대 쓰로틀, 브레이크, 스티어링, 기어 등과 같은 적절한 액추에이터(42)나 예컨대, 에어백, 프리텐셔너(pre-tensioners), 내부 점등, 온도 제어 또는 윈도우 레귤레이터(window regulator) 등과 같은 운전자 및 승객과 관련된 액추에이터를 포함하는 기타 액추에이터로 전송 한다.The module 40 generates output commands and sends them to appropriate actuators 42, such as throttles, brakes, steering, gears, etc., or airbags, pre-tensioners, internal lighting, temperature control or window regulators, for example. And other actuators, including actuators associated with drivers and passengers.

여기에서 설명되는 본 발명의 실시예는 운전자와 운전 지원 에이전트 사이에서의 다양한 상호작용을 제공한다. 적절한 운전자의 행동은 운전자 모델에 의해 표현되고 또한 행동 생성에 직접적인 영향을 주게 된다. 에이전트는 경고를 통해서 또는 더욱 일반적으로는 경관 해석 모듈에 의해 생성되는 정보 메시지와 운전자 관련 액추에이터의 제어에 의해 운전자를 지원한다. 따라서, 본 발명에 의한 시스템은 복잡한 상호 작용을 가능하게 하며 자신을 보호하지 않아도 될 정도의 지원을 할 수 있을 만큼 충분히 유연하다.Embodiments of the invention described herein provide for various interactions between the driver and the driving assistance agent. Appropriate driver behavior is represented by the driver model and has a direct impact on behavior generation. The agent assists the driver by alerting or, more generally, by the control of driver-related actuators and information messages generated by the landscape analysis module. Thus, the system according to the present invention is flexible enough to allow complex interactions and to provide support that does not have to protect itself.

도 2는 센싱된 정보를 융합하여 경관 표현을 생성하는 제1 서브 시스템과, 현재 경관을 해석하여 외부 경관에 대한 몇 가지 의미 있는 정보에 의해 최적 행동을 선택할 수 있도록 하는 제4 서브 시스템의 상세 기능을 나타낸 도면이다. 2 is a detailed function of a first sub-system for fusing sensed information to generate a landscape representation, and a fourth sub-system for interpreting the current landscape and selecting an optimal action based on some meaningful information about the external landscape. It is a diagram showing.

외부 센싱 모듈(22)은 예컨대 시각적 외부 센싱 유니트(50)와 확장 외부 센싱 유니트(52)를 구비한다. 시각적 외부 센싱 유니트(50)는 카메라, 레이다(RADAR) 및 리다(LIDAR) 등과 같은 돌출형 센서 요소(projective sensor element)에 의해 감지되는 정보를 캡쳐하는 반면, 확장 외부 센싱 유니트(52)는 전자 지도 데이터 등과 같은 비돌출형 요소로부터의 정보와 라디오 교통 보고 또는 차량-차량-통신 메시지 등과 같은 시각적 범위에 포함되는 정보를 수신한다.The external sensing module 22 has, for example, a visual external sensing unit 50 and an extended external sensing unit 52. The visual external sensing unit 50 captures information sensed by projective sensor elements, such as cameras, radars, and LIDARs, while the extended external sensing unit 52 captures electronic maps. It receives information from non-projecting elements such as data and the like and information contained within the visual range, such as radio traffic reports or vehicle-vehicle-communication messages.

시각적으로 캡쳐된 데이터는 특성 추출 유니트(54)로 전달되는데, 특성 추출 유니트(54)는 예컨대 카메라 영상의 엣지(edge) 및 스테레오-카메라 시스템의 불일치 (깊이) 또는 레이다(RADAR)/리다(LIDAR) 장치로부터의 거리 및 속도 데이터 등 과 같은 센서 측정값들의 특징적인 특성을 결정한다. 또한, 개괄적 특성이 추출되어 개괄적 경관 서술 유니트(46)로 제공된다. 카메라-영상으로부터의 적절한 개괄적 특성은 주파수-요소(퓨리에-스펙트럼(Fourier-spectrum), 가버-웨이브렛(Gabor-wavelets) 또는 전력-밀도 스펙트럼(power-density spectrum)으로부터 결정될 수 있다.The visually captured data is passed to a feature extraction unit 54, which is an example of an inconsistency (depth) or radar / LIDAR of the edge and stereo-camera system of the camera image. ) Determine the characteristic characteristics of the sensor measurements, such as distance and speed data from the device. In addition, the general characteristics are extracted and provided to the general landscape description unit 46. Suitable general characteristics from camera-images can be determined from frequency-elements (Fourier-spectrum, Gabor-wavelets or power-density spectrum).

유니트(54)에 의해 전달되는 특성은 집적화되거나(clustered) 및/또는 대상물-모델에 맞게 매칭되어 유니트(56)에 의해 각각의 특성 양식(feature modalities)로부터의 대상물 가설(object hypothesis)을 생성한다. 대상물 가설들은 추가적인 정보 통합 및 일관성 검증에 의해 더욱 검증되어야 하는 실세계의 대상물에 대한 유력한 후보자들로 정의된다. The characteristics conveyed by unit 54 are clustered and / or matched to the object-model to produce object hypothesis from each feature modalities by unit 56. . Object hypotheses are defined as potential candidates for real-world objects that must be further validated by additional information integration and consistency verification.

대상물 가설 자체와 이에 상응하는 특성 양자 모두는 유니트(62)에 의해 (필요한 경우) 적절한 좌표 시스템으로 변형되어 정보 융합 시스템(26)으로 직접 공급된다. 융합 시스템(26)은 유니트(64)에서의 특성 바인딩 과정(feature binding process)에 근거하여 유니트(66)에서 융합된 대상물-가설을 생성한다. 서로 다르고 불필요한 특성 양식은 융합되어 상응하는 대상물 가설을 지원하고 센싱된 데이터의 불일치가 제거된다. 대상물-가설 융합 및 특성 바인딩은 이러한 융합 구조에서 서로 연동하여 작용하며, 일반적으로 통계적 융합 방법 또는 뉴럴 네트워크에 의해 수행될 수 있다. 특성 바인딩에 사용할 수 있는 알고리듬은 당업자에게 자명한 사항이므로 여기에서는 설명하지 않는다. 측정치의 노이즈와 불확실한 정보에 대한 강인성(robustness)은 특성 및 대상물 가설 양자의 일시적 트래킹(temporal tracking)(유니트(68))에 의해 이루어진다.Both the object hypothesis itself and its corresponding characteristics are transformed by the unit 62 into the appropriate coordinate system (if necessary) and fed directly to the information fusion system 26. Fusion system 26 generates the object-hypothesis fused at unit 66 based on the feature binding process at unit 64. Different and unnecessary feature styles are merged to support the corresponding object hypothesis and eliminate inconsistencies in the sensed data. Object-hypothesis fusion and trait binding act in conjunction with each other in this fusion structure and can generally be performed by statistical fusion methods or neural networks. Algorithms that can be used for property binding are obvious to those skilled in the art and are not described here. Robustness to noise and uncertain information in the measurements is achieved by temporary tracking (unit 68) of both the property and the object hypothesis.

융합된 대상물 가설은 또한 예컨대 '자동차', '보행자' 또는 '교통 신호' 등과 같이 대상물의 종류의 관점에서 대상물의 의미론적인 설명을 전달하는 시각적 대상물 분류화 유니트(70)에 의해 검증된다.The fused object hypothesis is also validated by the visual object classification unit 70, which conveys a semantic description of the object in terms of the type of the object, for example 'car', 'pedestrian' or 'traffic signal'.

대상물의 물리적 설명(위치, 속도, 가속도) 및 이에 상응하는 대상물 종류는 경관 표현 모듈(28)내에 근접 범위의 시각적 경관 탐색에 사용되는 유니트(72)의

Figure 112006058540114-pat00002
차원 스케치 형태로 저장된다. "
Figure 112006058540114-pat00003
D 스케치"라는 용어는 2-D 돌출형 센서 요소만을 사용하여 경관의 실제적인 3-D 특징을 완벽히 탐색하는 것은 가능하지 않다는 것을 의미한다.The physical description of the object (position, velocity, acceleration) and the corresponding object type are determined by the unit 72 used to navigate the visual landscape in the near range within the landscape representation module 28.
Figure 112006058540114-pat00002
It is stored in the form of a dimensional sketch. "
Figure 112006058540114-pat00003
The term "D sketch" means that it is not possible to fully explore the actual 3-D features of the landscape using only 2-D raised sensor elements.

유니트(70)에 의해 전달되는 대상물 카테고리는 정보 데이터베이스(58)를 통해 몇몇 속성들과 링크되는데, 예컨대 감지된 대상물의 몇몇 속성들은 대상물의 견고성(solidity)에 근거하여 서로 다른 위험-카테고리를 설명할 수도 있다. 다른 가능한 속성들은 트래킹 유니트(68)를 조절하기 위한 모션 파라미터(motion parameter) 또는 모션 모델(motion model)일 수 있다. 속성들 또한 유니트(72)에서 표현된다.The object category conveyed by the unit 70 is linked with several attributes via the information database 58, for example, some attributes of the detected object may describe different risk-categories based on the solidity of the object. It may be. Other possible attributes may be a motion parameter or motion model for adjusting the tracking unit 68. Attributes are also represented in unit 72.

확장 외부 센싱 모듈(52)로부터의 데이터는 정보 추출 모듈(60)로 직접 공급되는데, 정보 추출 모듈(60)은 지도 데이터 분석과 여러 가지 메시지로부터의 보고 분석을 수행하여, 시각적 외부 센싱 모듈(50)에 의해 캡쳐될 수 없는 차량 주변의 교통 상황에 대한 적절한 정보를 추출한다. 획득된 정보는 매핑 유니트(62)를 통해 유니트(74)의 2D-공간 포인트 대상물 표현(2D-space point object representation)으로 매핑된다. 유니트(74)에서의 표현은 일종의 '버드뷰(birdview)' 광범위 환경 지도이며, 주의(attention)를 가이드하고 센서-융합 모듈(26)에서의 예측을 지원하는

Figure 112006058540114-pat00004
D 스케치 표현(72)의 특정 지역을 선-활성화(pre-activating) 시키는데 사용된다.Data from the extended external sensing module 52 is fed directly to the information extraction module 60, which performs map data analysis and report analysis from various messages, thereby providing a visual external sensing module 50. Extract relevant information about traffic conditions around the vehicle that cannot be captured by. The obtained information is mapped to the 2D-space point object representation of the unit 74 via the mapping unit 62. The representation in unit 74 is a kind of 'birdview' extensive environmental map, which guides attention and supports prediction in sensor-fusion module 26.
Figure 112006058540114-pat00004
It is used to pre-activate a specific area of the D sketch representation 72.

유니트(74)에서 이용가능한 데이터의 예로서는, 융합 시스템을 선활성화시켜 고정된 목적물 탐지에 집중할 수 있도록, 차선 탐지 과정을 가이드하기 위한 곡선 또는 교통 혼잡 및 사고 발생지의 개괄적인 위치 등과 같은 지도-데이터 정보가 있다. Examples of data available at unit 74 include map-data information, such as curves to guide the lane detection process or general locations of incidents, such as to guide the lane detection process so that the convergence system can be pre-activated to focus on fixed object detection. There is.

Figure 112006058540114-pat00005
D 스케치 표현에 축적된 데이터는 획득된 대상물 정보에 근거하여 현재 상황에서 무엇이 발생하고 있는가에 대한 일종의 '이해(understanding)'를 에이전트에 제공하는 경관 해석 모듈(36)에서 재차 평가된다. 경관을 '이해'하기 위한 몇 가지 해석은 탐지된 교통 신호를 다른 차선에 할당하거나 탐지된 장애물을 다른 차선에 할당하는 것 등이다. 어떤 것이 길이고 차량이 어디로 진행할 수 있는가에 대한 해석 또한 경관 해석 모듈(36)의 작업에 속한다.
Figure 112006058540114-pat00005
The data accumulated in the D sketch representation is evaluated again in the landscape analysis module 36, which provides the agent with a kind of 'understanding' of what is happening in the current situation based on the acquired object information. Some interpretations to 'understand' the landscape include assigning detected traffic signals to other lanes or assigning detected obstacles to other lanes. The interpretation of what is the road and where the vehicle can go also belongs to the work of the landscape analysis module 36.

모듈(36)은 결정/행동 선택 모듈(38)로 차선의 수, 그 차선의 장애물 등과 같이 분산된 의미론적 정보와 함께 경관의 물리적 성질(거리, 속도) 등과 같은 연속된 정보를 포함하는 현재 경관의 몇 가지 상태를 제공한다. 결정 시스템(38)은 이러한 정보와 점유 모니터링(occupancy monitoring)에 의해 획득되며 운전자-모델 에 의해 전송되는 운전자의 상태에 근거하여 경관의 상태 공간(state space of the scene)을 분석함으로써 최적 행동을 선택한다.Module 36 is a decision / action selection module 38 which is a current landscape that contains continuous information such as the physical properties (distance, speed) of the landscape along with distributed semantic information such as the number of lanes, obstacles in the lane, etc. Provide some status. The decision system 38 obtains the optimal behavior by analyzing the state space of the scene based on this information and occupancy monitoring and transmitted by the driver-model. do.

경관 해석 모듈(36)은 또한 개괄적 경관 서술 유니트(46), 즉 교통 신호 및 차선-설정으로 정보를 전달한다. 개괄적 경관 서술 유니트(46)는 특성 추출 유니트(54)에 의해 전달된 개괄적 특성을 사용하여 상기에서 설명한 바와 같이 경관의 개괄적 상태를 결정한다. The landscape analysis module 36 also conveys information in a general landscape description unit 46, ie traffic signals and lane-setting. The general landscape description unit 46 uses the general features delivered by the feature extraction unit 54 to determine the general state of the landscape as described above.

개괄적 경관 서술 유니트(46)는 또한 서로 다른 개괄적 경관에서 발생하는 서로 다른 통계에 따라 시각적 대상물 분류화 유니트(70)를 조절한다. 경관의 개괄적 측면(도시, 부도심, 간선도로)은 또한 정보 데이터베이스(48)로도 제공되어 현재 상황에 유효한 교통 규칙의 적절한 집합을 결정한다. 이러한 규칙들은 행동 선택 모듈(38)의 몇 가지 제한 조건을 나타낸다. 또한, 모듈(38)은 작업 또는 행동에 따라 적절한 대상물을 필터링하기 위한 주의/적절성 필터링 모듈(attention/relevance filtering module, 76)을 가이드한다. 적절성 필터링 모듈(76)은 또한 예컨대, 차량에 대해 차선 안에 있는 또는 차선에 인접해 있는 대상물들만을 전송할 수 있는 모듈(36)로부터 해석된 정보를 수신한다. The general landscape description unit 46 also adjusts the visual object classification unit 70 according to different statistics occurring in different general landscapes. The general aspects of the landscape (city, subcenter, main street) are also provided as an information database 48 to determine the appropriate set of traffic rules valid for the current situation. These rules represent some constraints on the behavior selection module 38. In addition, module 38 guides an attention / relevance filtering module 76 to filter the appropriate object according to the task or action. The suitability filtering module 76 also receives the interpreted information from the module 36, which may only transmit objects that are in or adjacent to the lane, for example, for the vehicle.

유니트(38)로부터의 행동 선택 정보는 경관 표현 유니트(28)에 의해 전달되는 대상물의 물리적 정보에 근거하여 차량을 제어할 수 있는 서로 다른 운전자 지원 모듈(40)들을 활성화 또는 비활성화시키거나 결합시킨다. 길이 방향 제어(ACC, ACC 정지 또는 진행), 측방향 제어(차선-유지, 차선 이탈 경고), 충돌 예방/완화, 교통 규칙에 따른 경고 등과 같은 것들이 가능한 기능이다.Behavior selection information from unit 38 activates, deactivates, or combines different driver assistance modules 40 capable of controlling the vehicle based on the physical information of the object conveyed by landscape representation unit 28. Possible functions include longitudinal control (ACC, ACC stop or progress), lateral control (lane-hold, lane departure warning), collision prevention / mitigation, traffic rules warning, and so on.

내부 센싱 모듈(24)은 앞서 설명한 바와 같이 평탄화/안정화 선연산 유니트(smoothing/stabilization pre-processing unit, 20)에 연결된다. 내부 차량 데이터는 예컨대 사영 변환(projective transformation)을 위해 경사각 정보를 이용하는 경우 등과 같이 매핑을 수정하거나 특성 바인딩 과정을 위한 변환/매핑 유니트(62)와, 결정/행동 선택 모델(38) 및 지원 모듈(40)로 차량의 내부 상태와 역학 정보를 제공하는 차량 모델(30)에서 사용될 수 있다.The internal sensing module 24 is connected to a smoothing / stabilization pre-processing unit 20 as described above. The internal vehicle data is transformed / mapping unit 62 for modifying the mapping or for feature binding process, for example when using tilt angle information for projective transformation, decision / action selection model 38 and support module ( 40 may be used in the vehicle model 30 to provide internal status and dynamics information of the vehicle.

본 발명의 운전자 지원 시스템에 의하면, 운전자에게 용이하게 적응될 수 있도록 유연성이 있다. According to the driver assistance system of the present invention, it is flexible to be easily adapted to the driver.

또한, 본 발명의 운전자 지원 시스템은 종래의 시스템과 비교해 볼 때 더욱 안전하고 편리하다.In addition, the driver assistance system of the present invention is safer and more convenient compared to the conventional system.

또한, 본 발명은 예컨대 에너지 소비, 연산 능력 및 공간 등과 같이 제한된 자원(resource)을 공유할 수 있다.In addition, the present invention may share limited resources such as, for example, energy consumption, computing power and space.

또한, 본 발명은 강인한 예측능력을 제공하고 복잡한 행동을 가능하게 한다.In addition, the present invention provides robust predictive capability and enables complex behavior.

또한, 본 발명은 예컨대 센서의 측면, 새로운 어플리케이션 또는 개선된 내부 연산 유니트 등과 같은 새로운 구성 요소를 용이하게 통합할 수 있게 한다.In addition, the present invention makes it easy to integrate new components such as, for example, aspects of sensors, new applications or improved internal computing units.

또한, 본 발명은 실시간 제어 및 행동 선택을 가능하게 한다.The present invention also enables real time control and action selection.

도면의 부호의 설명Explanation of symbols of drawing

(도면의 번역은 좌측부터 아래방향 순서에 따라 기재함)(The translation of the drawings should be written in descending order from left to right.)

(도 1)(Figure 1)

Sensor-fusion, representation and interpretation : system details : 센서 융합, 표현 및 해석 : 시스템 상세도Sensor-fusion, representation and interpretation: system details

52 extended external sensing 확장 외부 센싱52 extended external sensing extended external sensing

- digital map 디지탈 지도-digital map

- traffic reports 교통 보고서-traffic reports

- vehicle-vehicle-comm.. 차량-차량 통신-vehicle-vehicle-comm .. vehicle-vehicle communication

50 "visual" external sensing "시각적" 외부 센싱50 "visual" external sensing "visual" external sensing

- camera 카메라camera

- radar, lidar 레이더(radar), 리다(lidar)-radar, lidar radar, lidar

- ...-...

22 external sensing 외부 센싱22 external sensing External sensing

24 internal sensing 내부 센싱24 internal sensing internal sensing

- velocity, acceleration 속도, 가속도velocity, acceleration

- yaw-rate 요율(yaw-rate)yaw-rate rate

- tilt 경사도tilt tilt

60 information extraction 정보 추출60 information extraction

- map-data analysis 지도 데이터 분석map-data analysis

- report analysis 보고서 분석-report analysis

56 building object hypothesis 대상물 가설 생성56 Building object hypothesis Create object hypothesis

- data-clustering 데이터-집적화data-clustering

- model-matching 모델-매칭model-matching

54 feature extraction 특징 추출54 feature extraction feature extraction

- edge, depth... 엣지, 깊이...edge, depth ... edge, depth ...

- distance, velocity 거리, 속도distance, velocity

- global features 개괄적 특징-global features

62 transformation/mapping 변환/매핑62 transformation / mapping transformation / mapping

20 smoothing/stabilization 평탄화/안정화20 smoothing / stabilization smoothing / stabilization

correction 수정correction correction

global scene description 개괄적 경관 서술global scene description

weather condition 기상 상태weather condition weather condition

prediction 예측prediction prediction

70 visual object categorization 시각적 대상물 분류화70 visual object categorization

66 fusing object-hypothesis 대상물 가설 융합66 fusing object-hypothesis object hypothesis fusion

64 feature binding 특징 바인딩64 feature binding feature binding

68 tracking 트래킹68 tracking tracking

26 fusion system 융합 시스템26 fusion system

58 knowledge base 정보 데이터베이스58 knowledge base Information Database

attribute 속성 attribute attribute

type 종류type type

object-position 대상물 위치object-position object position

74 2D point object representation 2D 포인트 대상물 표현74 2D point object representation 2D point object representation

lon-range, environment-map 광범위 환경 지도lon-range, environment-map

prediction/attention 예측/주의prediction / attention prediction / attention

72 21/2 D-sketch representation 2 1/2 D-스케치 표현72 21/2 D-sketch representation 2 1/2 D-sketch representation

close-range, projective 협범위 돌출형close-range, projective narrow-range protrusions

28 pseudo 3D world-representation 수도(pseudo) 3D세계 표현28 pseudo 3D world-representation Pseudo 3D world representation

global features 개괄적 특징global features

76 attention/relevance filtering 주의/적절성 필터링76 attention / relevance filtering

- relevant object filtering 적절한 대상물 필터링relevant object filtering

- attention control 주의 제어attention control

36 scene interpretation 경관 해석36 scene interpretation

- traffic sign assignment 교통 신호 할당traffic sign assignment

- road following 도로 추적-road following

- targets in lane 차선의 목표물-targets in lane

traffic signs/lane-configuration 차량 신호/차선 구성traffic signs / lane-configuration traffic signs / lane-configuration

46 global scene description 개괄적 경관 서술46 global scene description

- urban/rural 도시/시골urban / rural

- kind of road 도로의 종류kind of road

- weather 날씨-weather

scene interpretation 경관 해석scene interpretation scene interpretation

task dependent scene analysis 작업에 따른 경관 분석task dependent scene analysis

"states" of the scene 경관의 "상태""states" of the scene

traffic signs, road description 교통 신호/도로 서술traffic signs, road description traffic signs, road description

measurement 측정치measurement

occupancy monitoring 점유 모니터링occupancy monitoring occupancy monitoring

32 driver-model 운전자 모델32 driver-model

38 decision state space 결정 상태 공간38 decision state space

- state of the environment 환경의 상태state of the environment

- states of the vehicle 차량의 상태states of the vehicle

- states of the driver 운전자의 상태states of the driver

constraints 제한조건constraints constraints

48 knowledge base 정보 데이터베이스48 knowledge base information database

- traffic rule selection 교통 규칙 선택traffic rule selection

behavior control 행동 제어behavior control behavior control

30 vehicle model 차량 모델30 vehicle model

activation/combination 활성화/결합activation / combination activation / combination

internal states 내부 상태internal states internal states

40 assistance modules 지원 모듈40 assistance modules

- longitudinal control 길이방향 제어longitudinal control

- lateral control 측방향 제어lateral control

- collision mitigation 충돌 완화collision mitigation collision mitigation

- rule violation warning 규칙 위반 경고rule violation warning

- ...-...

physical object description 물리적 대상물 서술physical object description physical object description

(도 2)(Figure 2)

Driver-agent-interaction model 운전자-에이전트-상호작용 모델Driver-agent-interaction model Driver-agent-interaction model

10 environment 환경10 environment

24 internal sensing 내부 센싱24 internal sensing internal sensing

velocity 속도velocity velocity

accel. 가속도accel. acceleration

yaw-rate 요율(yaw-rate)yaw-rate rate

tilt 경사도tilt slope

....

22 external sensing 외부 센싱22 external sensing External sensing

RADAR 레이더(RADAR)Radar radar (radar)

LIDAR 리다(LIDAR)LIDAR

Video 비디오Video Video

GPS GPSGPS GPS

traffic reports 교통 보고서traffic reports traffic reports

vehicle-vehicle-comm. 차량-차량 통신vehicle-vehicle-comm. Vehicle-vehicle communication

map,.. 지도...map, .. map ...

20 pre-processing 선연산20 pre-processing linear computation

2. interface 인터페이스2. interface interface

1. interface 인터페이스Interface

18 pre-processing 선연산18 pre-processing linear computation

stabilized mesurements 안정화된 측정치stabilized mesurements

16 passenger 승객16 passenger passenger

44 HMI HMI44 HMI HMI

warning 경고warning warning

1. subsystem 서브 시스템1. subsystem subsystem

58 knowledge base 정보 데이터베이스58 knowledge base Information Database

objects 대상물objects

attributes 속성attributes attribute

26 information fusion 정보 융합26 information fusion

28 scene representation 경관 표현28 scene representation

2. subsystem 서브 시스템2. subsystem subsystem

30 vehicle model 차량 모델30 vehicle model

global feature 개괄적 특징global feature

45 interior sensing 내부 센싱45 interior sensing interior sensing

occupancy monitoring 점유 모니터링occupancy monitoring occupancy monitoring

3. subsystem 서브 시스템3. subsystem subsystem

seat beat ? 좌석 벨트?seat beat? Seat belt?

driver ok? 운전자 ok?driver ok? Driver ok?

32 driver model 운전자 모델32 driver model driver model

14 driver 운전자14 driver

34 HMI HMI34 HMI HMI

driver states 운전자 상태driver states driver states

36 scene interpretation 경관 해석36 scene interpretation

4. sub-system 서브 시스템4. sub-system subsystem

46 global scene description(urban/rural) 개괄적 경관 서술(도시/시골)46 global scene description (urban / rural) general landscape description (urban / rural)

scenery state variables 경관 상태 변수scenery state variables

38 action selection/combination system 행동 선택/결합 시스템38 action selection / combination system

rules 규칙rules rules

48 traffic rule selection 교통 규칙 선택48 traffic rule selection

5. sub-system 서브 시스템5. sub-system subsystem

40 lowlevel behaviour generation 로우레벨 행동 생성40 lowlevel behavior generation

(control loops) 제어 루프(control loops) control loops

physical object description 대상물의 물리적 서술physical object description physical description of the object

vehicle-states 차량 상태vehicle-states vehicle-states

42 actuators 액추에이터42 actuators

throttle 쓰로틀throttle throttle

brake 브레이크brake brake

gear 기어gear gear

steering 스티어링steering steering

....

airbags 에어백airbags airbags

pretensioner 프리텐셔너pretensioner pretensioner

12 vehicle 차량12 vehicle

Claims (19)

차량(12)의 환경(10)으로부터 수신되는 외부 신호들을 센싱하기 위한 제1 인터페이스(18);A first interface 18 for sensing external signals received from the environment 10 of the vehicle 12; 차량(12)의 내부 신호들을 센싱하기 위한 제2 인터페이스(20);A second interface 20 for sensing internal signals of the vehicle 12; 상기 제1 인터페이스(18) 및 제2 인터페이스(20)의 출력 신호들을 융합하여 차량의 환경(10)에 대한 설명을 생성하는 제1 서브 시스템(26, 28);A first subsystem (26, 28) for fusing output signals of the first interface (18) and the second interface (20) to produce a description of the environment (10) of the vehicle; 상기 제2 인터페이스(20)의 출력 신호들을 수신하여 차량(12)의 현재 상태를 모델링하는 제2 서브 시스템(30);A second subsystem (30) for receiving the output signals of the second interface (20) to model the current state of the vehicle (12); 운전자(14)의 행동을 모델링하는 제3 서브 시스템(32); 및A third subsystem 32 that models the behavior of the driver 14; And 상기 제1 서브 시스템(28)에 의해 설명된 현재 경관을 해석하여 차량(12)의 현재 외부 상태의 특징 상태를 결정하는 제4 서브 시스템(36)을 포함하며,A fourth subsystem 36 for interpreting the current landscape described by the first subsystem 28 to determine the feature state of the current exterior state of the vehicle 12, 상기 제1 서브 시스템(26, 28)은, 상기 제1 인터페이스(18)에 의해 전달되는 센서 데이터를 선연산하는 정보 추출 및 데이터 매핑 모듈, 상기 제1 및 제2 인터페이스(18, 20)의 출력 신호들이 의미하는 정보를 융합하는 정보 융합 모듈(26), 대상물을 관련된 속성들과 함께 저장하는 정보 데이터베이스(58), 및 경관을 설명하는 경관 표현 모듈(28)을 포함하고,The first subsystem 26, 28 is an information extraction and data mapping module for pre-computing sensor data delivered by the first interface 18, and outputs of the first and second interfaces 18, 20. An information fusion module 26 for fusing information meant by signals, an information database 58 for storing an object with related attributes, and a landscape representation module 28 for describing the landscape, 상기 정보 융합 모듈(26)은 결정된 대상물을 설명하는 대상물 신호를 상기 정보 데이터베이스(58)에 제공하고, 상기 정보 데이터베이스(58)는 상기 대상물 신호에 따라 결정된 대상물의 속성을 나타내는 속성 신호를 상기 경관 표현 모듈(28)에 제공하는, 운전자 지원 시스템.The information fusion module 26 provides an object signal describing the determined object to the information database 58, and the information database 58 expresses an attribute signal representing an attribute of the object determined according to the object signal. Driver assistance system provided to module 28. 제1항에 있어서,The method of claim 1, 상기 제2, 제3 및 제4 서브 시스템(30, 32, 36)의 출력 신호들에 따라 차량(12)의 액추에이터(42)들 및/또는 운전자(14)에 대한 자극들을 생성하는 제5 서브 시스템(38, 40)A fifth sub that generates stimuli for the actuators 42 and / or the driver 14 of the vehicle 12 in accordance with the output signals of the second, third and fourth subsystems 30, 32, 36. System (38, 40) 을 더 포함하는 운전자 지원 시스템.Driver assistance system further comprising. 제2항에 있어서,The method of claim 2, 상기 제5 서브 시스템(38, 40)은 현재 경관에 따라 추가 교통 규칙(48)을 추가적으로 사용하도록 구성된, 운전자 지원 시스템.The fifth subsystem (38, 40) is configured to additionally use additional traffic rules (48) according to the current landscape. 제2항 또는 제3항에 있어서,The method according to claim 2 or 3, 상기 제5 서브 시스템(38)은 생성된 자극과 관련된 특별한 정보를 나타내는 신호들을 상기 제4 서브 시스템(36)으로 피드백하도록 구성되며,The fifth subsystem 38 is configured to feed back signals to the fourth subsystem 36 indicative of special information associated with the generated stimulus, 상기 제4 서브 시스템(36)은 상기 제5 서브 시스템(38)의 피드백 신호에 따라 현재 경관을 해석하도록 구성된, 운전자 지원 시스템.The fourth subsystem (36) is configured to interpret the current landscape according to the feedback signal of the fifth subsystem (38). 삭제delete 제2항 또는 제3항에 있어서,The method according to claim 2 or 3, 차량(12)의 현재 외부 상태의 특징 상태를 나타내는 상기 제4 서브 시스템(36)의 출력 신호에 의해 개괄적 경관을 결정하고 결정된 개괄적 경관을 나타내는 신호를 출력하도록 구성되어, 개괄적 경관에 대한 서술을 제공하는 경관 서술 서브 시스템(46)을 더 구비하며,Configured to determine the general landscape by the output signal of the fourth subsystem 36 indicative of the characteristic state of the current external state of the vehicle 12 and output a signal representing the determined general landscape, providing a description of the general landscape. Further includes a landscape description subsystem 46, 차량(12)의 액추에이터(42)들 및/또는 운전자(14)에 대한 자극들을 생성하는 상기 제5 서브 시스템(38, 40)은 상기 경관 서술 서브 시스템(46)의 출력 신호에 따라 상기 자극들을 생성하도록 구성된 것을 특징으로 하는 운전자 지원 시스템.The fifth subsystem 38, 40, which generates stimuli for the actuators 42 and / or the driver 14 of the vehicle 12, generates the stimuli in accordance with the output signal of the landscape description subsystem 46. A driver assistance system configured to generate. 제6항에 있어서,The method of claim 6, 상기 경관 서술 서브 시스템(46)은 그 출력 신호를 교통 규칙 선택(48)에 제공하는 것을 특징으로 하는 운전자 지원 시스템.The scenery description subsystem (46) provides the output signal to the traffic rule selection (48). 제1항 내지 제3항 중 어느 하나의 항에 있어서,The method according to any one of claims 1 to 3, 상기 제4 서브 시스템(36)은 상기 제3 서브 시스템(32)에 대한 자극을 더 생성하도록 구성되며, 상기 제3 서브 시스템(28)은 상기 제4 서브 시스템(36)의 입력 신호와 운전자(14)의 행동을 나타내는 인간 기계 인터페이스(34)로부터의 입력 신호에 따라 운전자(14)의 행동을 모델링하도록 구성된 것을 특징으로 하는 운전자 지원 시스템.The fourth subsystem 36 is configured to further generate a stimulus to the third subsystem 32, wherein the third subsystem 28 is configured to generate an input signal from the fourth subsystem 36 and a driver ( A driver assistance system configured to model the behavior of the driver 14 in accordance with an input signal from the human machine interface 34 indicative of the behavior of 14. 제2항 또는 제3항에 있어서,The method according to claim 2 or 3, 상기 액추에이터(42)들 및/또는 운전자(14)에 대한 자극들을 생성하는 상기 제5 서브 시스템(38, 40)은 승객 모니터링(45)으로부터의 입력 신호에 따라 상기 자극들을 더 생성하도록 구성된 것을 특징으로 하는 운전자 지원 시스템.The fifth subsystem 38, 40 for generating stimuli for the actuators 42 and / or the driver 14 is further configured to generate the stimuli further in accordance with an input signal from the passenger monitoring 45. Driver assistance system. 제1항 내지 제3항 중 어느 하나의 항에 있어서,The method according to any one of claims 1 to 3, 상기 제1 서브 시스템(28)은 대상물의 물리적 설명을 나타내는 출력 신호를 행동 생성 모듈(40)에 제공하는 것을 특징으로 하는 운전자 지원 시스템.The first subsystem (28) is characterized in that it provides an output signal to the behavior generation module (40) indicative of the physical description of the object. 제1항 내지 제3항 중 어느 하나의 항에 있어서,The method according to any one of claims 1 to 3, 차량을 구비하는 것을 특징으로 하는 운전자 지원 시스템.Driver assistance system comprising a vehicle. 차량(12)의 외부 신호들을 센싱하는 단계(22);Sensing (22) external signals of the vehicle (12); 차량(12)의 내부 신호들을 센싱하는 단계(24);Sensing (24) internal signals of the vehicle (12); 상기 외부 신호와 내부 신호들을 융합하여(26) 차량의 환경(10)에 대한 설명을 생성하는 단계(28);Fusing (26) the external and internal signals to produce a description of the environment (10) of the vehicle; 차량 모델(30)과 외부 및 내부 신호들에 따라 차량(12)의 현재 상태를 모델링하는 단계(30);Modeling (30) the current state of the vehicle (12) according to the vehicle model (30) and external and internal signals; 운전자(14)의 행동을 모델링하는 단계(32); 및Modeling the behavior of the driver 14 (32); And 현재 경관을 해석하여(36) 차량(12)의 현재 외부 상태의 특징 상태를 결정하는 단계Interpreting the current landscape (36) to determine a feature state of the current exterior state of the vehicle 12 를 포함하고,Including, 상기 차량의 환경(10)에 대한 설명을 생성하는 단계(28)는, 상기 외부 신호에 따른 센서 데이터를 선연산하는 정보 추출 및 데이터 매핑 단계, 정보 융합 모듈(26)이 결정된 대상물을 설명하는 대상물 신호를 정보 데이터베이스(58)에 제공하는 단계 및 상기 정보 데이터베이스(58)는 상기 대상물 신호에 따라 결정된 대상물의 속성을 나타내는 속성 신호를 경관 표현 모듈(28)에 제공하는 단계를 포함하는, Generating a description of the environment 10 of the vehicle 28, information extraction and data mapping step of pre-computing the sensor data according to the external signal, the object for which the information fusion module 26 is to determine the object to be determined Providing a signal to the information database 58 and the information database 58 providing an attribute signal to the landscape representation module 28 indicative of an attribute of the object determined according to the object signal, 차량(12)의 운전자(14)를 지원하는 방법.A method of supporting a driver (14) of a vehicle (12). 제12항에서 있어서,The method of claim 12, 경관의 특징 상태를 차량(12)의 현재 상태 및 운전자(14)의 행동과 결합하여(38), 차량(12)의 액추에이터(42) 및/또는 운전자(14)에 대한 자극을 생성하는 단계(40)Combining 38 the characteristic state of the landscape with the current state of the vehicle 12 and the behavior of the driver 14 to generate a stimulus for the actuator 42 and / or the driver 14 of the vehicle 12 ( 40) 를 더 포함하는 차량(12)의 운전자(14)를 지원하는 방법.The method of supporting a driver (14) of the vehicle (12) further comprising. 컴퓨팅 장치에서 작동시킬 경우 제12항 또는 제13항의 방법을 구현하는 컴퓨터 소프트웨어 프로그램 제품이 저장된 데이터 저장 장치.A data storage device having stored thereon a computer software program product which implements the method of claim 12 when operated in a computing device. 제14항에 있어서,The method of claim 14, 상기 컴퓨터 소프트웨어 프로그램 제품은 The computer software program product 차량의 프로그래머블 장치로 플래쉬(flashing)되어 구현되는 펌웨어(firmware)를 포함하는 것을 특징으로 하는 데이터 저장 장치.A data storage device comprising firmware that is implemented by flashing a programmable device of a vehicle. 삭제delete 삭제delete 삭제delete 삭제delete
KR1020060077648A 2005-08-18 2006-08-17 Driver assistance system Expired - Fee Related KR100949558B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020060077648A KR100949558B1 (en) 2005-08-18 2006-08-17 Driver assistance system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP05017976.1 2005-08-18
KR1020060077648A KR100949558B1 (en) 2005-08-18 2006-08-17 Driver assistance system

Publications (2)

Publication Number Publication Date
KR20070021944A KR20070021944A (en) 2007-02-23
KR100949558B1 true KR100949558B1 (en) 2010-03-25

Family

ID=43653776

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060077648A Expired - Fee Related KR100949558B1 (en) 2005-08-18 2006-08-17 Driver assistance system

Country Status (1)

Country Link
KR (1) KR100949558B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111746391B (en) * 2019-03-26 2025-07-01 深圳市赛格导航科技股份有限公司 A vehicle emergency rescue method and system with automatic alarm

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002025291A2 (en) * 2000-09-21 2002-03-28 American Calcar Inc. Technique for operating a vehicle effectively and safely
US20020120371A1 (en) 2000-10-14 2002-08-29 Leivian Robert H. Method of response synthesis in a driver assistance system
US20030065432A1 (en) 1999-03-12 2003-04-03 Valerie Shuman Method and system for an in-vehicle computing architecture
JP2003331390A (en) 2002-05-16 2003-11-21 Fujitsu Ltd In-vehicle sensor information provision program and in-vehicle sensor information utilization program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030065432A1 (en) 1999-03-12 2003-04-03 Valerie Shuman Method and system for an in-vehicle computing architecture
WO2002025291A2 (en) * 2000-09-21 2002-03-28 American Calcar Inc. Technique for operating a vehicle effectively and safely
US20020120371A1 (en) 2000-10-14 2002-08-29 Leivian Robert H. Method of response synthesis in a driver assistance system
JP2003331390A (en) 2002-05-16 2003-11-21 Fujitsu Ltd In-vehicle sensor information provision program and in-vehicle sensor information utilization program

Also Published As

Publication number Publication date
KR20070021944A (en) 2007-02-23

Similar Documents

Publication Publication Date Title
EP1754621B1 (en) Driver assistance system
US12124263B2 (en) Generating trajectories for autonomous vehicles
JP7440324B2 (en) Vehicle control device, vehicle control method, and program
JP6841843B2 (en) Vehicle control systems, vehicle control methods, and vehicle control programs
US20180370502A1 (en) Method and system for autonomous emergency self-learning braking for a vehicle
JP7369077B2 (en) Vehicle control device, vehicle control method, and program
EP3407251A1 (en) Method of classifying objects for a perception scene graph and system for using a scene detection schema for classifying objects in a perception scene graph (psg) in a motor vehicle
JP6913716B2 (en) Vehicle control devices, vehicle control methods, and programs
US20060117297A1 (en) Device and method for controlling at least one system component of an information system
EP3407249A2 (en) A method and system for generating and using a perception scene graph in motor vehicle applications
JP7369078B2 (en) Vehicle control device, vehicle control method, and program
CN115298073A (en) Vehicle driving support method and driving support device
JP7465705B2 (en) Vehicle control device, vehicle control method, and program
US10210617B2 (en) Method and system for generating a perception scene graph having a focus region for a motor vehicle
EP3407250A1 (en) Method of prioritizing sensors for a perception system and perception system for a motor vehicle
Kohlhaas et al. Towards driving autonomously: Autonomous cruise control in urban environments
JP7464425B2 (en) Vehicle control device, vehicle control method, and program
US12037024B1 (en) Trajectory planning with other road user reactions for autonomous vehicles
Michalke et al. The narrow road assistant-next generation advanced driver assistance in inner-city
JP7388208B2 (en) Vehicle control device
KR100949558B1 (en) Driver assistance system
Sathiyan et al. A comprehensive review on cruise control for intelligent vehicles
Holzmann et al. Robots go automotive-The SPARC approach
Saavedra Design of Cooperative Advanced Driver Assistance System based on Artificial Intelligence Models aware of driving profiles and the environment surrounding the vehicle
CN120716703A (en) Braking method, device and vehicle

Legal Events

Date Code Title Description
PA0109 Patent application

St.27 status event code: A-0-1-A10-A12-nap-PA0109

PG1501 Laying open of application

St.27 status event code: A-1-1-Q10-Q12-nap-PG1501

A201 Request for examination
AMND Amendment
E13-X000 Pre-grant limitation requested

St.27 status event code: A-2-3-E10-E13-lim-X000

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

PA0201 Request for examination

St.27 status event code: A-1-2-D10-D11-exm-PA0201

D13-X000 Search requested

St.27 status event code: A-1-2-D10-D13-srh-X000

D14-X000 Search report completed

St.27 status event code: A-1-2-D10-D14-srh-X000

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

T11-X000 Administrative time limit extension requested

St.27 status event code: U-3-3-T10-T11-oth-X000

AMND Amendment
E13-X000 Pre-grant limitation requested

St.27 status event code: A-2-3-E10-E13-lim-X000

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

E601 Decision to refuse application
PE0601 Decision on rejection of patent

St.27 status event code: N-2-6-B10-B15-exm-PE0601

T11-X000 Administrative time limit extension requested

St.27 status event code: U-3-3-T10-T11-oth-X000

J201 Request for trial against refusal decision
PJ0201 Trial against decision of rejection

St.27 status event code: A-3-3-V10-V11-apl-PJ0201

AMND Amendment
E13-X000 Pre-grant limitation requested

St.27 status event code: A-2-3-E10-E13-lim-X000

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

PB0901 Examination by re-examination before a trial

St.27 status event code: A-6-3-E10-E12-rex-PB0901

B701 Decision to grant
PB0701 Decision of registration after re-examination before a trial

St.27 status event code: A-3-4-F10-F13-rex-PB0701

GRNT Written decision to grant
PR0701 Registration of establishment

St.27 status event code: A-2-4-F10-F11-exm-PR0701

PR1002 Payment of registration fee

St.27 status event code: A-2-2-U10-U11-oth-PR1002

Fee payment year number: 1

PG1601 Publication of registration

St.27 status event code: A-4-4-Q10-Q13-nap-PG1601

FPAY Annual fee payment

Payment date: 20130208

Year of fee payment: 4

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 4

FPAY Annual fee payment

Payment date: 20140211

Year of fee payment: 5

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 5

FPAY Annual fee payment

Payment date: 20150216

Year of fee payment: 6

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 6

FPAY Annual fee payment

Payment date: 20160216

Year of fee payment: 7

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 7

P22-X000 Classification modified

St.27 status event code: A-4-4-P10-P22-nap-X000

FPAY Annual fee payment

Payment date: 20170123

Year of fee payment: 8

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 8

FPAY Annual fee payment

Payment date: 20180208

Year of fee payment: 9

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 9

P22-X000 Classification modified

St.27 status event code: A-4-4-P10-P22-nap-X000

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 10

FPAY Annual fee payment

Payment date: 20200120

Year of fee payment: 11

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 11

PC1903 Unpaid annual fee

St.27 status event code: A-4-4-U10-U13-oth-PC1903

Not in force date: 20210319

Payment event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE

PC1903 Unpaid annual fee

St.27 status event code: N-4-6-H10-H13-oth-PC1903

Ip right cessation event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE

Not in force date: 20210319

P22-X000 Classification modified

St.27 status event code: A-4-4-P10-P22-nap-X000