KR20250100372A - Method and apparatus for automatically setting driver profile of vehicle based on driver's behavior patterns - Google Patents
Method and apparatus for automatically setting driver profile of vehicle based on driver's behavior patterns Download PDFInfo
- Publication number
- KR20250100372A KR20250100372A KR1020230191868A KR20230191868A KR20250100372A KR 20250100372 A KR20250100372 A KR 20250100372A KR 1020230191868 A KR1020230191868 A KR 1020230191868A KR 20230191868 A KR20230191868 A KR 20230191868A KR 20250100372 A KR20250100372 A KR 20250100372A
- Authority
- KR
- South Korea
- Prior art keywords
- driver
- vehicle
- information
- driver profile
- profile
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R16/00—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
- B60R16/02—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
- B60R16/037—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for occupant comfort, e.g. for automatic adjustment of appliances according to personal settings, e.g. seats, mirrors, steering wheel
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/20—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
- B60K35/28—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/80—Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/16—Type of output information
- B60K2360/164—Infotainment
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Signal Processing (AREA)
- Transportation (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Chemical & Material Sciences (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Combustion & Propulsion (AREA)
- Traffic Control Systems (AREA)
Abstract
일 실시 예에 따른 운전자 행동 패턴에 기초한 프로필 자동 설정 방법은 차량의 운전자로부터 행동 패턴에 상응하는 사용자 입력을 수신하고, 미리 저장된 운전자 행동 패턴 모델을 참조하여, 수신된 사용자 입력을 기초로 운전자 정보를 식별하고, 식별된 운전자 정보를 기초로 운전자 프로필을 설정하고, 설정된 운전자 프로필에 따라 차량을 제어한다. A method for automatically setting a profile based on a driver behavior pattern according to one embodiment of the present invention receives a user input corresponding to a behavior pattern from a driver of a vehicle, identifies driver information based on the received user input by referring to a pre-stored driver behavior pattern model, sets a driver profile based on the identified driver information, and controls the vehicle according to the set driver profile.
Description
실시 예들은 운전자 행동 패턴에 기초한 차량의 운전자 프로필 자동 설정 방법 및 장치에 관한 것이다.Embodiments relate to a method and device for automatically setting a driver profile of a vehicle based on driver behavior patterns.
최근 출시되는 차량들에는 차량에서 정의한 설정을 운전자 프로필에 저장할 수 있으며, 프로필을 차량의 키 중 하나에도 연결할 수 있다. 운전자 프로필에 연결된 키를 사용하면 시트, 미러 및 에어컨 모두 프로필에 연결된 설정에 따라 조정이 가능한 기능들을 제공하고 있다.Newer vehicles can store settings defined in the vehicle in a driver profile, and the profile can also be linked to one of the vehicle's keys. Using a key linked to a driver profile provides functions that allow the seats, mirrors, and air conditioning to be adjusted according to the settings linked to the profile.
하지만, 이러한 운전자 프로필을 설정하기 위해서는, 차량의 제어 인터페이스, 멀티미디어 기기, 또는 IVI 장치에서 여러 입력 단계를 거친 후에야만 운전자 프로필을 입력할 수 있다는 문제점이 있다. However, there is a problem that in order to set up these driver profiles, the driver profiles can only be entered after going through several input steps in the vehicle's control interface, multimedia device, or IVI device.
[선행기술문헌번호][Prior art document number]
특허문헌 1: 한국등록특허 10-1534866호Patent Document 1: Korean Patent No. 10-1534866
특허문헌 2: 한국공개특허 2011-0076520호Patent Document 2: Korean Publication Patent No. 2011-0076520
실시 예들은 운전자 행동 패턴에 기초한 차량의 운전자 프로필 자동 설정 방법 및 장치를 제공하는 것이다. 또한, 상기 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공하는 데 있다. 해결하려는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.The embodiments provide a method and device for automatically setting a driver profile of a vehicle based on driver behavior patterns. In addition, a computer-readable recording medium having recorded thereon a program for executing the method on a computer is provided. The technical problems to be solved are not limited to the technical problems described above, and other technical problems may exist.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 일 실시 예에 따른 운전자 행동 패턴에 기초한 차량의 운전자 프로필 자동 설정 방법은 차량의 운전자로부터 행동 패턴에 상응하는 사용자 입력을 수신하는 단계; 미리 저장된 운전자 행동 패턴 모델을 참조하여, 상기 수신된 사용자 입력을 기초로 운전자 정보를 식별하는 단계; 상기 식별된 운전자 정보를 기초로 운전자 프로필을 설정하는 단계; 및 상기 설정된 운전자 프로필에 따라 상기 차량을 제어하는 단계를 포함한다.As a technical means for achieving the above-described technical task, a method for automatically setting a driver profile of a vehicle based on a driver behavior pattern according to one embodiment includes the steps of: receiving a user input corresponding to a behavior pattern from a driver of the vehicle; identifying driver information based on the received user input with reference to a pre-stored driver behavior pattern model; setting a driver profile based on the identified driver information; and controlling the vehicle according to the set driver profile.
상기 미리 저장된 운전자 행동 패턴 모델은, 상기 차량의 운전자의 행동 패턴을 기계 학습한 인공지능모델일 수 있다.The above-mentioned pre-stored driver behavior pattern model may be an artificial intelligence model that machine-learns the behavior pattern of the driver of the vehicle.
상기 차량의 운전자 프로필 자동 설정 방법은 사용자 단말과 블루투스 또는 NFC를 포함하는 근거리통신네트워크를 통해 통신하는 단계를 더 포함하고, 상기 사용자 단말로부터 전송된 사용자 정보를 기초로 상기 식별된 운전자 정보를 확인할 수 있다.The method for automatically setting a driver profile of the vehicle further includes a step of communicating with a user terminal via a short-range communication network including Bluetooth or NFC, and can confirm the identified driver information based on the user information transmitted from the user terminal.
상기 차량의 운전자 프로필 자동 설정 방법은 상기 설정된 운전자 프로필을 상기 차량의 디스플레이에 표시하는 단계를 더 포함하고, 상기 표시된 운전자 프로필에 대한 선택에 따라 운전자설정제어, 차량제어 및 편의기능제어 중 적어도 하나를 제어할 수 있다.The method for automatically setting a driver profile of the vehicle further includes a step of displaying the set driver profile on a display of the vehicle, and at least one of driver setting control, vehicle control, and convenience function control can be controlled according to a selection of the displayed driver profile.
상기 운전자 프로필은, 사용자 정보, 시트 설정 정보, 주행 정보, 주소록 정보, 전화 기능 정보, 멀티미디어 정보 중 적어도 하나를 포함할 수 있다.The above driver profile may include at least one of user information, seat setting information, driving information, address book information, phone function information, and multimedia information.
상술한 다른 기술적 과제를 달성하기 위한 다른 기술적 수단으로서, 다른 실시 예에 따른 운전자 행동 패턴에 기초한 차량의 운전자 프로필 자동 설정 장치는 운전자 행동 패턴 모델을 저장하는 저장부; 및 프로세서를 포함하고,As another technical means for achieving the other technical task described above, a device for automatically setting a driver profile of a vehicle based on a driver behavior pattern according to another embodiment includes a storage unit storing a driver behavior pattern model; and a processor,
상기 프로세서는, 차량의 운전자로부터 행동 패턴에 상응하는 사용자 입력을 수신하고, 상기 저장된 운전자 행동 패턴 모델을 참조하여, 상기 수신된 사용자 입력을 기초로 운전자 정보를 식별하고, 상기 식별된 운전자 정보를 기초로 운전자 프로필을 설정하고, 상기 설정된 운전자 프로필에 따라 상기 차량을 제어할 수 있다.The above processor can receive a user input corresponding to a behavior pattern from a driver of a vehicle, identify driver information based on the received user input by referring to the stored driver behavior pattern model, set a driver profile based on the identified driver information, and control the vehicle according to the set driver profile.
상기 미리 저장된 운전자 행동 패턴 모델은, 상기 차량의 운전자의 행동 패턴을 기계 학습한 인공지능모델일 수 있다.The above-mentioned pre-stored driver behavior pattern model may be an artificial intelligence model that machine-learns the behavior pattern of the driver of the vehicle.
상기 차량의 운전자 프로필 자동 설정 장치는 사용자 단말과 블루투스 또는 NFC를 포함하는 근거리통신네트워크를 통해 통신하는 근거리통신부를 더 포함하고, The driver profile automatic setting device of the above vehicle further includes a short-range communication unit that communicates with a user terminal via a short-range communication network including Bluetooth or NFC,
상기 프로세서는, 상기 사용자 단말로부터 전송된 사용자 정보를 기초로 상기 식별된 운전자 정보를 확인할 수 있다.The above processor can verify the identified driver information based on the user information transmitted from the user terminal.
상기 차량의 운전자 프로필 자동 설정 장치는 상기 설정된 운전자 프로필을 상기 차량의 디스플레이에 표시하는 디스플레이부를 더 포함하고,The driver profile automatic setting device of the above vehicle further includes a display unit that displays the set driver profile on the display of the vehicle,
상기 프로세서는, 상기 표시된 운전자 프로필에 대한 선택에 따라 운전자설정제어, 차량제어 및 편의기능제어 중 적어도 하나를 제어할 수 있다.The above processor can control at least one of driver setting control, vehicle control and convenience function control depending on the selection for the driver profile displayed above.
상기 운전자 프로필은, 사용자 정보, 시트 설정 정보, 주행 정보, 주소록 정보, 전화 기능 정보, 멀티미디어 정보 중 적어도 하나를 포함할 수 있다.The above driver profile may include at least one of user information, seat setting information, driving information, address book information, phone function information, and multimedia information.
상술한 또 다른 기술적 과제를 달성하기 위한 기술적 수단으로서, 또 다른 실시 예에 따른 차량의 운전자 프로필 자동 설정 장치를 포함하는 차량 인포테인먼트 시스템을 포함한다.As a technical means for achieving another technical task described above, a vehicle infotainment system including a device for automatically setting a driver profile of a vehicle according to another embodiment is provided.
상술한 또 다른 기술적 과제를 달성하기 위한 기술적 수단으로서, 또 다른 실시 예에 따른 차량의 운전자 프로필 자동 설정 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 기록매체를 포함한다.As a technical means for achieving another technical task described above, a recording medium is provided which records a program for executing a method for automatically setting a driver profile of a vehicle according to another embodiment on a computer.
도 1은 차량의 내부 블록 도이다.
도 2는 도 1에 도시된 차량 운전 보조 시스템(ADAS)의 블록 도이다.
도 3은 일 실시 예에 따른 프로필 자동 설정 장치의 개략 도이다.
도 4는 도 3에 도시된 IVI 장치(300)의 개략 도이다.
도 5는 프로필을 설정하는 것을 설명하기 위한 도면이다.
도 6은 운전자 행동 패턴에 기초한 프로필 자동 설정 방법을 설명하기 위한 흐름 도이다.
도 7은 도 3에 도시된 사용자 단말(350)의 개략 도이다.
도 8은 일 실시 예에 따른 차량 내에서의 다양한 사용자 입력을 설명하기 위한 예시 도이다.
도 9는 일 실시 예에 다른 운전자행동패턴모델을 생성하기 위한 기계학습을 설명하기 위한 예시 도이다. Figure 1 is an internal block diagram of the vehicle.
Figure 2 is a block diagram of the vehicle driving assistance system (ADAS) illustrated in Figure 1.
FIG. 3 is a schematic diagram of an automatic profile setting device according to one embodiment.
FIG. 4 is a schematic diagram of the IVI device (300) illustrated in FIG. 3.
Figure 5 is a drawing for explaining setting a profile.
Figure 6 is a flow chart for explaining a method for automatically setting a profile based on driver behavior patterns.
Figure 7 is a schematic diagram of the user terminal (350) illustrated in Figure 3.
FIG. 8 is an example diagram illustrating various user inputs within a vehicle according to one embodiment.
Figure 9 is an example diagram illustrating machine learning for generating another driver behavior pattern model in one embodiment.
본 명세서에서 다양한 곳에 등장하는 "일부 실시 예에서" 또는 "일 실시 예에서" 등의 어구는 반드시 모두 동일한 실시 예를 가리키는 것은 아니다.The appearances of the phrases “in some embodiments” or “in an embodiment” in various places throughout this specification are not necessarily all referring to the same embodiment.
본 개시의 일부 실시 예는 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들의 일부 또는 전부는, 특정 기능들을 실행하는 다양한 개수의 하드웨어 및/또는 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 본 개시의 기능 블록들은 하나 이상의 마이크로프로세서들에 의해 구현되거나, 소정의 기능을 위한 회로 구성들에 의해 구현될 수 있다. 또한, 예를 들어, 본 개시의 기능 블록들은 다양한 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능 블록들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 개시는 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. “메커니즘”, “요소”, “수단” 및 “구성” 등과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다.Some embodiments of the present disclosure may be represented by functional block configurations and various processing steps. Some or all of these functional blocks may be implemented by various numbers of hardware and/or software configurations that perform specific functions. For example, the functional blocks of the present disclosure may be implemented by one or more microprocessors, or may be implemented by circuit configurations for a given function. Also, for example, the functional blocks of the present disclosure may be implemented by various programming or scripting languages. The functional blocks may be implemented by algorithms that are executed on one or more processors. In addition, the present disclosure may employ conventional techniques for electronic environment settings, signal processing, and/or data processing, etc. Terms such as “mechanism,” “element,” “means,” and “configuration” may be used broadly and are not limited to mechanical and physical configurations.
또한, 도면에 도시된 구성 요소들 간의 연결 선 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것일 뿐이다. 실제 장치에서는 대체 가능하거나 추가된 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들에 의해 구성 요소들 간의 연결이 나타내어질 수 있다.In addition, the connecting lines or connecting members between components depicted in the drawings are only illustrative of functional connections and/or physical or circuit connections. In an actual device, connections between components may be represented by various functional connections, physical connections, or circuit connections that may be replaced or added.
실시 예에서, 운전자 행동 패턴은 차량 내에 배치된 다양한 센서에 기반한 운전자의 운전 패턴일 수 있다. 센서를 통해 얻어진 주행 데이터의 상관 관계를 비교, 분석하여 주행 패턴을 인식하고, 이를 기초로 운전자의 운전 패턴을 분석할 수 있다. 또한, 가속도 센서에 작용하는 중력값과 지자기 센서의 방향 데이터를 통해 각 운전 패턴을 분석할 수도 있다. 또한, 운전자 행동 패턴은 차량 내에 배치된 다양한 차량 제어 장치, 예를 들면 블랙박스장치, 멀티미디어 장치, 공조장치, 도어장치, 다양한 편의시설장치 등을 제어하는 운전자의 행동을 모니터링하고, 모니터링된 결과를 기초로 운전자 행동 패턴을 분석할 수 있다. In an embodiment, the driver behavior pattern may be a driver's driving pattern based on various sensors placed in the vehicle. The driving pattern can be recognized by comparing and analyzing the correlation of driving data obtained through the sensors, and the driver's driving pattern can be analyzed based on this. In addition, each driving pattern can be analyzed using the gravity value acting on the acceleration sensor and the direction data of the geomagnetic sensor. In addition, the driver behavior pattern can monitor the driver's behavior for controlling various vehicle control devices placed in the vehicle, such as a black box device, a multimedia device, an air conditioner, a door device, and various convenience devices, and analyze the driver behavior pattern based on the monitored results.
실시 예에서, 운전자 행동 패턴 모델은, 전술한 다양한 운전자 행동 패턴을 기계 학습한 결과들을 포함할 수 있다. 도 9를 참조하면, 다양한 운전자 행동 패턴에 상응하는 학습데이터들이 인공지능신경망에 입력되고, 기계학습을 통해 운전자 정보가 결과값으로 출력될 수 있다. In an embodiment, the driver behavior pattern model may include machine learning results of the various driver behavior patterns described above. Referring to FIG. 9, learning data corresponding to various driver behavior patterns are input into an artificial intelligence neural network, and driver information may be output as a result value through machine learning.
이하 첨부된 도면을 참고하여 본 개시를 상세히 설명하기로 한다.The present disclosure will be described in detail with reference to the attached drawings below.
도 1은 일 실시 예에 따른 차량의 내부 블록도이다. Figure 1 is an internal block diagram of a vehicle according to one embodiment.
도 1을 참조하면, 차량(100)은, 통신부(110), 입력부(120), 센싱부(125) 메모리(130), 출력부(140), 차량 구동부(150), 차량 운전 보조 시스템(ADAS, 160), 제어부(170), 인터페이스부(180) 및 전원 공급부(190)를 포함할 수 있다.Referring to FIG. 1, a vehicle (100) may include a communication unit (110), an input unit (120), a sensing unit (125), a memory (130), an output unit (140), a vehicle driving unit (150), an advanced driver assistance system (ADAS, 160), a control unit (170), an interface unit (180), and a power supply unit (190).
통신부(110)는, 근거리 통신 모듈, 위치 정보 모듈, 광통신 모듈 및 V2X 통신 모듈을 포함할 수 있다.The communication unit (110) may include a short-range communication module, a location information module, an optical communication module, and a V2X communication module.
입력부(120)는, 운전 조작 수단, 카메라, 마이크로폰 및 사용자 입력부를 포함할 수 있다.The input unit (120) may include a driving operation means, a camera, a microphone, and a user input unit.
운전 조작 수단은, 차량(100) 운전을 위한 사용자 입력을 수신한다. 운전 조작 수단은 조향 입력 수단, 쉬프트 입력 수단, 가속 입력 수단, 브레이크 입력 수단을 포함할 수 있다.The driving operation means receives user input for driving the vehicle (100). The driving operation means may include a steering input means, a shift input means, an acceleration input means, and a brake input means.
가속 입력 수단은, 사용자로부터 차량(100)의 가속을 위한 입력을 수신한다. 브레이크 입력 수단은, 사용자로부터 차량(100)의 감속을 위한 입력을 수신한다.The acceleration input means receives an input from the user for acceleration of the vehicle (100). The brake input means receives an input from the user for deceleration of the vehicle (100).
카메라는, 이미지 센서와 영상 처리 모듈을 포함할 수 있다. 카메라는 이미지 센서(예를 들면, CMOS 또는 CCD)에 의해 얻어지는 정지영상 또는 동영상을 처리할 수 있다. 영상 처리 모듈은 이미지 센서를 통해 획득된 정지영상 또는 동영상을 가공하여, 필요한 정보를 추출하고, 추출된 정보를 제어부(170)에 전달할 수 있다.The camera may include an image sensor and an image processing module. The camera may process still images or moving images obtained by the image sensor (e.g., CMOS or CCD). The image processing module may process still images or moving images obtained by the image sensor, extract necessary information, and transmit the extracted information to the control unit (170).
한편, 차량(100)은 차량 전방 영상을 촬영하는 전방 카메라, 차량 주변 영상을 촬영하는 어라운드 뷰 카메라 및 차량 후방 영상을 촬영하는 후방카메라를 포함할 수 있다. 각각의 카메라는 렌즈, 이미지 센서 및 프로세서를 포함할 수 있다. 프로세서는, 촬영되는 영상을 컴퓨터 처리하여, 데이터 또는 정보를 생성하고, 생성된 데이터 또는 정보를 제어부(170)에 전달할 수 있다. 카메라에 포함되는 프로세서는, 제어부(170)의 제어를 받을 수 있다. 실시 예에서, 카메라는 집합건물의 주차구역 또는 주차구역 주위, 예를 들면 주차구역의 바닥 또는 기둥에 부착된 QR코드를 촬영한다.Meanwhile, the vehicle (100) may include a front camera for capturing a front view image of the vehicle, an around view camera for capturing an image surrounding the vehicle, and a rear camera for capturing an image behind the vehicle. Each camera may include a lens, an image sensor, and a processor. The processor may perform computer processing on the captured image to generate data or information, and transmit the generated data or information to the control unit (170). The processor included in the camera may be controlled by the control unit (170). In an embodiment, the camera captures a QR code attached to a parking area of an apartment building or around a parking area, for example, a floor or pillar of a parking area.
카메라는 스테레오 카메라를 포함할 수 있다. 이 경우, 카메라의 프로세서는, 스테레오 영상에서 검출된 디스페리티(disparity) 차이를 이용하여, 오브젝트와의 거리, 영상에서 검출된 오브젝트와의 상대 속도, 복수의 오브젝트 간의 거리를 검출할 수 있다.The camera may include a stereo camera. In this case, the camera's processor may use the disparity difference detected in the stereo images to detect the distance to an object, the relative velocity with respect to an object detected in the images, and the distance between multiple objects.
카메라는 TOF(Time of Flight) 카메라를 포함할 수 있다. 이 경우, 카메라는, 광원(예를 들면, 적외선 또는 레이저) 및 수신부를 포함할 수 있다. 이 경우, 카메라의 프로세서는, 광원에서 발신되는 적외선 또는 레이저가 오브젝트에 반사되어 수신될 때까지의 시간(TOF)에 기초하여 오브젝트와의 거리, 오브젝트와의 상대 속도, 복수의 오브젝트 간의 거리를 검출할 수 있다.The camera may include a Time of Flight (TOF) camera. In this case, the camera may include a light source (e.g., infrared or laser) and a receiver. In this case, the processor of the camera may detect the distance to the object, the relative speed to the object, and the distance between multiple objects based on the time (TOF) until the infrared or laser transmitted from the light source is reflected by the object and received.
한편, 후방 카메라는, 후방 번호판 또는 트렁크 또는 테일 게이트 스위치 부근에 배치될 수 있으나, 후방 카메라가 배치되는 위치는 이에 제한되지 않는다.Meanwhile, the rear camera may be placed near the rear license plate or the trunk or tailgate switch, but the location where the rear camera is placed is not limited thereto.
복수의 카메라에서 촬영된 각각의 이미지는, 카메라의 프로세서에 전달되고, 프로세서는 상기 각각의 이미지를 합성하여, 차량 주변 영상을 생성할 수 있다. 이때, 차량 주변 영상은 탑뷰 이미지 또는 버드 아이 이미지로 디스플레이부를 통해 표시될 수 있다.Each image captured from multiple cameras is transmitted to the camera's processor, and the processor can synthesize each image to create an image of the vehicle's surroundings. At this time, the image of the vehicle's surroundings can be displayed as a top-view image or a bird's-eye image through the display unit.
센싱부(125)는, 차량(100)의 각종 상황을 센싱한다. 이를 위해, 센싱부(125)는, 충돌 센서, 휠 센서(wheel sensor), 속도 센서, 경사 센서, 중량 감지 센서, 헤딩 센서(heading sensor), 요 센서(yaw sensor), 자이로 센서(gyro sensor), 포지션 모듈(position module), 차량 전진/후진 센서, 배터리 센서, 연료 센서, 타이어 센서, 핸들 회전에 의한 스티어링 센서, 차량 내부 온도 센서, 차량 내부 습도 센서, 초음파 센서, 조도 센서, 레이더, 라이더 등을 포함할 수 있다.The sensing unit (125) senses various situations of the vehicle (100). To this end, the sensing unit (125) may include a collision sensor, a wheel sensor, a speed sensor, an inclination sensor, a weight detection sensor, a heading sensor, a yaw sensor, a gyro sensor, a position module, a vehicle forward/backward sensor, a battery sensor, a fuel sensor, a tire sensor, a steering sensor by steering wheel rotation, a vehicle internal temperature sensor, a vehicle internal humidity sensor, an ultrasonic sensor, an illuminance sensor, a radar, a lidar, and the like.
이에 의해, 센싱부(125)는, 차량 충돌 정보, 차량 방향 정보, 차량 위치 정보(GPS 정보), 차량 각도 정보, 차량 속도 정보, 차량 가속도 정보, 차량 기울기 정보, 차량 전진/후진 정보, 배터리 정보, 연료 정보, 타이어 정보, 차량 램프 정보, 차량 내부 온도 정보, 차량 내부 습도 정보, 스티어링 휠 회전 각도, 차량 외부 조도 등에 대한 센싱 신호를 획득할 수 있다.Accordingly, the sensing unit (125) can obtain sensing signals for vehicle collision information, vehicle direction information, vehicle location information (GPS information), vehicle angle information, vehicle speed information, vehicle acceleration information, vehicle inclination information, vehicle forward/backward information, battery information, fuel information, tire information, vehicle lamp information, vehicle internal temperature information, vehicle internal humidity information, steering wheel rotation angle, vehicle external illumination, etc.
메모리(130)는, 제어부(170)와 전기적으로 연결된다. 메모리(130)는 유닛에 대한 기본데이터, 유닛의 동작제어를 위한 제어데이터, 입출력되는 데이터를 저장할 수 있다. 메모리(130)는, 하드웨어적으로, ROM, RAM, EPROM, 플래시 드라이브, 하드 드라이브 등과 같은 다양한 저장기기 일 수 있다. 메모리(130)는 제어부(170)의 처리 또는 제어를 위한 프로그램 등, 차량(100) 전반의 동작을 위한 다양한 데이터를 저장할 수 있다.The memory (130) is electrically connected to the control unit (170). The memory (130) can store basic data for the unit, control data for controlling the operation of the unit, and input/output data. The memory (130) can be various storage devices such as ROM, RAM, EPROM, flash drive, hard drive, etc. in terms of hardware. The memory (130) can store various data for the operation of the entire vehicle (100), such as programs for processing or controlling the control unit (170).
출력부(140)는, 제어부(170)에서 처리된 정보를 출력하기 위한 것으로, 디스플레이부, 음향 출력부 및 햅틱 출력부를 포함할 수 있다.The output unit (140) is for outputting information processed in the control unit (170) and may include a display unit, an audio output unit, and a haptic output unit.
디스플레이부는 제어부(170)에서 처리되는 정보를 표시할 수 있다. 예를 들면, 디스플레이부는 차량 관련 정보를 표시할 수 있다. 여기서, 차량 관련 정보는, 현재 차량의 상태를 알려주는 차량 상태 정보 또는 차량의 운행과 관련되는 차량 운행 정보를 포함할 수 있다. 예를 들어, 디스플레이부는 현재 차량의 속도(또는 속력), 주변차량의 속도(또는 속력) 및 현재 차량과 주변차량 간의 거리 정보를 표시할 수 있다.The display unit can display information processed by the control unit (170). For example, the display unit can display vehicle-related information. Here, the vehicle-related information can include vehicle status information indicating the current vehicle status or vehicle operation information related to the operation of the vehicle. For example, the display unit can display the current vehicle speed (or velocity), the speed (or velocity) of surrounding vehicles, and the distance information between the current vehicle and surrounding vehicles.
한편, 디스플레이부는 운전자가 운전을 함과 동시에 차량 상태 정보 또는 차량 운행 정보를 확인할 수 있도록 클러스터(cluster)를 포함할 수 있다. 클러스터는 대시보드 위에 위치할 수 있다. 이 경우, 운전자는, 시선을 차량 전방에 유지한 채로 클러스터에 표시되는 정보를 확인할 수 있다.Meanwhile, the display section may include a cluster so that the driver can check vehicle status information or vehicle operation information while driving. The cluster may be located on the dashboard. In this case, the driver can check the information displayed on the cluster while keeping his/her eyes on the front of the vehicle.
음향 출력부는 제어부(170)로부터의 전기 신호를 오디오 신호로 변환하여 출력한다. 이를 위해, 음향 출력부는 스피커 등을 구비할 수 있다.The audio output unit converts an electric signal from the control unit (170) into an audio signal and outputs it. For this purpose, the audio output unit may be equipped with a speaker, etc.
차량 구동부(150)는, 차량 각종 장치의 동작을 제어할 수 있다. 차량 구동부(150)는 동력원 구동부, 조향 구동부, 브레이크 구동부, 램프 구동부, 공조 구동부, 윈도우 구동부, 에어백 구동부, 썬루프 구동부 및 서스펜션 구동부를 포함할 수 있다.The vehicle drive unit (150) can control the operation of various vehicle devices. The vehicle drive unit (150) can include a power source drive unit, a steering drive unit, a brake drive unit, a lamp drive unit, an air conditioning drive unit, a window drive unit, an airbag drive unit, a sunroof drive unit, and a suspension drive unit.
동력원 구동부는, 차량(100) 내의 동력원에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 화석 연료 기반의 엔진(미도시)이 동력원인 경우, 동력원 구동부는, 엔진에 대한 전자식 제어를 수행할 수 있다. 이에 의해, 엔진의 출력 토크 등을 제어할 수 있다. 동력원 구동부가 엔진인 경우, 제어부(170)의 제어에 따라, 엔진 출력 토크를 제한하여 차량의 속도를 제한할 수 있다.The power source drive unit can perform electronic control of the power source within the vehicle (100). For example, if a fossil fuel-based engine (not shown) is the power source, the power source drive unit can perform electronic control of the engine. Accordingly, the output torque of the engine, etc. can be controlled. If the power source drive unit is an engine, the engine output torque can be limited according to the control of the control unit (170), thereby limiting the speed of the vehicle.
브레이크 구동부는, 차량(100) 내의 브레이크 장치(brake apparatus)(미도시)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 바퀴에 배치되는 브레이크의 동작을 제어하여, 차량(100)의 속도를 줄일 수 있다. 다른 예로, 좌측 바퀴와 우측 바퀴에 각각 배치되는 브레이크의 동작을 달리하여, 차량(100)의 진행 방향을 좌측, 또는 우측으로 조정할 수 있다.The brake drive unit can perform electronic control of a brake apparatus (not shown) within the vehicle (100). For example, the speed of the vehicle (100) can be reduced by controlling the operation of the brakes arranged on the wheels. As another example, the direction of travel of the vehicle (100) can be adjusted to the left or right by differently operating the brakes arranged on the left and right wheels, respectively.
램프 구동부는, 차량 내, 외부에 배치되는 램프의 턴 온/턴 오프를 제어할 수 있다. 또한, 램프의 빛의 세기, 방향 등을 제어할 수 있다. 예를 들면, 방향 지시 램프, 브레이크 램프 등의 대한 제어를 수행할 수 있다.The lamp driving unit can control the turning on/off of lamps placed inside and outside the vehicle. In addition, it can control the light intensity and direction of the lamp. For example, it can control turn signal lamps, brake lamps, etc.
제어부(170)는, 차량(100) 내의 각 유닛의 전반적인 동작을 제어할 수 있다. 제어부(170)는 ECU(Electronic Contol Unit)로 명명될 수 있다. 상술한 사고 유무 판단 장치는 제어부(170)에 의해 구동될 수 있다.The control unit (170) can control the overall operation of each unit in the vehicle (100). The control unit (170) can be called an ECU (Electronic Control Unit). The above-described accident presence/absence judgment device can be driven by the control unit (170).
제어부(170)는, 하드웨어적으로, ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로프로세서(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다.The control unit (170) may be implemented in hardware using at least one of ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays), processors, controllers, micro-controllers, microprocessors, and other electrical units for performing functions.
일 실시 예에서 제어부(170)는 차량의 운전자로부터 행동 패턴에 상응하는 사용자 입력을 수신하고, 저장된 운전자 행동 패턴 모델을 참조하여, 수신된 사용자 입력을 기초로 운전자 정보를 식별할 수 있다. 또한, 제어부(170)는 식별된 운전자 정보를 기초로 운전자 프로필을 설정하고, 설정된 운전자 프로필에 따라 차량을 제어할 수 있다.In one embodiment, the control unit (170) may receive a user input corresponding to a behavioral pattern from a driver of a vehicle, and identify driver information based on the received user input by referring to a stored driver behavioral pattern model. In addition, the control unit (170) may set a driver profile based on the identified driver information, and control the vehicle according to the set driver profile.
인터페이스부(180)는, 차량(100)에 연결되는 다양한 종류의 외부 기기와의 통로 역할을 수행할 수 있다. 예를 들면, 인터페이스부(180)는 이동 단말기(미도시)와 연결 가능한 포트를 구비할 수 있고, 상기 포트를 통해, 이동 단말기(미도시)와 연결할 수 있다. 이 경우, 인터페이스부(180)는 이동 단말기와 데이터를 교환할 수 있다.The interface unit (180) can serve as a passageway for various types of external devices connected to the vehicle (100). For example, the interface unit (180) can be equipped with a port that can be connected to a mobile terminal (not shown), and can be connected to a mobile terminal (not shown) through the port. In this case, the interface unit (180) can exchange data with the mobile terminal.
전원 공급부(190)는, 제어부(170)의 제어에 따라, 각 구성요소들의 동작에 필요한 전원을 공급할 수 있다. 특히, 전원 공급부(190)는, 차량 내부의 배터리(미도시) 등으로부터 전원을 공급받을 수 있다.The power supply unit (190) can supply power required for the operation of each component under the control of the control unit (170). In particular, the power supply unit (190) can receive power from a battery (not shown) inside the vehicle.
도 2는 도 1에 도시된 차량 운전 보조 시스템(ADAS)의 블록 도이다.Figure 2 is a block diagram of the vehicle driving assistance system (ADAS) illustrated in Figure 1.
ADAS(200)는, 편의, 안전 제공을 위해 운전자를 보조하는 차량 운전 보조 시스템이다.ADAS (200) is a vehicle driving assistance system that assists drivers to provide convenience and safety.
ADAS(200)는, 자동 비상 제동 모듈(이하, AEB: Autonomous Emergency Braking)(210), 전방 충돌 회피 모듈 (이하, FCW: Foward Collision Warning)(211), 차선 이탈 경고 모듈 (이하, LDW: Lane Departure Warning)(212), 차선 유지 보조 모듈 (이하, LKA: Lane Keeping Assist)(213), 속도 지원 시스템 모듈 (이하, SAS: Speed Assist System)(214), 교통 신호 검출 모듈 (TSR: Traffic Sign Recognition)(215), 적응형 상향등 제어 모듈 (이하, HBA: High Beam Assist)(216), 사각 지대 감시 모듈 (이하, BSD: Blind Spot Detection)(217), 자동 비상 조향 모듈 (이하, AES: Autonomous Emergency Steering)(218), 커브 속도 경고 시스템 모듈 (이하, CSWS: Curve Speed Warning System)(219), 적응 순향 제어 모듈 (이하, ACC: Adaptive Cruise Control)(220), 스마트 주차 시스템 모듈 (이하, SPAS: Smart Parking Assist System)(221), 교통 정체 지원 모듈 (이하, TJA: Traffic Jam Assist)(222) 및 어라운드 뷰 모니터 모듈 (이하, AVM: Around View Monitor)(223)을 포함할 수 있다.ADAS (200) includes an automatic emergency braking module (hereinafter, AEB: Autonomous Emergency Braking) (210), a forward collision avoidance module (hereinafter, FCW: Foward Collision Warning) (211), a lane departure warning module (hereinafter, LDW: Lane Departure Warning) (212), a lane keeping assistance module (hereinafter, LKA: Lane Keeping Assist) (213), a speed support system module (hereinafter, SAS: Speed Assist System) (214), a traffic sign detection module (TSR: Traffic Sign Recognition) (215), an adaptive high beam control module (hereinafter, HBA: High Beam Assist) (216), a blind spot monitoring module (hereinafter, BSD: Blind Spot Detection) (217), an automatic emergency steering module (hereinafter, AES: Autonomous Emergency Steering) (218), a curve speed warning system module (hereinafter, CSWS: Curve Speed Warning System) (219), and an adaptive cruise control module (hereinafter, ACC: Adaptive Cruise Control)(220), a smart parking system module (hereinafter, SPAS: Smart Parking Assist System)(221), a traffic jam assistance module (hereinafter, TJA: Traffic Jam Assist)(222), and an around view monitor module (hereinafter, AVM: Around View Monitor)(223).
상기 각각의 ADAS 모듈(210, 211, 212, 213, 214, 215, 216, 217, 218, 219, 220, 221, 222, 223)들은 차량 운전 보조 기능 제어를 위한 프로세서를 포함할 수 있다.Each of the above ADAS modules (210, 211, 212, 213, 214, 215, 216, 217, 218, 219, 220, 221, 222, 223) may include a processor for controlling vehicle driving assistance functions.
상기 각각의 ADAS 모듈(210, 211, 212, 213, 214, 215, 216, 217, 218, 219, 220, 221, 222, 223)에 포함되는 프로세서는, 제어부(270)의 제어를 받을 수 있다.The processor included in each of the above ADAS modules (210, 211, 212, 213, 214, 215, 216, 217, 218, 219, 220, 221, 222, 223) can be controlled by the control unit (270).
상기 각각의 ADAS 모듈(210, 211, 212, 213, 214, 215, 216, 217, 218, 219, 220, 221, 222, 223) 프로세서는, 하드웨어적으로, ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다.Each of the above ADAS modules (210, 211, 212, 213, 214, 215, 216, 217, 218, 219, 220, 221, 222, 223) processors can be implemented in hardware using at least one of ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays), processors, controllers, micro-controllers, microprocessors, and other electrical units for performing functions.
AEB(210)는, 검출된 오브젝트와의 충돌을 방지하기 위해, 자동 제동을 제어하는 모듈이다. FCW(211)는, 차량 전방 오브젝트와의 충돌을 방지하기 위해, 경고가 출력되도록 제어하는 모듈이다. LDW(212)는, 주행 중 차선 이탈 방지를 위해, 경고가 출력되도록 제어하는 모듈이다. LKA(213)는, 주행 중 주행 차선 유지하도록 제어하는 모듈이다. SAS(214)는, 설정된 속도 이하로 주행하도록 제어하는 모듈이다. TSR(215)은, 주행 중 교통 신호를 감지하여 감지된 교통 신호를 기초로 정보를 제공하는 모듈이다. HBA(216)는, 주행 상황에 따라 상향등의 조사 범위 또는 조사량을 제어하는 모듈이다. BSD(217)는, 주행 중, 운전자 시야 밖의 오브젝트를 검출하고, 검출 정보를 제공하는 모듈이다. AES(218)는, 비상시 조향을 자동으로 수행하는 모듈이다. CSWS(219)는, 커브 주행시 기 설정 속도 이상으로 주행하는 경우 경로를 출력하도록 제어하는 모듈이다. ACC(220)는, 선행 차량을 추종하여 주행하도록 제어하는 모듈이다. SPAS(221)는, 주차 공간을 검출하고, 주차 공간에 주차하도록 제어하는 모듈이다. TJA(222)는, 교통 정체시 자동 운행하도록 제어하는 모듈이다. AVM(223)은, 차량 주변 영상을 제공하고, 차량 주변을 모니터링하도록 제어하는 모듈이다. AEB (210) is a module that controls automatic braking to prevent collision with a detected object. FCW (211) is a module that controls to output a warning to prevent collision with an object in front of the vehicle. LDW (212) is a module that controls to output a warning to prevent lane departure during driving. LKA (213) is a module that controls to maintain a driving lane during driving. SAS (214) is a module that controls to drive at a set speed or lower. TSR (215) is a module that detects traffic signals during driving and provides information based on the detected traffic signals. HBA (216) is a module that controls the irradiation range or irradiation amount of high beams depending on the driving situation. BSD (217) is a module that detects objects outside the driver's field of vision during driving and provides detection information. AES (218) is a module that automatically performs steering in an emergency. CSWS (219) is a module that controls to output a path when driving at a speed higher than the preset speed during curve driving. ACC (220) is a module that controls to drive by following a preceding vehicle. SPAS (221) is a module that detects a parking space and controls to park in the parking space. TJA (222) is a module that controls to drive automatically in traffic congestion. AVM (223) is a module that provides a video of the vehicle's surroundings and controls to monitor the vehicle's surroundings.
ADAS(200)는, 입력부(230) 또는 센싱부(235)에서 획득한 데이터를 기초로, 각각의 차량 운전 보조 기능을 수행하기 위한 제어 신호를 출력부(250) 또는 차량 구동부(260)에 제공할 수 있다. ADAS(200)는, 상기 제어 신호를, 출력부(250) 또는 차량 구동부(260)에 차량 내부 네트워크 통신(예를 들면, CAN)을 통해, 직접 출력할 수 있다. 또는, ADAS(200)는, 상기 제어 신호를, 제어부(270)를 거쳐, 출력부(250) 또는 차량 구동부(260)에 출력할 수 있다.The ADAS (200) can provide a control signal for performing each vehicle driving assistance function to the output unit (250) or the vehicle driving unit (260) based on data acquired from the input unit (230) or the sensing unit (235). The ADAS (200) can directly output the control signal to the output unit (250) or the vehicle driving unit (260) through the vehicle internal network communication (e.g., CAN). Alternatively, the ADAS (200) can output the control signal to the output unit (250) or the vehicle driving unit (260) through the control unit (270).
도 3은 일 실시 예에 따른 차량의 운전자 프로필 자동 설정 장치의 개략 도이다.FIG. 3 is a schematic diagram of a device for automatically setting a driver profile of a vehicle according to one embodiment.
도 3을 참조하면, IVI 장치(300), 사용자단말(310), 네트워크(320) 및 운전자행동패턴모델(330)이 도시되어 있다. IVI 장치(300)와 사용자 단말(310)는 네트워크(320)를 통해 접속된다. 여기서, 네트워크(320)는 근거리 통신을 지원하는 네트워크일 수 있으며, 블루투스 또는 NFC일 수 있으나, 이에 한정되는 것은 아니다. IVI 장치(300)는 차량에 탑재된 멀티미디어 기기로서, 블랙박스, 네비케이션 등일 수 있다. IVI장치(300)는 운전자행동패턴모델(330)을 탑재할 수 있으며, IVI장치(300)는 운전자행동패턴모델(330)을 참조하여 사용자 입력에 대해 운전자 정보를 식별할 수 있다. 운전자행동패턴모델(330)은 차량의 운전자의 행동 패턴을 기계 학습한 인공지능모델일 수 있다. 예를 들면 차량에서의 운전자 행동 패턴을 스스로 학습하여 모델링한 것으로, 운전자의 운전습관, 주행습관, 차량제어, 멀티미디어 제어, 운행패턴 등을 학습한 결과물을 포함할 수 있다.Referring to FIG. 3, an IVI device (300), a user terminal (310), a network (320), and a driver behavior pattern model (330) are illustrated. The IVI device (300) and the user terminal (310) are connected via a network (320). Here, the network (320) may be a network that supports short-range communication, and may be, but is not limited to, Bluetooth or NFC. The IVI device (300) is a multimedia device mounted on a vehicle, and may be a black box, a navigation system, etc. The IVI device (300) may be equipped with a driver behavior pattern model (330), and the IVI device (300) may identify driver information for user input by referring to the driver behavior pattern model (330). The driver behavior pattern model (330) may be an artificial intelligence model that machine-learns the behavior pattern of a driver of a vehicle. For example, it can include the results of learning the driver's driving habits, driving habits, vehicle control, multimedia control, and driving patterns by modeling the driver's behavior patterns in the vehicle.
실시 예에서, IVI 장치(300)는 차량의 운전자로부터 행동 패턴에 상응하는 사용자 입력을 수신하고, 저장된 운전자 행동 패턴 모델을 참조하여, 수신된 사용자 입력을 기초로 운전자 정보를 식별할 수 있다. 여기서, 사용자 입력은 도 8에 도시된 것처럼, 차량 내의 다양한 사용자의 정보 및 제어 입력을 모두 포함할 수 있다. 그리고, 식별된 운전자 정보를 기초로 운전자 프로필을 설정하고, 설정된 운전자 프로필에 따라 차량을 제어할 수 있다. 여기서, 차량을 제어하는 것은 운전자설정제어, 차량제어, 편의기능제어 등을 포함할 수 있다. 또한, 운전자 프로필은 사용자 정보, 시트 설정 정보, 주행 정보, 주소록 정보, 전화 기능 정보, 멀티미디어 정보 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.In an embodiment, the IVI device (300) may receive a user input corresponding to a behavioral pattern from a driver of a vehicle, and identify driver information based on the received user input by referring to a stored driver behavior pattern model. Here, the user input may include all of information and control inputs of various users in the vehicle, as illustrated in FIG. 8. Then, a driver profile may be set based on the identified driver information, and the vehicle may be controlled according to the set driver profile. Here, controlling the vehicle may include driver setting control, vehicle control, convenience function control, etc. In addition, the driver profile may include, but is not limited to, user information, seat setting information, driving information, address book information, phone function information, multimedia information, etc.
실시 예에서, IVI 장치(300)는 근거리 통신을 이용하여 차량의 운전자 프로필을 자동으로 설정할 수 있다. IVI 장치(300)는 차량에 탑승한 운전자의 사용자 단말(310)과 근거리 통신을 통해 네트워크를 형성하고, 사용자 단말(310)로부터 운전자 프로필 정보를 수신하고, 수신된 운전자 프로필 정보에 따라 차량의 운전자 프로필을 설정한다. 여기서, IVI 장치(300)와 사용자 단말(310) 간에 네트워크가 형성되면, 사용자 단말(310)에서 차량 애플리케이션이 실행될 수 있다. 이때 차량 애플리케이션을 통해 미리 입력된 사용자 정보가 자동으로 추출되어, IVI 장치(300)에 전송될 수 있다. In an embodiment, the IVI device (300) can automatically set a driver profile of a vehicle using short-range communication. The IVI device (300) forms a network with a user terminal (310) of a driver riding in a vehicle through short-range communication, receives driver profile information from the user terminal (310), and sets a driver profile of the vehicle according to the received driver profile information. Here, when a network is formed between the IVI device (300) and the user terminal (310), a vehicle application can be executed in the user terminal (310). At this time, user information previously input through the vehicle application can be automatically extracted and transmitted to the IVI device (300).
실시 예에서, IVI 장치(300)는 사용자 단말로부터 전송된 사용자 정보를 기초로 운전자 행동패턴을 참조하여 식별된 운전자 정보를 확인할 수도 있다.In an embodiment, the IVI device (300) may also identify driver information by referencing driver behavior patterns based on user information transmitted from a user terminal.
실시 예에서, IVI 장치(300)는 도 5에 도시된 것처럼, 사용자 단말(310)로부터 수신된 운전자 프로필을 디스플레이에 표시할 수 있다. 운전자 또는 사용자가 디스플레이에 표시된 운전자 프로필을 확인 또는 선택한 경우, 차량의 운전자 설정 제어, 차량 제어, 편의기능제어 등을 확인 또는 선택된 운전자 프로필에 따라 변경할 수 있다. 여기서, 운전자 프로필은 사용자 정보, 시트 위치 설정 정보, 주행 정보, 주소록 정보, 전화 기능 정보, 멀티미디어 정보 등을 포함할 수 있다.In an embodiment, the IVI device (300) may display a driver profile received from a user terminal (310) on the display, as illustrated in FIG. 5. When a driver or user checks or selects a driver profile displayed on the display, driver setting control, vehicle control, convenience function control, etc. of the vehicle may be changed according to the checked or selected driver profile. Here, the driver profile may include user information, seat position setting information, driving information, address book information, phone function information, multimedia information, etc.
실시 예에서, IVI 장치(300)는 복수의 사용자 단말(310)이 차량 내에 존재하는 경우, 우선 순위가 부여된 사용자 단말과 네트워크를 형성할 수 있다. 예를 들면 운전석에 탑승한 사용자 단말과 우선적으로 네트워크를 형성할 수 있다.In an embodiment, the IVI device (300) may form a network with a user terminal to which priority is given when multiple user terminals (310) exist in the vehicle. For example, a network may be formed with a user terminal in the driver's seat with priority given to the user terminal.
실시 예에 따른 IVI 장치(300)는 설정된 운전자 프로필을 차량의 디스플레이에 표시하고, 표시된 운전자 프로필에 대한 선택에 따라 운전자설정제어, 차량제어 및 편의기능제어 중 적어도 하나를 제어할 수 있다.An IVI device (300) according to an embodiment can display a set driver profile on a display of a vehicle and control at least one of driver setting control, vehicle control, and convenience function control according to a selection for the displayed driver profile.
도 4는 도 3에 도시된 IVI 장치(300) 또는 차량 인포테인먼트 장치(300)의 개략 도이다.FIG. 4 is a schematic diagram of the IVI device (300) or vehicle infotainment device (300) illustrated in FIG. 3.
도 4에 도시된 바와 같이, 차량 인포테인먼트 장치(400)는 센싱부(410), 제어부(420), 출력부(430), A/V 입력부(440) 및 메모리(450)를 포함할 수 있다. 그러나 도시된 구성요소 모두가 필수구성요소인 것은 아니다. 도시된 구성요소보다 많은 구성요소에 의해 차량 인포테인먼트 장치(400)가 구현될 수도 있고, 그보다 적은 구성요소에 의해서도 차량 인포테인먼트 장치(400)는 구현될 수 있다.As illustrated in FIG. 4, the vehicle infotainment device (400) may include a sensing unit (410), a control unit (420), an output unit (430), an A/V input unit (440), and a memory (450). However, not all of the illustrated components are essential components. The vehicle infotainment device (400) may be implemented with more components than the illustrated components, or may be implemented with fewer components.
센싱부(410)는, 지자기 센서(Magnetic sensor)(411), 가속도 센서(Acceleration sensor)(412), 온/습도 센서(613), 적외선 센서(414), 자이로스코프 센서(415), 위치 센서(예컨대, GPS)(416), 기압 센서(417), 근접 센서(418) 및 RGB 센서(illuminance sensor)(419) 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다. 각 센서들의 기능은 그 명칭으로부터 당업자가 직관적으로 추론할 수 있으므로, 구체적인 설명은 생략하기로 한다.The sensing unit (410) may include at least one of a magnetic sensor (411), an acceleration sensor (412), a temperature/humidity sensor (613), an infrared sensor (414), a gyroscope sensor (415), a position sensor (e.g., GPS) (416), a pressure sensor (417), a proximity sensor (418), and an RGB sensor (illuminance sensor) (419), but is not limited thereto. Since the function of each sensor can be intuitively inferred from its name by those skilled in the art, a detailed description thereof will be omitted.
제어부(420)는 통상적으로 차량 인포테인먼트 장치(400)의 전반적인 동작을 제어한다. 예를 들어, 제어부(420)는, 메모리(450)에 저장된 프로그램들을 실행함으로써, 센싱부(410), 출력부(430), A/V 입력부(440) 및 메모리(450) 등을 전반적으로 제어할 수 있다. The control unit (420) typically controls the overall operation of the vehicle infotainment device (400). For example, the control unit (420) can control the sensing unit (410), the output unit (430), the A/V input unit (440), and the memory (450) by executing programs stored in the memory (450).
제어부(420)는 도 3을 참조하여 설명한 바와 같이, 차량의 운전자로부터 행동 패턴에 상응하는 사용자 입력을 수신하고, 저장된 운전자 행동 패턴 모델을 참조하여, 수신된 사용자 입력을 기초로 운전자 정보를 식별할 수 있다. 그리고, 식별된 운전자 정보를 기초로 운전자 프로필을 설정하고, 설정된 운전자 프로필에 따라 차량을 제어할 수 있다. The control unit (420) can receive user input corresponding to a behavioral pattern from the driver of the vehicle as described with reference to FIG. 3, and identify driver information based on the received user input by referring to the stored driver behavior pattern model. Then, a driver profile can be set based on the identified driver information, and the vehicle can be controlled according to the set driver profile.
출력부(430)는, 제어부(420)에서 결정된 동작을 수행하기 위한 것으로, 이에는 디스플레이부(431) 및 음향 출력부(432) 등이 포함될 수 있다. The output unit (430) is for performing an operation determined by the control unit (420), and may include a display unit (431) and an audio output unit (432).
음향 출력부(432)는 오디오 데이터를 출력한다. 또한, 음향 출력부(432)는 장치(400)에서 수행되는 기능(예를 들어, 알림음)과 관련된 음향 신호를 출력한다. 이러한 음향 출력부(332)에는 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.The audio output unit (432) outputs audio data. In addition, the audio output unit (432) outputs an audio signal related to a function (e.g., a notification sound) performed in the device (400). The audio output unit (332) may include a speaker, a buzzer, etc.
A/V(Audio/Video) 입력부(440)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(441)와 마이크로폰(442) 등이 포함될 수 있다. 카메라(441)는 화상 통화모드 또는 촬영 모드에서 이미지 센서를 통해 정지영상 또는 동영상 등의 화상 프레임을 얻을 수 있다. 이미지 센서를 통해 캡쳐된 이미지는 제어부(420) 또는 별도의 이미지 처리부(미도시)를 통해 처리될 수 있다. The A/V (Audio/Video) input unit (440) is for inputting audio signals or video signals, and may include a camera (441) and a microphone (442), etc. The camera (441) can obtain image frames, such as still images or moving images, through an image sensor in a video call mode or a shooting mode. An image captured through the image sensor can be processed through a control unit (420) or a separate image processing unit (not shown).
카메라(441)에서 처리된 화상 프레임은 메모리(450)에 저장되거나 통신부(미도시)를 통하여 외부로 전송될 수 있다. 마이크로폰(442)은, 외부의 음향 신호를 입력 받아 전기적인 음성 데이터로 처리한다. 예를 들어, 마이크로폰(442)은 사용자의 음성 입력을 수신할 수 있다. 마이크로폰(442)은 외부의 음향 신호를 입력받는 과정에서 발생 되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘을 이용할 수 있다. The image frame processed by the camera (441) may be stored in the memory (450) or transmitted externally through a communication unit (not shown). The microphone (442) receives an external sound signal and processes it into electrical voice data. For example, the microphone (442) may receive a user's voice input. The microphone (442) may utilize various noise removal algorithms to remove noise generated in the process of receiving an external sound signal.
메모리(450)는 제어부(420)의 처리 및 제어를 위한 프로그램을 저장할 수도 있고, 입/출력되는 데이터들을 저장할 수도 있다. 또한, 메모리(450)는 차량 제어 장치로부터 수신된 차량 정보, 예를 들면 차속, 엔진 회전수 등을 저장할 수 있다. 실시 예에서, 메모리(450)는 운전자행동패턴모델을 저장할 수 있다. 여기서, 운전자행동패턴모델은 차량의 운전자의 행동 패턴을 기계학습한 인공지능모델일 수 있다.The memory (450) may store a program for processing and controlling the control unit (420), and may store input/output data. In addition, the memory (450) may store vehicle information received from the vehicle control device, such as vehicle speed, engine RPM, etc. In an embodiment, the memory (450) may store a driver behavior pattern model. Here, the driver behavior pattern model may be an artificial intelligence model that machine-learns the behavior pattern of the driver of the vehicle.
일 실시예에 따른 메모리(450)는 복수의 운영체제를 저장할 수 있다. 또한, 메모리(450)는 복수의 운영체제 각각에서 실행되는 애플리케이션을 저장할 수 있다. 또한, 메모리(450)는 클러스터의 디스플레이에서 표시될 그래픽 유저 인터페이스 프로그램을 저장할 수 있다. The memory (450) according to one embodiment can store multiple operating systems. In addition, the memory (450) can store applications that are executed in each of the multiple operating systems. In addition, the memory (450) can store a graphical user interface program to be displayed on the display of the cluster.
메모리(450)에 저장된 프로그램들은 그 기능에 따라 복수 개의 모듈들로 분류할 수 있는데, 예를 들어, UI 모듈(451) 및 터치 스크린 모듈(452) 등으로 분류될 수 있다. Programs stored in memory (450) can be classified into multiple modules according to their functions, for example, a UI module (451) and a touch screen module (452).
터치스크린의 터치 또는 근접 터치를 감지하기 위해 터치스크린의 내부 또는 근처에 다양한 센서가 구비될 수 있다. 터치스크린의 터치를 감지하기 위한 센서의 일례로 촉각 센서가 있다. 촉각 센서는 사람이 느끼는 정도로 또는 그 이상으로 특정 물체의 접촉을 감지하는 센서를 말한다. 촉각 센서는 접촉면의 거칠기, 접촉 물체의 단단함, 접촉 지점의 온도 등의 다양한 정보를 감지할 수 있다. 또한, 터치스크린의 터치를 감지하기 위한 센서의 일례로 근접 센서가 있다.Various sensors may be provided inside or near the touchscreen to detect touch or proximity touch of the touchscreen. An example of a sensor for detecting touch of the touchscreen is a tactile sensor. A tactile sensor is a sensor that detects contact of a specific object to a degree or greater than that felt by a human. A tactile sensor can detect various information such as the roughness of a contact surface, the hardness of a contact object, and the temperature of a contact point. In addition, a proximity sensor is an example of a sensor for detecting touch of the touchscreen.
도 6은 차량의 운전자 프로필 자동 설정 방법을 설명하기 위한 흐름 도이다.Figure 6 is a flow chart for explaining a method for automatically setting a driver profile of a vehicle.
도 6을 참조하면, 단계 600에서, 차량의 운전자로부터 행동 패턴에 상응하는 사용자 입력을 수신한다. 여기서, 사용자 입력은 1회 또는 복수회 입력될 수 있으며, 차량제어, 운전제어, 멀티미디어 기기 제어, 공조제어, 시트 제어 등을 포함하는 사용자 입력을 모두 포함할 수 있다.Referring to FIG. 6, in
단계 602에서, 운전자 행동 패턴 모델을 참조하여, 사용자 입력을 기초로 운전자 정보를 식별한다. 여기서, 운전자행동패턴모델은 미리 학습되어 저장된 인공지능모델일 수 있다. In
단계 604에서, 식별된 운전자 정보를 기초로 운전자 프로필을 설정한다.In
단계 604에서, 설정된 운전자 프로필에 따라 차량을 제어한다,At
도 7은 도 3에 도시된 사용자 단말(310)의 개략 도이다.Figure 7 is a schematic diagram of the user terminal (310) illustrated in Figure 3.
도 7을 참고하면, 사용자 단말은 제어부(700), 통신부(710) 및 출력부(740)를 포함할 수 있다. 그러나 도시된 구성요소 모두가 필수구성요소인 것은 아니다. 도시된 구성요소보다 많은 구성요소에 의해 사용자 단말이 구현될 수도 있고, 그보다 적은 구성요소에 의해서도 사용자 단말은 구현될 수 있다.Referring to FIG. 7, the user terminal may include a control unit (700), a communication unit (710), and an output unit (740). However, not all of the illustrated components are essential components. The user terminal may be implemented with more components than the illustrated components, or may be implemented with fewer components.
예를 들어 일 실시 예에 따른 사용자 단말은, 제어부(700), 통신부(710) 및 출력부(730) 이외에 사용자 입력부(740), 센싱부(750), A/V 입력부(760) 및 메모리(770)를 더 포함할 수도 있다. For example, a user terminal according to one embodiment may further include a user input unit (740), a sensing unit (750), an A/V input unit (760), and a memory (770) in addition to a control unit (700), a communication unit (710), and an output unit (730).
이하 상기 구성요소들에 대해 차례로 살펴본다.Below we will look at the above components in turn.
제어부(700)는 통상적으로 사용자 단말의 전반적인 동작을 제어한다. 예를 들어, 제어부(700)는, 메모리(770)에 저장된 프로그램들을 실행함으로써, 통신부(710), 출력부(730), 사용자 입력부(740), 센싱부(750), A/V 입력부(760) 및 메모리(770) 등을 전반적으로 제어할 수 있다. The control unit (700) typically controls the overall operation of the user terminal. For example, the control unit (700) can control the communication unit (710), the output unit (730), the user input unit (740), the sensing unit (750), the A/V input unit (760), and the memory (770) by executing programs stored in the memory (770).
통신부(710)는 사용자 단말과 서버(미도시)간에 통신을 하게 하는 하나 이상의 구성요소를 포함할 수 있다. 예를 들어, 통신부(710)는, 근거리 통신부(711), 이동 통신부(712) 및 방송 수신부(713)를 포함할 수 있다. The communication unit (710) may include one or more components that enable communication between a user terminal and a server (not shown). For example, the communication unit (710) may include a short-range communication unit (711), a mobile communication unit (712), and a broadcast receiving unit (713).
근거리 통신부(short-range wireless communication unit)(721)는, 블루투스 통신부, BLE(Bluetooth Low Energy) 통신부, 근거리 무선 통신부(Near Field Communication unit), WLAN(와이파이) 통신부, 지그비(Zigbee) 통신부, 적외선(IrDA, infrared Data Association) 통신부, WFD(Wi-Fi Direct) 통신부, UWB(ultra wideband) 통신부, Ant+ 통신부 등을 포함할 수 있으나, 이에 한정되는 것은 아니다. 이동 통신부(712)는, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기에서, 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다. 방송 수신부(713)는, 방송 채널을 통하여 외부로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 구현 예에 따라서 사용자 단말이 방송 수신부(713)를 포함하지 않을 수도 있다. The short-range wireless communication unit (721) may include, but is not limited to, a Bluetooth communication unit, a BLE (Bluetooth Low Energy) communication unit, a Near Field Communication unit, a WLAN (Wi-Fi) communication unit, a Zigbee communication unit, an IrDA (infrared Data Association) communication unit, a WFD (Wi-Fi Direct) communication unit, a UWB (ultra wideband) communication unit, an Ant+ communication unit, etc. The mobile communication unit (712) transmits and receives a wireless signal with at least one of a base station, an external terminal, and a server on a mobile communication network. Here, the wireless signal may include various forms of data according to a voice call signal, a video call call signal, or a text/multimedia message transmission and reception. The broadcast receiving unit (713) receives a broadcast signal and/or broadcast-related information from the outside through a broadcast channel. The broadcast channel may include a satellite channel and a terrestrial channel. Depending on the implementation example, the user terminal may not include a broadcast receiving unit (713).
출력부(730)는 스트레스 지표와 관련된 정보를 디스플레이한다. The output section (730) displays information related to the stress index.
출력부(730)는 오디오 신호 또는 비디오 신호 또는 진동 신호의 출력을 위한 것으로, 이에는 디스플레이부(731), 음향 출력부(732) 및 진동 모터(733) 등이 포함될 수 있다. 디스플레이부(731)에는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등), 조그 휠, 조그 스위치 등이 포함될 수 있으나 이에 한정되는 것은 아니다.The output unit (730) is for outputting an audio signal, a video signal, or a vibration signal, and may include a display unit (731), an audio output unit (732), and a vibration motor (733), etc. The display unit (731) may include, but is not limited to, a key pad, a dome switch, a touch pad (contact electrostatic capacitance type, pressure resistive film type, infrared detection type, surface ultrasonic conduction type, integral tension measurement type, piezo effect type, etc.), a jog wheel, a jog switch, etc.
한편, 디스플레이부(731)는 터치패드가 레이어 구조를 이루어 터치 스크린으로 구성될 수 있다. 디스플레이부(731)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전기영동 디스플레이(electrophoretic display) 중에서 적어도 하나를 포함할 수 있다. 그리고 사용자 단말의 구현 형태에 따라 사용자 단말은 디스플레이부(731)를 2개 이상 포함할 수도 있다. Meanwhile, the display unit (731) may be configured as a touch screen with a touchpad having a layered structure. The display unit (731) may include at least one of a liquid crystal display, a thin film transistor-liquid crystal display, an organic light-emitting diode, a flexible display, a 3D display, and an electrophoretic display. In addition, depending on the implementation form of the user terminal, the user terminal may include two or more display units (731).
음향 출력부(732)는 통신부(710)로부터 수신되거나 메모리(770)에 저장된 오디오 데이터를 출력한다. 또한, 음향 출력부(731)는 사용자 단말에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음, 알림음)과 관련된 음향 신호를 출력한다. 이러한 음향 출력부(732)에는 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.The audio output unit (732) outputs audio data received from the communication unit (710) or stored in the memory (770). In addition, the audio output unit (731) outputs audio signals related to functions performed in the user terminal (e.g., call signal reception sound, message reception sound, notification sound). The audio output unit (732) may include a speaker, a buzzer, etc.
진동 모터(733)는 진동 신호를 출력할 수 있다. 예를 들어, 진동 모터(733)는 오디오 데이터 또는 비디오 데이터(예컨대, 호신호 수신음, 메시지 수신음 등)의 출력에 대응하는 진동 신호를 출력할 수 있다. 또한, 진동 모터(733)는 터치스크린에 터치가 입력되는 경우 진동 신호를 출력할 수도 있다.The vibration motor (733) can output a vibration signal. For example, the vibration motor (733) can output a vibration signal corresponding to the output of audio data or video data (e.g., a call signal reception sound, a message reception sound, etc.). In addition, the vibration motor (733) can also output a vibration signal when a touch is input to the touch screen.
사용자 입력부(740)는, 사용자가 사용자 단말(110)를 제어하기 위한 데이터를 입력하는 수단을 의미한다. 예를 들어, 사용자 입력부(740)에는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등), 조그 휠, 조그 스위치 등이 있을 수 있으나 이에 한정되는 것은 아니다.The user input unit (740) refers to a means for a user to input data for controlling the user terminal (110). For example, the user input unit (740) may include, but is not limited to, a key pad, a dome switch, a touch pad (contact electrostatic capacitance type, pressure resistive film type, infrared detection type, surface ultrasonic conduction type, integral tension measurement type, piezo effect type, etc.), a jog wheel, a jog switch, etc.
센싱부(750)는, 사용자 단말의 상태 또는 사용자 단말 주변의 상태를 감지하고, 감지된 정보를 제어부(700)로 전달할 수 있다. The sensing unit (750) can detect the status of the user terminal or the status around the user terminal and transmit the detected information to the control unit (700).
한편, 센싱부(750)는, 지자기 센서(Magnetic sensor)(751), 가속도 센서(Acceleration sensor)(752), 온/습도 센서(753), 적외선 센서(754), 자이로스코프 센서(755), 위치 센서(예컨대, GPS)(756), 기압 센서(757), 근접 센서(758), 및 RGB 센서(illuminance sensor)(759) 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다. 각 센서들의 기능은 그 명칭으로부터 당업자가 직관적으로 추론할 수 있으므로, 구체적인 설명은 생략하기로 한다.Meanwhile, the sensing unit (750) may include at least one of a magnetic sensor (751), an acceleration sensor (752), a temperature/humidity sensor (753), an infrared sensor (754), a gyroscope sensor (755), a position sensor (e.g., GPS) (756), a pressure sensor (757), a proximity sensor (758), and an RGB sensor (illuminance sensor) (759), but is not limited thereto. Since the function of each sensor can be intuitively inferred from its name by those skilled in the art, a detailed description thereof will be omitted.
A/V(Audio/Video) 입력부(760)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(761)와 마이크로폰(762) 등이 포함될 수 있다. 카메라(761)는 화상 통화모드 또는 촬영 모드에서 이미지 센서를 통해 정지영상 또는 동영상 등의 화상 프레임을 얻을 수 있다. 이미지 센서를 통해 캡쳐된 이미지는 제어부(700) 또는 별도의 이미지 처리부(미도시)를 통해 처리될 수 있다. The A/V (Audio/Video) input unit (760) is for inputting audio signals or video signals, and may include a camera (761) and a microphone (762), etc. The camera (761) can obtain image frames, such as still images or moving images, through an image sensor in a video call mode or a shooting mode. An image captured through the image sensor can be processed through a control unit (700) or a separate image processing unit (not shown).
카메라(761)에서 처리된 화상 프레임은 메모리(770)에 저장되거나 통신부(710)를 통하여 외부로 전송될 수 있다. 카메라(761)는 사용자 단말의 구성에 따라 2개 이상이 구비될 수도 있다. The image frame processed by the camera (761) may be stored in the memory (770) or transmitted externally through the communication unit (710). Two or more cameras (761) may be provided depending on the configuration of the user terminal.
마이크로폰(762)은, 외부의 음향 신호를 입력받아 전기적인 음성 데이터로 처리한다. 예를 들어, 마이크로폰(762)은 외부 디바이스 또는 화자로부터 음향 신호를 수신할 수 있다. 마이크로폰(762)은 외부의 음향 신호를 입력받는 과정에서 발생 되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘을 이용할 수 있다. The microphone (762) receives an external sound signal and processes it into electrical voice data. For example, the microphone (762) can receive an sound signal from an external device or a speaker. The microphone (762) can use various noise removal algorithms to remove noise generated in the process of receiving an external sound signal.
메모리(770)는, 제어부(700)의 처리 및 제어를 위한 프로그램을 저장할 수도 있고, 입/출력되는 데이터들을 저장할 수도 있다. The memory (770) may store a program for processing and controlling the control unit (700) and may also store input/output data.
메모리(770)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 또한, 디바이스(100)는 인터넷(internet)상에서 메모리(170)의 저장 기능을 수행하는 웹 스토리지(web storage) 또는 클라우드 서버를 운영할 수도 있다.The memory (770) may include at least one type of storage medium among a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, an SD or XD memory, etc.), a RAM (Random Access Memory), a SRAM (Static Random Access Memory), a ROM (Read-Only Memory), an EEPROM (Electrically Erasable Programmable Read-Only Memory), a PROM (Programmable Read-Only Memory), a magnetic memory, a magnetic disk, and an optical disk. In addition, the device (100) may operate a web storage or cloud server that performs the storage function of the memory (170) on the internet.
메모리(770)에 저장된 프로그램들은 그 기능에 따라 복수 개의 모듈들로 분류할 수 있는데, 예를 들어, UI 모듈(771), 터치 스크린 모듈(772), 알림 모듈(773) 등으로 분류될 수 있다. Programs stored in memory (770) can be classified into multiple modules according to their functions, for example, a UI module (771), a touch screen module (772), a notification module (773), etc.
UI 모듈(771)은, 애플리케이션별로 사용자 단말과 연동되는 특화된 UI, GUI 등을 제공할 수 있다. 터치 스크린 모듈(772)은 사용자의 터치 스크린 상의 터치 제스처를 감지하고, 터치 제스처에 관한 정보를 제어부(700)로 전달할 수 있다. 본 발명의 일 실시예에 따른 터치 스크린 모듈(772)은 터치 코드를 인식하고 분석할 수 있다. 터치 스크린 모듈(772)은 컨트롤러를 포함하는 별도의 하드웨어로 구성될 수도 있다.The UI module (771) can provide a specialized UI, GUI, etc. that are linked with the user terminal for each application. The touch screen module (772) can detect a touch gesture on the user's touch screen and transmit information about the touch gesture to the control unit (700). The touch screen module (772) according to one embodiment of the present invention can recognize and analyze a touch code. The touch screen module (772) can also be configured as separate hardware including a controller.
터치스크린의 터치 또는 근접 터치를 감지하기 위해 터치스크린의 내부 또는 근처에 다양한 센서가 구비될 수 있다. 터치스크린의 터치를 감지하기 위한 센서의 일례로 촉각 센서가 있다. 촉각 센서는 사람이 느끼는 정도로 또는 그 이상으로 특정 물체의 접촉을 감지하는 센서를 말한다. 촉각 센서는 접촉면의 거칠기, 접촉 물체의 단단함, 접촉 지점의 온도 등의 다양한 정보를 감지할 수 있다.Various sensors may be provided inside or near the touchscreen to detect touch or proximity touch of the touchscreen. An example of a sensor for detecting touch of the touchscreen is a tactile sensor. A tactile sensor is a sensor that detects contact with a specific object to a degree or greater than that felt by a human. A tactile sensor can detect various information such as the roughness of the contact surface, the hardness of the contact object, and the temperature of the contact point.
또한, 터치스크린의 터치를 감지하기 위한 센서의 일례로 근접 센서가 있다.Also, there is a proximity sensor as an example of a sensor for detecting touch on a touchscreen.
근접 센서는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 근접 센서의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 사용자의 터치 제스처에는 탭, 터치&홀드, 더블 탭, 드래그, 패닝, 플릭, 드래그 앤드 드롭, 스와이프 등이 있을 수 있다.A proximity sensor is a sensor that detects the presence or absence of an object approaching a predetermined detection surface or an object existing nearby without mechanical contact by using the force of an electromagnetic field or infrared rays. Examples of proximity sensors include a transmission-type photoelectric sensor, a direct reflection-type photoelectric sensor, a mirror reflection-type photoelectric sensor, a high-frequency oscillation-type proximity sensor, a capacitive proximity sensor, a magnetic proximity sensor, and an infrared proximity sensor. User touch gestures may include tap, touch and hold, double tap, drag, pan, flick, drag and drop, and swipe.
알림 모듈(773)은 사용자 단말의 이벤트 발생을 알리기 위한 신호를 발생할 수 있다. 사용자 단말에서 발생되는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력, 일정 알림 등이 있다. 또한, 사용자 단말에서 발생되는 이벤트의 예로는 디스플레이부(731)에서 수신한 사용자 입력에 기초하여 발생되는 햅틱 신호에 기초하여, 사용자 입력이 수신됨을 알리는 신호를 발생시킬 수 있다. The notification module (773) can generate a signal to notify of an event occurrence in the user terminal. Examples of events occurring in the user terminal include reception of a call signal, reception of a message, input of a key signal, and schedule notification. In addition, as an example of an event occurring in the user terminal, a signal can be generated to notify that a user input has been received based on a haptic signal generated based on a user input received in the display unit (731).
알림 모듈(773)은 디스플레이부(731)를 통해 비디오 신호 형태로 알림 신호를 출력할 수도 있고, 음향 출력부(732)를 통해 오디오 신호 형태로 알림 신호를 출력할 수도 있고, 진동 모터(733)를 통해 진동 신호 형태로 알림 신호를 출력할 수도 있다. The notification module (773) may output a notification signal in the form of a video signal through the display unit (731), may output a notification signal in the form of an audio signal through the audio output unit (732), or may output a notification signal in the form of a vibration signal through the vibration motor (733).
본 실시 예들은 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비 분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비 분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈과 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다.The present embodiments may also be implemented in the form of a recording medium containing computer-executable instructions, such as program modules, executed by a computer. Computer-readable media can be any available media that can be accessed by a computer, and includes both volatile and nonvolatile media, removable and non-removable media. Additionally, computer-readable media can include both computer storage media and communication media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information, such as computer-readable instructions, data structures, program modules, or other data. Communication media typically includes computer-readable instructions, data structures, other data in a modulated data signal, such as program modules, or other transport mechanisms, and includes any information delivery media.
또한, 본 명세서에서, "부"는 프로세서 또는 회로와 같은 하드웨어 구성(hardware component), 및/또는 프로세서와 같은 하드웨어 구성에 의해 실행되는 소프트웨어 구성(software component)일 수 있다.Additionally, in this specification, a “part” may be a hardware component such as a processor or a circuit, and/or a software component executed by a hardware component such as a processor.
전술한 본 명세서의 설명은 예시를 위한 것이며, 본 명세서의 내용이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The description of the present specification above is for illustrative purposes, and those skilled in the art will understand that the contents of the present specification can be easily modified into other specific forms without changing the technical idea or essential features of the present invention. Therefore, it should be understood that the embodiments described above are exemplary in all respects and not restrictive. For example, each component described as a single component may be implemented in a distributed manner, and likewise, components described as distributed may be implemented in a combined form.
본 실시 예의 범위는 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 포함되는 것으로 해석되어야 한다.The scope of the present embodiment is indicated by the claims described below rather than the detailed description, and should be interpreted to include all changes or modifications derived from the meaning and scope of the claims and their equivalent concepts.
Claims (12)
차량의 운전자로부터 행동 패턴에 상응하는 사용자 입력을 수신하는 단계;
미리 저장된 운전자 행동 패턴 모델을 참조하여, 상기 수신된 사용자 입력을 기초로 운전자 정보를 식별하는 단계;
상기 식별된 운전자 정보를 기초로 운전자 프로필을 설정하는 단계; 및
상기 설정된 운전자 프로필에 따라 상기 차량을 제어하는 단계를 포함하는, 차량의 운전자 프로필 자동 설정 방법. A method for automatically setting a driver profile of a vehicle based on driver behavior patterns,
A step of receiving user input corresponding to a behavioral pattern from a driver of a vehicle;
A step of identifying driver information based on the received user input by referring to a pre-stored driver behavior pattern model;
A step of setting a driver profile based on the above identified driver information; and
A method for automatically setting a driver profile of a vehicle, comprising a step of controlling the vehicle according to the set driver profile.
상기 미리 저장된 운전자 행동 패턴 모델은,
상기 차량의 운전자의 행동 패턴을 기계 학습한 인공지능모델인 것을 특징으로 하는, 차량의 운전자 프로필 자동 설정 방법.In paragraph 1,
The above pre-stored driver behavior pattern model is,
A method for automatically setting a driver profile of a vehicle, characterized in that the artificial intelligence model machine-learns the behavioral pattern of the driver of the vehicle.
사용자 단말과 블루투스 또는 NFC를 포함하는 근거리통신네트워크를 통해 통신하는 단계를 더 포함하고,
상기 사용자 단말로부터 전송된 사용자 정보를 기초로 상기 식별된 운전자 정보를 확인하는 것을 특징으로 하는, 차량의 운전자 프로필 자동 설정 방법.In paragraph 1,
Further comprising a step of communicating with a user terminal via a short-range communication network including Bluetooth or NFC,
A method for automatically setting a driver profile of a vehicle, characterized in that the identified driver information is verified based on the user information transmitted from the user terminal.
상기 설정된 운전자 프로필을 상기 차량의 디스플레이에 표시하는 단계를 더 포함하고,
상기 표시된 운전자 프로필에 대한 선택에 따라 운전자설정제어, 차량제어 및 편의기능제어 중 적어도 하나를 제어하는 것을 특징으로 하는, 차량의 운전자 프로필 자동 설정 방법. In paragraph 1,
Further comprising the step of displaying the above-set driver profile on the display of the vehicle;
A method for automatically setting a driver profile of a vehicle, characterized in that at least one of driver setting control, vehicle control and convenience function control is controlled according to a selection for the driver profile displayed above.
상기 운전자 프로필은,
사용자 정보, 시트 설정 정보, 주행 정보, 주소록 정보, 전화 기능 정보, 멀티미디어 정보 중 적어도 하나를 포함하는 것을 특징으로 하는, 차량의 운전자 프로필 자동 설정 방법.In paragraph 1,
The above driver profile is,
A method for automatically setting a driver profile of a vehicle, characterized in that it includes at least one of user information, seat setting information, driving information, address book information, phone function information, and multimedia information.
운전자 행동 패턴 모델을 저장하는 저장부; 및
프로세서를 포함하고,
상기 프로세서는,
차량의 운전자로부터 행동 패턴에 상응하는 사용자 입력을 수신하고,
상기 저장된 운전자 행동 패턴 모델을 참조하여, 상기 수신된 사용자 입력을 기초로 운전자 정보를 식별하고,
상기 식별된 운전자 정보를 기초로 운전자 프로필을 설정하고,
상기 설정된 운전자 프로필에 따라 상기 차량을 제어하는, 차량의 운전자 프로필 자동 설정 장치.In a device for automatically setting a driver profile of a vehicle based on driver behavior patterns,
A storage unit storing a driver behavior pattern model; and
Contains a processor,
The above processor,
Receive user input corresponding to a behavioral pattern from the driver of the vehicle,
By referring to the above stored driver behavior pattern model, driver information is identified based on the received user input,
Set up a driver profile based on the above identified driver information,
A device for automatically setting a driver profile of a vehicle, which controls the vehicle according to the above-described set driver profile.
상기 미리 저장된 운전자 행동 패턴 모델은,
상기 차량의 운전자의 행동 패턴을 기계 학습한 인공지능모델인 것을 특징으로 하는, 차량의 운전자 프로필 자동 설정 장치.In paragraph 7,
The above pre-stored driver behavior pattern model is,
A device for automatically setting a driver profile of a vehicle, characterized in that it is an artificial intelligence model that machine-learns the behavioral pattern of the driver of the vehicle.
사용자 단말과 블루투스 또는 NFC 를 포함하는 근거리통신네트워크를 통해 통신하는 근거리통신부를 더 포함하고,
상기 프로세서는,
상기 사용자 단말로부터 전송된 사용자 정보를 기초로 상기 식별된 운전자 정보를 확인하는 것을 특징으로 하는, 차량의 운전자 프로필 자동 설정 장치.In paragraph 7,
Further comprising a short-range communication unit that communicates with the user terminal via a short-range communication network including Bluetooth or NFC,
The above processor,
A device for automatically setting a driver profile of a vehicle, characterized in that it verifies the identified driver information based on the user information transmitted from the user terminal.
상기 설정된 운전자 프로필을 상기 차량의 디스플레이에 표시하는 디스플레이부를 더 포함하고,
상기 프로세서는,
상기 표시된 운전자 프로필에 대한 선택에 따라 운전자설정제어, 차량제어 및 편의기능제어 중 적어도 하나를 제어하는 것을 특징으로 하는, 차량의 운전자 프로필 자동 설정 장치. In paragraph 7,
Further comprising a display unit for displaying the above-set driver profile on the display of the vehicle;
The above processor,
A device for automatically setting a driver profile of a vehicle, characterized in that it controls at least one of driver setting control, vehicle control, and convenience function control according to a selection for the driver profile displayed above.
상기 운전자 프로필은,
사용자 정보, 시트 설정 정보, 주행 정보, 주소록 정보, 전화 기능 정보, 멀티미디어 정보 중 적어도 하나를 포함하는 것을 특징으로 하는, 차량의 운전자 프로필 자동 설정 장치.In paragraph 7,
The above driver profile is,
A device for automatically setting a driver profile of a vehicle, characterized in that it includes at least one of user information, seat setting information, driving information, address book information, phone function information, and multimedia information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020230191868A KR20250100372A (en) | 2023-12-26 | 2023-12-26 | Method and apparatus for automatically setting driver profile of vehicle based on driver's behavior patterns |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020230191868A KR20250100372A (en) | 2023-12-26 | 2023-12-26 | Method and apparatus for automatically setting driver profile of vehicle based on driver's behavior patterns |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20250100372A true KR20250100372A (en) | 2025-07-03 |
Family
ID=96390993
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020230191868A Ceased KR20250100372A (en) | 2023-12-26 | 2023-12-26 | Method and apparatus for automatically setting driver profile of vehicle based on driver's behavior patterns |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20250100372A (en) |
-
2023
- 2023-12-26 KR KR1020230191868A patent/KR20250100372A/en not_active Ceased
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10800428B2 (en) | Vehicle driving assistance method and vehicle | |
KR101930462B1 (en) | Vehicle control device and vehicle comprising the same | |
US10431069B2 (en) | Apparatus, method and mobile terminal for providing object loss prevention service in vehicle | |
KR101969805B1 (en) | Vehicle control device and vehicle comprising the same | |
US10607485B2 (en) | System and method for communicating a message to a vehicle | |
EP3184365B1 (en) | Display device for vehicle and control method thereof | |
EP3093192B1 (en) | Rear combination lamp for vehicle comprising a display | |
KR101895485B1 (en) | Drive assistance appratus and method for controlling the same | |
EP3211616A2 (en) | Driver assistance apparatus | |
US10713501B2 (en) | Focus system to enhance vehicle vision performance | |
US20170076606A1 (en) | System and method to provide driving assistance | |
KR102433345B1 (en) | Method and apparatus for providing information using vehicle's camera | |
US11279376B2 (en) | Vehicle control device and vehicle control method | |
US20190286118A1 (en) | Remote vehicle control device and remote vehicle control method | |
KR102331882B1 (en) | Method and apparatus for controlling an vehicle based on voice recognition | |
KR102389728B1 (en) | Method and apparatus for processing a plurality of images obtained from vehicle 's cameras | |
KR102094405B1 (en) | Method and apparatus for determining an accident using an image | |
KR102531722B1 (en) | Method and apparatus for providing a parking location using vehicle's terminal | |
KR20250100372A (en) | Method and apparatus for automatically setting driver profile of vehicle based on driver's behavior patterns | |
CN117962750A (en) | Method and apparatus for providing travel information of autonomous vehicle | |
KR20200066582A (en) | Vehicle control device and vehicle control method | |
KR20190090138A (en) | Method for checking operation of winker and apparatus thereof | |
KR20230001923A (en) | Method and apparatus for controlling HUD image based on driver's eyes | |
KR20230168061A (en) | Method and apparatus for automatically setting driver profile of vehicle using short-distance communication | |
KR102705475B1 (en) | Method and apparatus for displaying an image on handle display of vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
St.27 status event code: A-0-1-A10-A12-nap-PA0109 |
|
PA0201 | Request for examination |
St.27 status event code: A-1-2-D10-D11-exm-PA0201 |
|
D13-X000 | Search requested |
St.27 status event code: A-1-2-D10-D13-srh-X000 |
|
PN2301 | Change of applicant |
St.27 status event code: A-3-3-R10-R13-asn-PN2301 St.27 status event code: A-3-3-R10-R11-asn-PN2301 |
|
R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-3-3-R10-R18-oth-X000 |
|
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
St.27 status event code: A-1-2-D10-D21-exm-PE0902 |
|
PG1501 | Laying open of application |
St.27 status event code: A-1-1-Q10-Q12-nap-PG1501 |
|
PE0601 | Decision on rejection of patent |
St.27 status event code: N-2-6-B10-B15-exm-PE0601 |