[go: up one dir, main page]

KR102778244B1 - Information providing system using voice recognition and method thereof - Google Patents

Information providing system using voice recognition and method thereof Download PDF

Info

Publication number
KR102778244B1
KR102778244B1 KR1020180136708A KR20180136708A KR102778244B1 KR 102778244 B1 KR102778244 B1 KR 102778244B1 KR 1020180136708 A KR1020180136708 A KR 1020180136708A KR 20180136708 A KR20180136708 A KR 20180136708A KR 102778244 B1 KR102778244 B1 KR 102778244B1
Authority
KR
South Korea
Prior art keywords
voice recognition
information
voice
user
vehicle terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020180136708A
Other languages
Korean (ko)
Other versions
KR20200053278A (en
Inventor
조성오
Original Assignee
현대자동차주식회사
기아 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사, 기아 주식회사 filed Critical 현대자동차주식회사
Priority to KR1020180136708A priority Critical patent/KR102778244B1/en
Publication of KR20200053278A publication Critical patent/KR20200053278A/en
Application granted granted Critical
Publication of KR102778244B1 publication Critical patent/KR102778244B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/037Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for occupant comfort, e.g. for automatic adjustment of appliances according to personal settings, e.g. seats, mirrors, steering wheel
    • B60R16/0373Voice control
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/02Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

본 발명은 음성인식을 이용한 정보 제공 시스템 및 그 방법에 관한 것으로, 서로 다른 음성인식기술이 적용된 복수의 음성인식서버와 상기 복수의 음성인식서버와 연동하는 서로 다른 복수의 CP(Contents Provider)를 이용하여 사용자의 음성에 상응하는 다양한 분야의 정보(컨텐츠)를 제공함으로써, 사용자의 취향에 맞는 정보를 제공하여 사용자의 다양한 취향을 만족시킬 수 있는 음성인식을 이용한 정보 제공 시스템 및 그 방법을 제공하고자 한다.
이를 위하여, 본 발명은 음성인식을 이용한 정보 제공 시스템에 있어서, 각기 다른 방식으로 사용자의 음성(key word)을 인식하는 복수의 음성인식서버; 및 차량단말기로부터 전달받은 사용자의 음성을 상기 복수의 음성인식서버로 전달하고, 상기 복수의 음성인식서버로부터 사용자의 음성에 상응하는 정보를 제공받는 메인서버를 포함한다.
The present invention relates to an information providing system using voice recognition and a method therefor, and provides information (content) in various fields corresponding to the user's voice by using a plurality of voice recognition servers to which different voice recognition technologies are applied and a plurality of different CPs (Contents Providers) that are linked with the plurality of voice recognition servers, thereby providing information suited to the user's tastes and satisfying the various tastes of the user, and a method therefor.
To this end, the present invention comprises a plurality of voice recognition servers that recognize a user's voice (key word) in different ways in an information providing system using voice recognition; and a main server that transmits the user's voice received from a vehicle terminal to the plurality of voice recognition servers and receives information corresponding to the user's voice from the plurality of voice recognition servers.

Description

음성인식을 이용한 정보 제공 시스템 및 그 방법{INFORMATION PROVIDING SYSTEM USING VOICE RECOGNITION AND METHOD THEREOF}INFORMATION PROVIDING SYSTEM USING VOICE RECOGNITION AND METHOD THEREOF

본 발명은 음성인식을 이용한 정보 제공 시스템 및 그 방법에 관한 것이다.The present invention relates to an information providing system using voice recognition and a method therefor.

종래의 음성인식을 이용한 정보 제공 시스템은 음성을 입력받기 위한 음성 입력부와, 음성 입력부를 통해 입력된 음성의 인식을 위한 음성 인식부, 음성 인식부에서 인식된 음성을 텍스트로 변환하여 정보를 검색하기 위한 정보 검색부, 및 정보 검색부에서 검색된 정보를 출력하기 위한 정보 출력부를 구비한다.A conventional information providing system using voice recognition comprises a voice input unit for receiving voice input, a voice recognition unit for recognizing voice input through the voice input unit, an information retrieval unit for converting voice recognized by the voice recognition unit into text to search for information, and an information output unit for outputting information searched by the information retrieval unit.

이러한 종래의 음성인식 이용한 정보 제공 시스템은 사용자의 음성을 인식한 후 상기 인식된 음성에 상응하는 정보를 검색하여 차량 내 사용자에게 제공하는데, 이때 단일의 음성인식방식(음성인식알고리즘)에 기초하여 사용자의 음성을 인식하고, 아울러 단일의 정보검색방식(정보검색알고리즘)에 기초하여 정보를 검색하기 때문에 검색된 정보가 한정적이어서 사용자의 다양한 취향을 만족시키지 못하는 문제점이 있다.These conventional information provision systems using voice recognition recognize the user's voice, search for information corresponding to the recognized voice, and provide it to the user in the vehicle. However, since the user's voice is recognized based on a single voice recognition method (voice recognition algorithm) and information is searched based on a single information retrieval method (information retrieval algorithm), there is a problem in that the searched information is limited and does not satisfy the diverse tastes of the user.

대한민국등록특허 제10-1322394호Republic of Korea Patent No. 10-1322394

상기와 같은 종래 기술의 문제점을 해결하기 위하여, 본 발명은 서로 다른 음성인식기술이 적용된 복수의 음성인식서버와 상기 복수의 음성인식서버와 연동하는 서로 다른 복수의 CP(Contents Provider)를 이용하여 사용자의 음성에 상응하는 다양한 분야의 정보(컨텐츠)를 제공함으로써, 사용자의 취향에 맞는 정보를 제공하여 사용자의 다양한 취향을 만족시킬 수 있는 음성인식을 이용한 정보 제공 시스템 및 그 방법을 제공하는데 그 목적이 있다.In order to solve the problems of the prior art as described above, the present invention provides an information providing system and method using voice recognition, which can satisfy various tastes of users by providing information (content) in various fields corresponding to the user's voice using a plurality of voice recognition servers to which different voice recognition technologies are applied and a plurality of different CPs (Contents Providers) that are linked with the plurality of voice recognition servers, thereby providing information suited to the user's tastes.

본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있으며, 본 발명의 실시예에 의해 보다 분명하게 알게 될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.The purposes of the present invention are not limited to the purposes mentioned above, and other purposes and advantages of the present invention which are not mentioned can be understood by the following description and will be more clearly known by the embodiments of the present invention. In addition, it will be easily understood that the purposes and advantages of the present invention can be realized by the means and combinations thereof indicated in the claims.

상기 목적을 달성하기 위한 본 발명의 장치는, 음성인식을 이용한 정보 제공 시스템에 있어서, 각기 다른 방식으로 사용자의 음성(key word)을 인식하는 복수의 음성인식서버; 및 차량단말기로부터 전달받은 사용자의 음성을 상기 복수의 음성인식서버로 전달하고, 상기 복수의 음성인식서버로부터 사용자의 음성에 상응하는 정보를 제공받는 메인서버를 포함한다.The device of the present invention for achieving the above purpose comprises, in an information providing system using voice recognition, a plurality of voice recognition servers each recognizing a user's voice (key word) in a different manner; and a main server transmitting the user's voice received from a vehicle terminal to the plurality of voice recognition servers and receiving information corresponding to the user's voice from the plurality of voice recognition servers.

여기서, 상기 복수의 음성인식서버는 상기 사용자의 음성을 인식하고 상기 인식된 결과와 관련된 컨텐츠를 복수의 서로 다른 CP(Contets Provider)를 통해 각각 획득할 수 있다.Here, the plurality of voice recognition servers can recognize the user's voice and obtain content related to the recognized result through a plurality of different CPs (Contents Providers).

또한, 상기 메인서버는 상기 복수의 음성인식서버로부터 각각 제공받은 정보를 분야별로 구분하여 리스트를 생성한 후 상기 차량단말기로 제공할 수 있다. 이때, 상기 메인서버는 사용자의 선호도가 높은 분야의 정보를 리스트의 상위에 배치할 수도 있다.In addition, the main server may create a list by dividing the information received from each of the plurality of voice recognition servers by field and provide the list to the vehicle terminal. At this time, the main server may place information in a field with a high user preference at the top of the list.

또한, 상기 차량단말기는 사용자의 음성에 상응하는 정보가 동영상인 경우, 운전자의 주의 분산을 방지하기 위해 동영상 제공을 제한할 수도 있다.Additionally, the vehicle terminal may limit the provision of video to prevent distraction of the driver when the information corresponding to the user's voice is a video.

상기 목적을 달성하기 위한 본 발명의 방법은, 음성인식을 이용한 정보 제공 방법에 있어서, 메인서버가 차량단말기로부터 전달받은 사용자의 음성(key word)을 복수의 음성인식서버로 전달하는 단계; 상기 복수의 음성인식서버가 각기 다른 방식으로 사용자의 음성을 인식한 후 인식된 결과와 관련된 정보를 획득하는 단계; 및 상기 메인서버가 상기 복수의 음성인식서버로부터 전달받은 정보를 상기 차량단말기로 제공하는 단계를 포함한다.The method of the present invention for achieving the above object comprises a step of transmitting a user's voice (key word) received from a vehicle terminal by a main server to a plurality of voice recognition servers; a step of obtaining information related to a result of recognition after the plurality of voice recognition servers recognize the user's voice in different ways; and a step of providing the information received from the plurality of voice recognition servers by the main server to the vehicle terminal.

여기서, 상기 정보를 획득하는 단계는 상기 사용자의 음성을 인식하고 인식된 결과와 관련된 컨텐츠를 복수의 서로 다른 CP(Contets Provider)를 통해 각각 획득할 수 있다.Here, the step of acquiring the above information can recognize the user's voice and acquire content related to the recognized result through a plurality of different CPs (Contents Providers).

또한, 상기 정보를 제공하는 단계는 상기 복수의 음성인식서버로부터 각각 전달받은 정보를 분야별로 구분하여 리스트를 생성하는 단계; 및 상기 생성한 리스트를 상기 차량단말기로 제공하는 단계를 포함할 수 있다. 이때, 상기 리스트를 생성하는 단계는 사용자의 선호도가 높은 분야의 정보를 리스트의 상위에 배치할 수도 있다.In addition, the step of providing the information may include a step of generating a list by dividing the information received from each of the plurality of voice recognition servers by field; and a step of providing the generated list to the vehicle terminal. At this time, the step of generating the list may place information in a field with a high user preference at the top of the list.

이러한 본 발명의 방법은 상기 정보가 동영상인 경우, 상기 차량단말기는 운전자의 주의 분산을 방지하기 위해 동영상 제공을 제한하는 단계를 더 포함할 수도 있다.The method of the present invention may further include a step of limiting the provision of video by the vehicle terminal to prevent distraction of the driver when the information is a video.

본 발명의 일 실시예에 따른 음성인식을 이용한 정보 제공 시스템 및 그 방법은, 서로 다른 음성인식기술이 적용된 복수의 음성인식서버와 상기 복수의 음성인식서버와 연동하는 서로 다른 복수의 CP(Contents Provider)를 이용하여 사용자의 음성에 상응하는 다양한 분야의 정보를 제공함으로써, 사용자의 취향에 맞는 정보를 제공하여 사용자의 다양한 취향을 만족시킬 수 있다.An information providing system and method using voice recognition according to one embodiment of the present invention provides information in various fields corresponding to a user's voice by using a plurality of voice recognition servers to which different voice recognition technologies are applied and a plurality of different CPs (Contents Providers) that are linked with the plurality of voice recognition servers, thereby providing information suited to the user's tastes and satisfying the user's diverse tastes.

도 1 은 본 발명의 일 실시예에 따른 음성인식을 이용한 정보 제공 시스템의 구성도,
도 2 는 본 발명의 일 실시예에 따른 차량단말기에 의해 디스플레이되는 리스트를 나타내는 도면,
도 3 은 본 발명의 일 실시예에 따른 음성인식을 이용한 정보 제공 방법에 대한 흐름도이다.
Figure 1 is a configuration diagram of an information provision system using voice recognition according to one embodiment of the present invention.
FIG. 2 is a drawing showing a list displayed by a vehicle terminal according to one embodiment of the present invention;
Figure 3 is a flowchart of a method for providing information using voice recognition according to one embodiment of the present invention.

이하, 본 발명의 일부 실시예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명의 실시예를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 실시예에 대한 이해를 방해한다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, some embodiments of the present invention will be described in detail with reference to exemplary drawings. When adding reference numerals to components in each drawing, it should be noted that the same components are given the same numerals as much as possible even if they are shown in different drawings. In addition, when describing embodiments of the present invention, if it is determined that a specific description of a related known configuration or function hinders understanding of the embodiments of the present invention, the detailed description thereof will be omitted.

본 발명의 실시예의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 또한, 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.In describing components of embodiments of the present invention, terms such as first, second, A, B, (a), (b), etc. may be used. These terms are only intended to distinguish the components from other components, and the nature, order, or sequence of the components are not limited by these terms. In addition, unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as generally understood by a person having ordinary skill in the art to which the present invention belongs. Terms defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning they have in the context of the relevant technology, and shall not be interpreted in an idealistic or overly formal sense, unless explicitly defined in this application.

도 1 은 본 발명의 일 실시예에 따른 음성인식을 이용한 정보 제공 시스템의 구성도이다.Figure 1 is a configuration diagram of an information provision system using voice recognition according to one embodiment of the present invention.

도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 음성인식을 이용한 정보 제공 시스템은, 차량 단말기(10), 메인서버(20), 제1 음성인식서버(31), 제2 음성인식서버(32), 제3 음성인식서버(33), 제1 CP(Contents Provider, 41), 제2 CP(42), 제3 CP(43), 제4 CP(44), 제5 CP(45), 제6 CP(46) 등을 포함할 수 있다. 한편, 본 발명의 일 실시예에 따른 음성인식을 이용한 정보 제공 시스템을 실시하는 방식에 따라 각 구성요소는 서로 결합되어 하나로 구비될 수 있으며, 아울러 발명을 실시하는 방식에 따라 일부의 구성요소가 생략될 수도 있다. 즉, 제1 음성인식서버(31)를 제1 음성인식모듈로, 제2 음성인식서버(32)를 제2 음성인식모듈로, 제3 음성인식서버(33)를 제3 음성인식모듈로 구현하여 메인서버(20) 내부에 탑재할 수도 있다.As illustrated in FIG. 1, an information providing system using voice recognition according to one embodiment of the present invention may include a vehicle terminal (10), a main server (20), a first voice recognition server (31), a second voice recognition server (32), a third voice recognition server (33), a first CP (Contents Provider, 41), a second CP (42), a third CP (43), a fourth CP (44), a fifth CP (45), a sixth CP (46), etc. Meanwhile, depending on a method of implementing the information providing system using voice recognition according to one embodiment of the present invention, each component may be combined with each other and provided as one, and furthermore, depending on a method of implementing the invention, some components may be omitted. That is, the first voice recognition server (31) can be implemented as a first voice recognition module, the second voice recognition server (32) as a second voice recognition module, and the third voice recognition server (33) as a third voice recognition module, and can be installed inside the main server (20).

아울러, 도 1에서는 이해를 돕기 위해 메인서버(20)와 각 음성인식서버(31, 32, 33)가 직접 연결되고, 각 음성인식서버(31, 32, 33)와 각 CP(41 내지 46)가 직접 연결된 예를 도시하였지만, 각 음성인식서버(31, 32, 33)와 각 CP(41 내지 46)가 모두 네트워크에 접속되어 모든 구성요소가 네트워크를 통해 데이터를 송수신하도록 구현하는 것이 바람직하다.In addition, in order to help understanding, FIG. 1 illustrates an example in which the main server (20) and each voice recognition server (31, 32, 33) are directly connected, and each voice recognition server (31, 32, 33) and each CP (41 to 46) are directly connected. However, it is preferable to implement such that each voice recognition server (31, 32, 33) and each CP (41 to 46) are all connected to the network so that all components transmit and receive data through the network.

또한, 본 발명의 일 실시예에서는 3개의 음성인식서버(31 내지 33)와 6개의 CP(41 내지 46)를 예로 들어 설명하지만, 음성인식서버의 개수와 CP의 개수는 설계자의 의도에 따라 임의로 변경 가능하므로 본 발명에 아무런 영향을 미치지 않는다.In addition, in one embodiment of the present invention, three voice recognition servers (31 to 33) and six CPs (41 to 46) are used as an example, but the number of voice recognition servers and the number of CPs can be arbitrarily changed according to the designer's intention, and thus have no effect on the present invention.

상기 각 구성요소들에 대해 살펴보면, 차량단말기(10)는 차량에 탑재되어 사용자 인터페이스와 통신 기능을 구비한 모듈로서, 사용자로부터 입력받은 음성(key word)을 네트워크를 통해 메인서버(20)로 전송하고, 상기 메인서버(20)로부터 제공받은 정보를 사용자에게 제공하기 위해 디스플레이 기능을 수행한다. 이러한 차량단말기(10)는 도면에는 도시되어 있지 않지만 무선통신부와 입력부와 출력부 및 메모리 등을 구비할 수 있다.Looking at each of the above components, the vehicle terminal (10) is a module mounted on a vehicle and equipped with a user interface and communication functions, transmits a voice (key word) input by a user to the main server (20) through a network, and performs a display function to provide information provided by the main server (20) to the user. Although not shown in the drawing, the vehicle terminal (10) may be equipped with a wireless communication unit, an input unit, an output unit, a memory, etc.

여기서, 무선통신부는 이동통신모듈과 무선인터넷모듈 및 근거리통신모듈 등을 포함할 수 있는데, 이동통신모듈은 이동통신을 위한 기술표준 또는 통신방식(예를 들어, GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), CDMA2000(Code Division Multi Access 2000), EV-DO(Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA(Wideband CDMA), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTEA(Long Term Evolution-Advanced) 등)에 따라 구축된 이동통신망을 통해 메인서버(20)와 무선신호를 송수신한다. 이때, 무선신호는 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.Here, the wireless communication unit may include a mobile communication module, a wireless Internet module, a short-range communication module, etc., and the mobile communication module transmits and receives wireless signals with the main server (20) through a mobile communication network constructed according to a technology standard or communication method for mobile communication (for example, GSM (Global System for Mobile communication), CDMA (Code Division Multi Access), CDMA2000 (Code Division Multi Access 2000), EV-DO (Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA (Wideband CDMA), HSDPA (High Speed Downlink Packet Access), HSUPA (High Speed Uplink Packet Access), LTE (Long Term Evolution), LTEA (Long Term Evolution-Advanced), etc.). At this time, the wireless signal may include various forms of data according to transmission and reception of a voice call signal, a video call call signal, or text/multimedia message.

무선인터넷모듈은 무선 인터넷 기술에 따른 통신망에서 무선신호를 송수신하도록 이루어진다. 무선 인터넷 기술로는, 예를 들어 WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), Wi-Fi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), WiBro(Wireless Broadband), WiMAX(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등이 있다.The wireless Internet module is configured to transmit and receive wireless signals in a communication network according to wireless Internet technology. Wireless Internet technologies include, for example, WLAN (Wireless LAN), Wi-Fi (Wireless-Fidelity), Wi-Fi (Wireless Fidelity) Direct, DLNA (Digital Living Network Alliance), WiBro (Wireless Broadband), WiMAX (World Interoperability for Microwave Access), HSDPA (High Speed Downlink Packet Access), HSUPA (High Speed Uplink Packet Access), LTE (Long Term Evolution), and LTE-A (Long Term Evolution-Advanced).

근거리통신모듈은 근거리 통신(Short range communication)을 위한 것으로서, 블루투스(Bluetooth™ ), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여, 근거리 통신을 지원할 수 있다.The short range communication module is for short range communication and can support short range communication using at least one of Bluetooth™, RFID (Radio Frequency Identification), Infrared Data Association (IrDA), UWB (Ultra Wideband), ZigBee, NFC (Near Field Communication), Wi-Fi (Wireless-Fidelity), Wi-Fi Direct, and Wireless USB (Wireless Universal Serial Bus) technologies.

입력부는 영상정보(또는 신호), 오디오정보(또는 신호), 데이터, 또는 사용자로부터 입력되는 정보의 입력을 위한 것으로서, 카메라와 마이크로폰 및 사용자 입력기를 구비할 수 있다. 카메라는 화상 통화모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 마이크로폰은 사용자의 음성을 전기적인 음성 데이터로 처리한다. 한편, 마이크로폰에는 사용자의 음성을 입력받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다. 사용자 입력기는 사용자로부터 정보를 입력받기 위한 것으로서, 기계식 (mechanical) 입력수단(또는, 메커니컬 키, 예를 들어, 버튼, 돔 스위치(dome switch), 조그 휠, 조그 스위치 등) 및 터치식 입력수단을 포함할 수 있다. 일 예로서, 터치식 입력수단은, 소프트웨어적인 처리를 통해 터치스크린에 표시되는 가상 키(virtual key), 소프트 키(soft key) 또는 비주얼 키(visual key)로 이루어지거나, 상기 터치 스크린 이외의 부분에 배치되는 터치 키(touch key)로 이루어질 수 있다.The input unit is for inputting image information (or signal), audio information (or signal), data, or information input from a user, and may be equipped with a camera, a microphone, and a user input unit. The camera processes image frames such as still images or moving images obtained by an image sensor in a video call mode or a shooting mode. The microphone processes the user's voice into electrical voice data. Meanwhile, the microphone may implement various noise removal algorithms to remove noise generated in the process of inputting the user's voice. The user input unit is for inputting information from a user, and may include a mechanical input means (or, a mechanical key, for example, a button, a dome switch, a jog wheel, a jog switch, etc.) and a touch input means. As an example, the touch input means may be composed of a virtual key, a soft key, or a visual key displayed on a touch screen through software processing, or a touch key arranged on a part other than the touch screen.

출력부는 디스플레이와 음향출력모듈를 구비할 수 있는데, 디스플레이는 각종 정보를 표시한다. 예를 들어, 디스플레이는 차량단말기(10)에서 구동되는 응용 프로그램의 실행화면 정보, 또는 이러한 실행화면 정보에 따른 UI(User Interface), GUI(Graphic User Interface) 정보를 표시할 수 있다. 또한, 상기 디스플레이는 입체영상을 표시하는 입체 디스플레이로 구성될 수 있다. 상기 입체 디스플레이에는 스테레오스코픽 방식(안경 방식), 오토 스테레오스코픽 방식(무안경 방식), 프로젝션 방식(홀로그래픽 방식) 등의 3차원 디스플레이 방식이 적용될 수 있다.The output unit may be equipped with a display and an audio output module, and the display displays various types of information. For example, the display may display execution screen information of an application program running on a vehicle terminal (10), or UI (User Interface) and GUI (Graphic User Interface) information according to the execution screen information. In addition, the display may be configured as a stereoscopic display that displays a stereoscopic image. A three-dimensional display method such as a stereoscopic method (glasses method), an autostereoscopic method (glasses-free method), and a projection method (holographic method) may be applied to the stereoscopic display.

음향 출력모듈은 차량단말기(10)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음 등)과 관련된 음향신호를 출력하기도 한다. 이러한 음향 출력부(152)에는 리시버(receiver), 스피커(speaker), 버저(buzzer) 등이 포함될 수 있다.The audio output module also outputs audio signals related to functions performed in the vehicle terminal (10) (e.g., call signal reception sound, message reception sound, etc.). The audio output unit (152) may include a receiver, a speaker, a buzzer, etc.

메모리는 사용자로부터 입력받은 음성을 메인서버(20)로 전송하고, 메인서버(20)로부터 제공받은 정보를 디스플레이하기 위한 프로그램을 저장할 수 있으며, 입/출력되는 데이터들을 임시 저장할 수도 있다.The memory can store a program for transmitting voice input from a user to the main server (20), displaying information provided from the main server (20), and can also temporarily store input/output data.

이러한 메모리는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 마이크로 타입(micro type), 및 카드 타입(예컨대, SD 카드(Secure Digital Card) 또는 XD 카드(eXtream Digital Card)) 등의 메모리와, 램(RAM, Random Access Memory), SRAM(Static RAM), 롬(ROM, Read-Only Memory), PROM(Programmable ROM), EEPROM(Electrically Erasable PROM), 자기 메모리(MRAM, Magnetic RAM), 자기 디스크(magnetic disk), 및 광디스크(optical disk) 타입의 메모리 중 적어도 하나의 타입의 기록 매체(storage medium)를 포함할 수 있다.Such memory may include a memory of a flash memory type, a hard disk type, a micro type, and a card type (e.g., a Secure Digital Card (SD card) or an eXtream Digital Card (XD card)), and a storage medium of at least one type of memory of a Random Access Memory (RAM), a Static RAM (SRAM), a Read-Only Memory (ROM), a Programmable ROM (PROM), an Electrically Erasable PROM (EEPROM), a Magnetic RAM (MRAM), a magnetic disk, and an optical disk.

한편, 차량단말기(10)는 차량 네트워크를 통해 차량의 속도정보를 획득할 수도 있다. 이때, 차량 네트워크는 CAN(Controller Area Network), LIN(Local Interconnect Network), 플렉스레이(FlexRay), MOST(Media Oriented Systems Transport) 등을 포함한다.Meanwhile, the vehicle terminal (10) can also obtain vehicle speed information through the vehicle network. At this time, the vehicle network includes CAN (Controller Area Network), LIN (Local Interconnect Network), FlexRay, MOST (Media Oriented Systems Transport), etc.

메인서버(20)는 차량에 탑재된 차량단말기(10)로부터 해당 사용자의 음성(key word)을 전달받으면, 각 음성인식서버(31 내지 33)로 일괄 전달한다.When the main server (20) receives the user's voice (key word) from the vehicle terminal (10) mounted on the vehicle, it transmits it collectively to each voice recognition server (31 to 33).

또한, 메인서버(20)는 각 음성인식서버(31 내지 33)로부터 사용자의 음성에 상응하는 검색결과(정보)를 전달받으면, 이를 취합한 후 분야별로 구분된 리스트를 만들어 차량단말기(10)로 전송한다. 이때, 리스트는 일례로 도 2에 도시된 바와 같다.In addition, when the main server (20) receives search results (information) corresponding to the user's voice from each voice recognition server (31 to 33), it collates them and creates a list divided by field and transmits it to the vehicle terminal (10). At this time, the list is as shown in Fig. 2, for example.

도 2 는 본 발명의 일 실시예에 따른 차량단말기에 의해 디스플레이되는 리스트를 나타내는 도면이다.FIG. 2 is a drawing showing a list displayed by a vehicle terminal according to one embodiment of the present invention.

도 2에 도시된 바와 같이, 차량단말기(10)에 디스플레이되는 리스트는 일례로 사용자의 음성이 '날씨예보'인 경우로서, 각 음성인식서버(31 내지 33)로부터 취합하여 분야별로 구분한 결과, 날씨로서 기상청이 제공하는 날씨와 네이버가 제공하는 날씨를 전달받았고, 뮤직으로서 멜론 음원정보와 소리바다 음원정보를 제공받았으며, 장소로서 티몬의 장소정보를 제공받은 것을 알 수 있다. 즉, '날씨예보'와 관련된 정보로서 서로 다른 분야(날씨, 뮤직, 장소)의 정보를 제공받은 것이다. 이때, 대부분의 사용자는 날씨를 선택했고, 그 중에서도 기상청 날씨를 선택한 비율이 매우 높았므로 기상청 날씨가 가장 높은 선호도를 갖는다. 이에 기상청에 '추천' 태그를 표시할 수 있다.As shown in Fig. 2, the list displayed on the vehicle terminal (10) is, for example, when the user's voice is 'weather forecast', and as a result of collecting from each voice recognition server (31 to 33) and dividing by field, it can be seen that the weather provided by the Korea Meteorological Administration and the weather provided by Naver are received as weather, Melon music information and Soribada music information are received as music, and Timon's place information is received as place. In other words, information from different fields (weather, music, place) is provided as information related to 'weather forecast'. At this time, most users selected weather, and among them, the rate of selecting the weather from the Korea Meteorological Administration was very high, so the weather from the Korea Meteorological Administration has the highest preference. Therefore, the 'recommended' tag can be displayed on the Korea Meteorological Administration.

도 2에 도시된 날씨정보는 선호도가 가장 높은 기상청 날씨를 나타내며, 이를 알리기 위해 화면의 일측에 '표시중' 태그를 더 표시할 수 있다. 이때, 사용자가 네이버 날씨를 보고 싶으면 네이버 날씨 필드에 상응하는 확인 버튼을 누르면 기상청 날씨정보가 네이버 날씨정보고 변경된다.The weather information shown in Figure 2 shows the weather from the Korea Meteorological Administration, which has the highest preference, and to indicate this, a 'displaying' tag can be additionally displayed on one side of the screen. At this time, if the user wants to see Naver weather, the weather information from the Korea Meteorological Administration is changed to Naver weather information by pressing the confirmation button corresponding to the Naver weather field.

아울러, 차량단말기(10)는 운전자에게 제공하는 정보가 동영상인 경우에는 운전자의 주의 분산을 방지하기 위해 동영상 제공을 제한하는 것이 바람직하다.In addition, when the information provided to the driver by the vehicle terminal (10) is a video, it is desirable to limit the provision of the video to prevent the driver from being distracted.

또한, 메인서버(20)는 각 음성인식서버(31 내지 33)로부터 사용자의 음성을 인식한 결과의 정확도정보를 제공받은 경우 이를 상기 리스트에 추가할 수 있다. 도 2에 도시된 바와 같이 음성인식의 정확도가 정보마다 기록될 수 있다. 이는 사용자가 정확도 높은 정보를 선택하는데 도움을 줄 수 있다.In addition, the main server (20) can add accuracy information on the result of recognizing the user's voice from each voice recognition server (31 to 33) to the above list. As shown in Fig. 2, the accuracy of voice recognition can be recorded for each piece of information. This can help the user select information with high accuracy.

또한, 메인서버(20)는 차량단말기(10)로부터 정보에 대한 선택정보를 제공받으면 선호도정보를 생성할 수도 있다. 예를 들어, 날씨에 대한 정보를 제공한 주체가 기상청, 네이버, 다음, 카카오톡라 할 때 가장 많은 사용자가 선택한 주체가 기상청이라면 기상청의 선호도를 가장 높게 설정할 수 있다. 이러한 선호도는 누적 산출될 수 있다.In addition, the main server (20) can generate preference information when it receives information about selection from the vehicle terminal (10). For example, if the entities providing information about the weather are the Korea Meteorological Administration, Naver, Daum, and KakaoTalk, and the entity most selected by users is the Korea Meteorological Administration, the preference for the Korea Meteorological Administration can be set to the highest. This preference can be accumulated and calculated.

제1 음성인식서버(31)와 제2 음성인식서버(32) 및 제3 음성인식서버(33)는 각기 다른 음성인식기술이 적용될 수 있어 음성인식성능의 차이가 있을 수 있다. 예를 들어, 제1 음성인식서버(31)는 SK 텔레콤에서 운영하는 음성인식을 위한 서버일 수 있고, 제2 음성인식서버(32)는 KT에서 운영하는 음성인식을 위한 서버일 수 있으며, 제3 음성인식서버(33)는 LG 유플러스에서 운영하는 음성인식을 위한 서버일 수 있다. 따라서, 각 음성인식서버(31 내지 33)는 음성인식결과에 차이가 있을 수 있다.The first voice recognition server (31), the second voice recognition server (32), and the third voice recognition server (33) may each apply different voice recognition technologies, and thus may have differences in voice recognition performance. For example, the first voice recognition server (31) may be a server for voice recognition operated by SK Telecom, the second voice recognition server (32) may be a server for voice recognition operated by KT, and the third voice recognition server (33) may be a server for voice recognition operated by LG U+. Accordingly, each voice recognition server (31 to 33) may have differences in voice recognition results.

예를 들어, 사용자의 음성이 '배아파'인 경우, 이를 제대로 인식한 음성인식서버는 근처 병원을 검색하면서 검색결과에 대한 정확도를 높게 설정하고, 이를 '배고파'로 인식한 음성인식서버는 근처 식당을 검색하면서 검색결과에 대한 정확도를 낮게 설정한다.For example, if the user's voice is 'my stomach hurts', a voice recognition server that correctly recognizes it will search for nearby hospitals and set the accuracy of the search results to high, and a voice recognition server that correctly recognizes it as 'I'm hungry' will search for nearby restaurants and set the accuracy of the search results to low.

아울러, 제1 음성인식서버(31)와 제2 음성인식서버(32) 및 제3 음성인식서버(33)는 각기 다른 CP로부터 사용자의 음성(key word)에 상응하는 컨텐츠를 제공받기 때문에 결국 사용자 입장에서는 다양한 컨텐츠를 제공받을 수 있다. 일례로, 날씨의 경우 기상청 날씨, 네이버 날씨, 다음 날씨 등 다양한 컨텐츠를 제공받을 수 있다.In addition, since the first voice recognition server (31), the second voice recognition server (32), and the third voice recognition server (33) receive content corresponding to the user's voice (key word) from different CPs, the user can ultimately receive various contents. For example, in the case of weather, various contents such as weather from the Korea Meteorological Administration, Naver Weather, and Daum Weather can be provided.

한편, 각 음성인식서버(31 내지 33)는 사용자의 음성을 구분하여 인식할 수 있다.Meanwhile, each voice recognition server (31 to 33) can distinguish and recognize the user's voice.

예를 들어, 사용자의 음성이 '서울역'인 경우 선호 검색결과로서 목적지로서의 서울역 정보, 뮤직으로서의 서울역 정보, 기차표로서의 서울역 출발정보, 서울역에 대한 정보(역사, 관광지, 근처 맛집, 주차장 등)를 검색할 수 있고, 사용자의 음성이 '서울역으로 가자'인 경우에는 '가자'를 통해 위치 검색으로 판단하여 목적지로서의 서울역 정보를 검색할 수 있다.For example, if the user's voice is 'Seoul Station', information on Seoul Station as a destination, information on Seoul Station as music, information on Seoul Station as train tickets, and information about Seoul Station (history, tourist attractions, nearby restaurants, parking lots, etc.) can be searched as preferred search results, and if the user's voice is 'Let's go to Seoul Station', information on Seoul Station as a destination can be searched by judging it as a location search through 'Let's go'.

제1 CP(41)는 일례로 내비게이션 관련 컨텐츠(목적지 등)를 제공하는 주체(업체)를 의미하고, 제2 CP(42) 일례로 날씨 관련 컨텐츠를 제공하는 주체를 의미하며, 제3 CP(43)는 음악 관련 컨텐츠를 제공하는 주체를 의미하고, 제4 CP(44)는 주식 관련 컨텐츠를 제공하는 주체를 의미하며, 제5 CP(45)는 차량제어 관련 컨텐츠를 제공하는 주체를 의미하고, 제6 CP(46)는 미디어제어 관련 컨텐츠를 제공하는 주체를 의미한다.The first CP (41) refers to an entity (company) that provides, for example, navigation-related content (destination, etc.), the second CP (42) refers to an entity that provides, for example, weather-related content, the third CP (43) refers to an entity that provides music-related content, the fourth CP (44) refers to an entity that provides stock-related content, the fifth CP (45) refers to an entity that provides vehicle control-related content, and the sixth CP (46) refers to an entity that provides media control-related content.

제1 음성인식서버(31)는 제1 CP(41) 및 제2 CP(42)와 연결되고, 제2 음성인식서버(31)가 제3 CP(43) 및 제4 CP(44)와 연결되며, 제3 음성인식서버(33)가 제5 CP(45) 및 제6 CP(46)와 연결될 수 있다.The first voice recognition server (31) can be connected to the first CP (41) and the second CP (42), the second voice recognition server (31) can be connected to the third CP (43) and the fourth CP (44), and the third voice recognition server (33) can be connected to the fifth CP (45) and the sixth CP (46).

도 1에서는 이해를 돕기 위해 각기 다른 컨텐츠를 제공하는 형태를 설명하고, 균등하게 제1 음성인식서버(31)와 제2 음성인식서버(32) 및 제3 음성인식서버(33)에 연결된 예를 설명하였지만, 이는 하나의 예일 뿐이다.In order to help understanding, Fig. 1 describes a form of providing different contents and an example of being equally connected to the first voice recognition server (31), the second voice recognition server (32), and the third voice recognition server (33), but this is only one example.

도 1에서 제1 CP(41), 제3 CP(43), 제5 CP(45)가 서로 다른 방식으로 날씨 컨텐츠를 제공하는 주체일 수도 있고, 제2 CP(42), 제4 CP(44), 제6 CP(46)이 서로 다른 방식으로 음악 컨텐츠를 제공하는 주체일 수도 있다.In Fig. 1, the first CP (41), the third CP (43), and the fifth CP (45) may be entities providing weather content in different ways, and the second CP (42), the fourth CP (44), and the sixth CP (46) may be entities providing music content in different ways.

도 3 은 본 발명의 일 실시예에 따른 음성인식을 이용한 정보 제공 방법에 대한 흐름도이다.Figure 3 is a flowchart of a method for providing information using voice recognition according to one embodiment of the present invention.

먼저, 메인서버(20)가 차량단말기(10)로부터 전달받은 사용자의 음성(key word)을 복수의 음성인식서버(31 내지 33)로 전달한다(301).First, the main server (20) transmits the user's voice (key word) received from the vehicle terminal (10) to multiple voice recognition servers (31 to 33) (301).

이후, 복수의 음성인식서버(31 내지 33)가 각기 다른 방식으로 사용자의 음성을 인식한 후 인식된 결과와 관련된 정보를 획득한다(302). 이때, 복수의 음성인식서버(31 내지 33)는 사용자의 음성을 인식하고 인식된 결과와 관련된 컨텐츠를 복수의 서로 다른 CP(Contets Provider)를 통해 각각 획득할 수 있다.Thereafter, multiple voice recognition servers (31 to 33) recognize the user's voice in different ways and then obtain information related to the recognized result (302). At this time, multiple voice recognition servers (31 to 33) can recognize the user's voice and obtain content related to the recognized result through multiple different CPs (Contents Providers).

이후, 메인서버(20)가 복수의 음성인식서버(31 내지 33)로부터 전달받은 정보를 차량단말기(10)로 제공한다(303).Thereafter, the main server (20) provides information received from multiple voice recognition servers (31 to 33) to the vehicle terminal (10) (303).

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. The above description is merely an example of the technical idea of the present invention, and those skilled in the art will appreciate that various modifications and variations may be made without departing from the essential characteristics of the present invention.

따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Therefore, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention but to explain it, and the scope of the technical idea of the present invention is not limited by these embodiments. The protection scope of the present invention should be interpreted by the following claims, and all technical ideas within the equivalent scope should be interpreted as being included in the scope of the rights of the present invention.

10: 차량단말기
20: 메인서버
31~33: 음성인식서버
41~46: CP
10: Vehicle terminal
20: Main Server
31~33: Voice recognition server
41~46: CP

Claims (10)

각기 다른 방식으로 사용자의 음성(key word)을 인식하는 복수의 음성인식서버; 및
차량단말기로부터 전달받은 사용자의 음성을 상기 복수의 음성인식서버로 전달하고, 상기 복수의 음성인식서버로부터 사용자의 음성에 상응하는 정보를 제공받는 메인서버를 포함하되,
상기 메인서버는,
상기 복수의 음성인식서버로부터 각각 제공받은 정보를 분야별로 구분하여 리스트를 생성한 후 상기 차량단말기로 제공하되, 사용자의 선호도가 높은 분야의 정보를 리스트의 상위에 배치하는 것을 특징으로 하는 음성인식을 이용한 정보 제공 시스템.
Multiple voice recognition servers that recognize the user's voice (key word) in different ways; and
Including a main server that transmits the user's voice received from the vehicle terminal to the plurality of voice recognition servers and receives information corresponding to the user's voice from the plurality of voice recognition servers,
The above main server is,
An information provision system using voice recognition, characterized in that it creates a list by dividing information provided from each of the above plurality of voice recognition servers by field and provides it to the vehicle terminal, while placing information in a field with a high user preference at the top of the list.
제 1 항에 있어서,
상기 복수의 음성인식서버는,
상기 사용자의 음성을 인식하고 상기 인식된 결과와 관련된 컨텐츠를 복수의 서로 다른 CP(Contets Provider)를 통해 각각 획득하는 것을 특징으로 하는 음성인식을 이용한 정보 제공 시스템.
In paragraph 1,
The above multiple voice recognition servers,
An information providing system using voice recognition, characterized in that it recognizes the user's voice and obtains content related to the recognized result through a plurality of different CPs (Contents Providers).
삭제delete 삭제delete 제 1 항에 있어서,
상기 차량단말기는,
사용자의 음성에 상응하는 정보가 동영상인 경우, 운전자의 주의 분산을 방지하기 위해 동영상 제공을 제한하는 것을 특징으로 하는 음성인식을 이용한 정보 제공 시스템.
In paragraph 1,
The above vehicle terminal is,
An information provision system using voice recognition, characterized in that when information corresponding to a user's voice is a video, the provision of a video is limited to prevent distraction of the driver.
메인서버가 차량단말기로부터 전달받은 사용자의 음성(key word)을 복수의 음성인식서버로 전달하는 단계;
상기 복수의 음성인식서버가 각기 다른 방식으로 사용자의 음성을 인식한 후 인식된 결과와 관련된 정보를 획득하는 단계; 및
상기 메인서버가 상기 복수의 음성인식서버로부터 전달받은 정보를 상기 차량단말기로 제공하는 단계를 포함하되,
상기 정보를 제공하는 단계는,
상기 복수의 음성인식서버로부터 각각 전달받은 정보를 분야별로 구분하여 리스트를 생성하되, 사용자의 선호도가 높은 분야의 정보를 리스트의 상위에 배치하는 단계; 및
상기 생성한 리스트를 상기 차량단말기로 제공하는 단계
를 포함하는 음성인식을 이용한 정보 제공 방법.
A step in which the main server transmits the user's voice (key word) received from the vehicle terminal to multiple voice recognition servers;
A step of obtaining information related to the recognition result after the plurality of voice recognition servers recognize the user's voice in different ways; and
Including a step of the main server providing information received from the plurality of voice recognition servers to the vehicle terminal,
The steps for providing the above information are:
A step of generating a list by dividing the information received from each of the above multiple voice recognition servers by field, and placing information in a field with a high user preference at the top of the list; and
Step of providing the above-mentioned generated list to the vehicle terminal
A method for providing information using voice recognition including:
제 6 항에 있어서,
상기 정보를 획득하는 단계는,
상기 사용자의 음성을 인식하고 인식된 결과와 관련된 컨텐츠를 복수의 서로 다른 CP(Contets Provider)를 통해 각각 획득하는 것을 특징으로 하는 음성인식을 이용한 정보 제공 방법.
In paragraph 6,
The steps for obtaining the above information are:
An information providing method using voice recognition, characterized by recognizing the user's voice and obtaining content related to the recognized result through a plurality of different CPs (Contents Providers).
삭제delete 삭제delete 제 6 항에 있어서,
상기 정보가 동영상인 경우, 상기 차량단말기는 운전자의 주의 분산을 방지하기 위해 동영상 제공을 제한하는 단계
를 더 포함하는 음성인식을 이용한 정보 제공 방법.
In paragraph 6,
If the above information is a video, the vehicle terminal has a step to limit the provision of the video to prevent the driver from being distracted.
A method for providing information using voice recognition, which further includes:
KR1020180136708A 2018-11-08 2018-11-08 Information providing system using voice recognition and method thereof Active KR102778244B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180136708A KR102778244B1 (en) 2018-11-08 2018-11-08 Information providing system using voice recognition and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180136708A KR102778244B1 (en) 2018-11-08 2018-11-08 Information providing system using voice recognition and method thereof

Publications (2)

Publication Number Publication Date
KR20200053278A KR20200053278A (en) 2020-05-18
KR102778244B1 true KR102778244B1 (en) 2025-03-11

Family

ID=70912815

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180136708A Active KR102778244B1 (en) 2018-11-08 2018-11-08 Information providing system using voice recognition and method thereof

Country Status (1)

Country Link
KR (1) KR102778244B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220086342A (en) * 2020-12-16 2022-06-23 삼성전자주식회사 Method for providing response of voice input and electronic device supporting the same

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8364481B2 (en) * 2008-07-02 2013-01-29 Google Inc. Speech recognition with parallel recognition tasks
KR101322394B1 (en) 2011-05-16 2013-10-29 경북대학교 산학협력단 Vocal recognition information retrieval system and method the same
KR101736109B1 (en) * 2015-08-20 2017-05-16 현대자동차주식회사 Speech recognition apparatus, vehicle having the same, and method for controlling thereof
KR101806892B1 (en) * 2016-05-09 2018-01-10 엘지전자 주식회사 Control device for a vehhicle

Also Published As

Publication number Publication date
KR20200053278A (en) 2020-05-18

Similar Documents

Publication Publication Date Title
JP5676147B2 (en) In-vehicle display device, display method, and information display system
US10931726B2 (en) Method and terminal for sharing content
KR101343609B1 (en) Apparatus and Method for Automatically recommending Application using Augmented Reality Data
JP6232492B2 (en) User-customized advertisement providing system based on sound signal output from TV, method for providing user-customized advertisement, and computer-readable recording medium recording MIM service program
CN112015926B (en) Search result display method and device, readable medium and electronic equipment
EP2648428B1 (en) User terminal device and information providing method using the same
US20140132634A1 (en) Method And Apparatus For Recognizing Target Object At Machine Side in Human-Machine Interaction
US8840014B2 (en) Identification code processing system, identification code processing method thereof, and apparatus for supporting same
US10989536B2 (en) Navigation system for vehicle, navigation method thereof, user terminal and information providing method thereof
KR20150138735A (en) Beacon additional service method of electronic apparatus and electronic apparatus thereof
KR102092762B1 (en) Display apparatus and method for setting up a destination thereof
CN105022760B (en) A kind of news recommended method and device
CN110390641B (en) Image desensitizing method, electronic device and storage medium
KR20130005406A (en) Method and apparatus for transmitting message in portable terminnal
CN105162876A (en) Method, device and system for presenting geographical position information
US11582173B2 (en) Message processing method and electronic device supporting the same
KR102149914B1 (en) Point of interest update method and apparatus based crowd sourcing
KR102778244B1 (en) Information providing system using voice recognition and method thereof
US20120023166A1 (en) Augmented reality apparatus and method
US11729123B2 (en) Systems and methods for sending content
KR101552568B1 (en) System for multi-channel certificating using automatic selection of mode, method of multi-channel certificating and apparatus for the same
US10165019B2 (en) Shared experience information construction system
WO2019082606A1 (en) Content management device, content management system, and control method
CN112217644B (en) Digital signature method, device, system and storage medium
KR20160094205A (en) Method for providing ARS service and terminal thereof

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20181108

PG1501 Laying open of application
A201 Request for examination
PA0201 Request for examination

Patent event code: PA02012R01D

Patent event date: 20211020

Comment text: Request for Examination of Application

Patent event code: PA02011R01I

Patent event date: 20181108

Comment text: Patent Application

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20240529

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20250123

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20250304

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20250305

End annual number: 3

Start annual number: 1

PG1601 Publication of registration