[go: up one dir, main page]

KR102857236B1 - Electronic apparatus and method for controlling thereof - Google Patents

Electronic apparatus and method for controlling thereof

Info

Publication number
KR102857236B1
KR102857236B1 KR1020190099895A KR20190099895A KR102857236B1 KR 102857236 B1 KR102857236 B1 KR 102857236B1 KR 1020190099895 A KR1020190099895 A KR 1020190099895A KR 20190099895 A KR20190099895 A KR 20190099895A KR 102857236 B1 KR102857236 B1 KR 102857236B1
Authority
KR
South Korea
Prior art keywords
text
artificial intelligence
intelligence model
user command
electronic device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020190099895A
Other languages
Korean (ko)
Other versions
KR20200021409A (en
Inventor
송희준
권세정
프라틱 차우드리
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US16/545,309 priority Critical patent/US11386304B2/en
Publication of KR20200021409A publication Critical patent/KR20200021409A/en
Application granted granted Critical
Publication of KR102857236B1 publication Critical patent/KR102857236B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/3332Query translation
    • G06F16/3338Query expansion
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3343Query execution using phonetics
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Acoustics & Sound (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

전자 장치가 개시된다. 본 전자 장치는 컴퓨터 실행가능 명령어(computer executable instructions)를 저장하는 메모리 및 컴퓨터 실행가능 명령어를 실행함으로써, 수신된 사용자 명령에 대응되는 텍스트를 판단하고, 제1 인공 지능 모델을 통해 텍스트가 기저장된 복수의 텍스트 중 하나에 대응되는 것으로 분류되면, 사용자 명령에 대한 응답 정보를 제공하고, 제1 인공 지능 모델을 통해 텍스트가 에러로 분류되면, 사용자 명령에 대해 에러 정보를 제공하는 프로세서를 포함하고, 제1 인공 지능 모델은, 사용자 명령에 대응되는 텍스트가 기저장된 복수의 텍스트 중 적어도 하나의 텍스트와 대상(entity) 및 의도(intent) 중 하나가 다른 유사 텍스트인 경우, 텍스트를 에러로 분류한다.An electronic device is disclosed. The electronic device includes a memory storing computer executable instructions and a processor that executes the computer executable instructions to determine a text corresponding to a received user command, and if the text is classified as corresponding to one of a plurality of pre-stored texts through a first artificial intelligence model, provides response information for the user command, and if the text is classified as an error through the first artificial intelligence model, provides error information for the user command, wherein the first artificial intelligence model classifies the text as an error if the text corresponding to the user command is a similar text that differs in one of an entity and an intent from at least one of the plurality of pre-stored texts.

Description

전자 장치 및 그 제어 방법 {ELECTRONIC APPARATUS AND METHOD FOR CONTROLLING THEREOF}Electronic apparatus and method for controlling it {ELECTRONIC APPARATUS AND METHOD FOR CONTROLLING THEREOF}

본 개시는 전자 장치 및 그 제어 방법에 관한 것으로, 보다 상세하게는 인공 지능 기술을 기반으로 동작하는 전자 장치 및 그 제어 방법에 관한 것이다.The present disclosure relates to an electronic device and a method for controlling the same, and more particularly, to an electronic device operating based on artificial intelligence technology and a method for controlling the same.

최근 인공 지능 시스템이 개발되고 있다. 인공 지능 시스템은, 기존의 룰(rule) 기반 시스템과 달리 기계가 스스로 학습하고 판단하는 시스템으로써, 음성 인식, 이미지 인식 및 미래 예측 등과 같은 다양한 기술 분야에서 활용되고 있다.Artificial intelligence systems are being developed recently. Unlike conventional rule-based systems, AI systems are machines that learn and make decisions on their own. They are being utilized in various technological fields, such as voice recognition, image recognition, and future prediction.

특히, 최근에는 대화형 인공 지능 시스템이 개발되고 있다. 대화형 인공 지능 시스템은, 인공 지능 모델을 통해 사용자의 요청 사항을 분석하고, 그에 대한 응답을 제공하는 시스템으로써, 챗봇(chat bot) 서비스 등에서 활용되고 있다. In particular, conversational AI systems are being developed recently. These systems analyze user requests through AI models and provide responses. They are being utilized in services such as chatbots.

일반적으로, 대화형 인공 지능 시스템은 방대한 양의 텍스트를 데이터 베이스에 저장하고 있다. 그리고, 사용자의 요청 사항이 입력되면, 데이터 베이스에 저장된 텍스트 중에서 사용자의 요청 사항에 가장 부합하는 텍스트를 찾고, 그 텍스트에 기초하여 응답 정보를 제공한다.Typically, conversational AI systems store vast amounts of text in a database. When a user requests a request, they search for the text most relevant to the request among the texts stored in the database and provide a response based on that text.

그런데, 경우에 따라 사용자는 데이터 베이스에 저장된 텍스트와 형태적으로는 유사하지만, 주제, 목적 등이 다른 요청 사항을 입력할 수 있다. However, in some cases, users may enter requests that are similar in form to the text stored in the database, but have different topics, purposes, etc.

예를 들어, 데이터 베이스에 저장된 텍스트가 '교통' 카테고리에 포함된 '택시 찾아줘'이고, 사용자가 영화 택시를 감상할 의도로 '택시 감상하고 싶어요'를 입력하는 경우가 그러하다.For example, if the text stored in the database is 'Find a taxi' in the 'Transportation' category, and the user enters 'I want to watch Taxi' with the intention of watching the movie Taxi, this is the case.

이 경우, 종래의 대화형 인공 지능 시스템은, 데이터 베이스에 '택시 감상하고 싶어요'와 같은 텍스트가 없는 경우, 저장된 텍스트 중에서 '택시 감상하고 싶어요'와 가장 유사한 '택시 찾아줘'를 찾고, 그에 대한 응답 정보로 사용자 주변의 이용 가능한 택시와 관련된 정보 등을 제공하였다.In this case, if there is no text such as 'I want to appreciate taxis' in the database, the conventional conversational artificial intelligence system finds 'Find a taxi', which is most similar to 'I want to appreciate taxis' among the stored texts, and provides information related to available taxis around the user as response information.

그러나, 이는 사용자 의도와 전혀 관계 없는 응답 정보로써, 사용자에게 불편함을 초래할 뿐이다. However, this is response information that has nothing to do with the user's intention and only causes inconvenience to the user.

본 개시는 상술한 문제점을 해결하기 위해 안출된 것으로, 본 개시의 목적은 데이터 베이스에 기저장된 텍스트와 형태적으로는 유사하지만, 주제, 목적 등이 다른 텍스트를, 데이터 베이스에 기저장된 텍스트와 구분할 수 있는 전자 장치를 제공함에 있다.The present disclosure has been devised to solve the above-described problems, and the purpose of the present disclosure is to provide an electronic device that can distinguish text that is similar in form to a text pre-stored in a database but has a different subject, purpose, etc. from the text pre-stored in the database.

상기 목적을 달성하기 위한 본 개시의 일 실시 예에 따른 전자 장치는, 컴퓨터 실행가능 명령어(computer executable instructions)를 저장하는 메모리 및 상기 컴퓨터 실행가능 명령어를 실행함으로써, 수신된 사용자 명령에 대응되는 텍스트를 판단하고, 제1 인공 지능 모델을 통해 상기 텍스트가 기저장된 복수의 텍스트 중 하나에 대응되는 것으로 분류되면, 상기 사용자 명령에 대한 응답 정보를 제공하고, 상기 제1 인공 지능 모델을 통해 상기 텍스트가 에러로 분류되면, 상기 사용자 명령에 대해 에러 정보를 제공하는 프로세서를 포함하고, 상기 제1 인공 지능 모델은, 상기 사용자 명령에 대응되는 텍스트가 상기 기저장된 복수의 텍스트 중 적어도 하나의 텍스트와 대상(entity) 및 의도(intent) 중 하나가 다른 유사 텍스트인 경우, 상기 텍스트를 상기 에러로 분류할 수 있다.According to an embodiment of the present disclosure for achieving the above object, an electronic device includes a memory for storing computer executable instructions and a processor for determining a text corresponding to a received user command by executing the computer executable instructions, and providing response information for the user command when the text is classified as corresponding to one of a plurality of pre-stored texts through a first artificial intelligence model, and providing error information for the user command when the text is classified as an error through the first artificial intelligence model, wherein the first artificial intelligence model can classify the text as an error when the text corresponding to the user command is a similar text that differs in one of an entity and an intent from at least one of the plurality of pre-stored texts.

여기에서, 상기 제1 인공 지능 모델은, 상기 기저장된 복수의 텍스트에 기초하여 상기 사용자 명령에 대응되는 텍스트를 판단하는 모델을, 상기 유사 텍스트는 에러로 분류하도록 학습시켜 얻어진 모델일 수 있다.Here, the first artificial intelligence model may be a model obtained by training a model that determines a text corresponding to the user command based on the plurality of pre-stored texts to classify the similar text as an error.

그리고, 상기 유사 텍스트는, 제2 인공 지능 모델에 의해 생성될 수 있다.And, the above similar text can be generated by the second artificial intelligence model.

그리고, 상기 제1 인공 지능 모델은, 상기 제1 인공 지능 모델에 입력된 상기 유사 텍스트가 상기 기저장된 복수의 텍스트 중 하나에 대응되는지를 판단하고, 상기 판단 결과에 기초하여 학습 여부를 결정할 수 있다.And, the first artificial intelligence model can determine whether the similar text input to the first artificial intelligence model corresponds to one of the plurality of pre-stored texts, and determine whether to learn based on the determination result.

그리고, 상기 제1 인공 지능 모델은, 상기 유사 텍스트가 상기 기저장된 복수의 텍스트 중 하나에 대응되는 것으로 판단되면 상기 유사 텍스트를 에러로 분류하도록 학습하고, 상기 유사 텍스트가 상기 기저장된 복수의 텍스트에 대응되지 않는 것으로 판단되면 상기 학습을 수행하지 않을 수 있다.In addition, the first artificial intelligence model may learn to classify the similar text as an error if it is determined that the similar text corresponds to one of the plurality of pre-stored texts, and may not perform the learning if it is determined that the similar text does not correspond to one of the plurality of pre-stored texts.

그리고, 상기 제2 인공 지능 모델은, 상기 제1 인공 지능 모델이 상기 유사 텍스트를 상기 기저장된 복수의 텍스트에 대응되지 않는 것으로 판단하면, 상기 유사 텍스트가 상기 적어도 하나의 텍스트와 유사한 정도보다 더 높은 유사도를 갖는 새로운 유사 텍스트를 생성하도록 학습할 수 있다.And, the second artificial intelligence model can learn to generate a new similar text having a higher degree of similarity than the degree to which the similar text is similar to at least one text, if the first artificial intelligence model determines that the similar text does not correspond to the plurality of pre-stored texts.

그리고, 상기 제1 인공 지능 모델은, 상기 제2 인공 지능 모델에 의해 생성된 상기 새로운 유사 텍스트를 입력 받고, 상기 새로운 유사 텍스트가 상기 기저장된 복수의 텍스트 중 하나에 대응되는지를 판단하고, 상기 판단 결과에 기초하여 학습 여부를 결정할 수 있다.And, the first artificial intelligence model can receive the new similar text generated by the second artificial intelligence model as input, determine whether the new similar text corresponds to one of the plurality of pre-stored texts, and determine whether to learn based on the determination result.

그리고, 상기 제1 및 제2 인공 지능 모델은, GAN(Generative Adversarial Network)일 수 있다.And, the first and second artificial intelligence models may be GAN (Generative Adversarial Network).

한편, 본 개시의 일 실시 예에 따른 전자 장치의 제어 방법은, 수신된 사용자 명령에 대응되는 텍스트를 판단하는 단계 및 제1 인공 지능 모델을 통해 상기 텍스트가 기저장된 복수의 텍스트 중 하나에 대응되는 것으로 분류되면, 상기 사용자 명령에 대한 응답 정보를 제공하고, 상기 제1 인공 지능 모델을 통해 상기 텍스트가 에러로 분류되면, 상기 사용자 명령에 대해 에러 정보를 제공하는 단계를 포함하고, 상기 제1 인공 지능 모델은, 상기 사용자 명령에 대응되는 텍스트가 상기 기저장된 복수의 텍스트 중 적어도 하나의 텍스트와 대상(entity) 및 의도(intent) 중 하나가 다른 유사 텍스트인 경우, 상기 텍스트를 상기 에러로 분류할 수 있다.Meanwhile, a method for controlling an electronic device according to an embodiment of the present disclosure includes a step of determining a text corresponding to a received user command, and a step of providing response information for the user command if the text is classified as corresponding to one of a plurality of pre-stored texts through a first artificial intelligence model, and a step of providing error information for the user command if the text is classified as an error through the first artificial intelligence model, wherein the first artificial intelligence model can classify the text as the error if the text corresponding to the user command is a similar text that differs in one of an entity and an intent from at least one of the plurality of pre-stored texts.

여기에서, 상기 제1 인공 지능 모델은, 상기 기저장된 복수의 텍스트에 기초하여 상기 사용자 명령에 대응되는 텍스트를 판단하는 모델을, 상기 유사 텍스트는 에러로 분류하도록 학습시켜 얻어진 모델일 수 있다.Here, the first artificial intelligence model may be a model obtained by training a model that determines a text corresponding to the user command based on the plurality of pre-stored texts to classify the similar text as an error.

그리고, 상기 유사 텍스트는, 제2 인공 지능 모델에 의해 생성될 수 있다.And, the above similar text can be generated by the second artificial intelligence model.

그리고, 상기 제1 인공 지능 모델은, 상기 제1 인공 지능 모델에 입력된 상기 유사 텍스트가 상기 기저장된 복수의 텍스트 중 하나에 대응되는지를 판단하고, 상기 판단 결과에 기초하여 학습 여부를 결정할 수 있다.And, the first artificial intelligence model can determine whether the similar text input to the first artificial intelligence model corresponds to one of the plurality of pre-stored texts, and determine whether to learn based on the determination result.

그리고, 상기 제1 인공 지능 모델은, 상기 유사 텍스트가 상기 기저장된 복수의 텍스트 중 하나에 대응되는 것으로 판단되면 상기 유사 텍스트를 에러로 분류하도록 학습하고, 상기 유사 텍스트가 상기 기저장된 복수의 텍스트에 대응되지 않는 것으로 판단되면 상기 학습을 수행하지 않을 수 있다.In addition, the first artificial intelligence model may learn to classify the similar text as an error if it is determined that the similar text corresponds to one of the plurality of pre-stored texts, and may not perform the learning if it is determined that the similar text does not correspond to one of the plurality of pre-stored texts.

그리고, 상기 제2 인공 지능 모델은, 상기 제1 인공 지능 모델이 상기 유사 텍스트를 상기 기저장된 복수의 텍스트에 대응되지 않는 것으로 판단하면, 상기 유사 텍스트가 상기 적어도 하나의 텍스트와 유사한 정도보다 더 높은 유사도를 갖는 새로운 유사 텍스트를 생성하도록 학습할 수 있다.And, the second artificial intelligence model can learn to generate a new similar text having a higher degree of similarity than the degree to which the similar text is similar to at least one text, if the first artificial intelligence model determines that the similar text does not correspond to the plurality of pre-stored texts.

그리고, 상기 제1 인공 지능 모델은, 상기 제2 인공 지능 모델에 의해 생성된 상기 새로운 유사 텍스트를 입력 받고, 상기 새로운 유사 텍스트가 상기 기저장된 복수의 텍스트 중 하나에 대응되는지를 판단하고, 상기 판단 결과에 기초하여 학습 여부를 결정할 수 있다.And, the first artificial intelligence model can receive the new similar text generated by the second artificial intelligence model as input, determine whether the new similar text corresponds to one of the plurality of pre-stored texts, and determine whether to learn based on the determination result.

그리고, 상기 제1 및 제2 인공 지능 모델은, GAN(Generative Adversarial Network)일 수 있다.And, the first and second artificial intelligence models may be GAN (Generative Adversarial Network).

이상과 같은 본 개시의 다양한 실시 예에 따르면, 메모리에 기저장된 텍스트와 형태적으로는 유사하지만, 대상(entity) 및 의도(intent) 중 하나가 다른 텍스트를, 메모리에 기저장된 텍스트와 구분할 수 있는 전자 장치가 제공될 수 있다.According to various embodiments of the present disclosure as described above, an electronic device can be provided that can distinguish a text that is morphologically similar to a text pre-stored in a memory but has a different entity or intent from the text pre-stored in the memory.

이에 따라, 사용자 의도와 전혀 관계 없는 응답 정보를 제공하는 경우를 방지할 수 있다.Accordingly, it is possible to prevent cases where response information that is completely unrelated to the user's intention is provided.

도 1은 본 개시의 일 실시 예에 따른 전자 장치에 의해 제공되는 화면을 설명하기 위한 도면이다.
도 2는 본 개시의 일 실시 예에 따른 전자 장치를 설명하기 위한 블록도이다.
도 3은 본 개시의 일 실시 예에 따른 메모리에 기저장된 복수의 텍스트를 설명하기 위한 도면이다.
도 4는 본 개시의 일 실시 예에 따른 추가적으로 저장되는 텍스트를 설명하기 위한 도면이다.
도 5는 본 개시의 일 실시 예에 따른 인공 지능 모델이 수행하는 학습을 설명하기 위한 도면이다.
도 6a 내지 도 9b는 본 개시의 일 실시 예에 따른 응답 정보의 다양한 실시 예를 설명하기 위한 도면이다.
도 10은 본 개시의 일 실시 예에 따른 전자 장치가 서버로 구현되는 경우의 상세 블록도이다.
도 11은 본 개시의 일 실시 예에 따른 전자 장치가 디스플레이 장치로 구현되는 경우의 상세 블록도이다.
도 12는 본 개시의 일 실시 예에 따른 대화 시스템을 설명하기 위한 도면이다.
도 13은 본 개시의 일 실시 예에 따른 전자 장치의 상세 블록도이다.
도 14는 본 개시의 일 실시 예에 따른 전자 장치의 동작을 설명하기 위한 흐름도이다.
FIG. 1 is a drawing for explaining a screen provided by an electronic device according to one embodiment of the present disclosure.
FIG. 2 is a block diagram illustrating an electronic device according to an embodiment of the present disclosure.
FIG. 3 is a diagram illustrating a plurality of texts stored in a memory according to an embodiment of the present disclosure.
FIG. 4 is a drawing for explaining additionally stored text according to one embodiment of the present disclosure.
FIG. 5 is a diagram illustrating learning performed by an artificial intelligence model according to an embodiment of the present disclosure.
FIGS. 6A to 9B are diagrams illustrating various embodiments of response information according to an embodiment of the present disclosure.
FIG. 10 is a detailed block diagram of an electronic device implemented as a server according to an embodiment of the present disclosure.
FIG. 11 is a detailed block diagram of an electronic device according to an embodiment of the present disclosure when implemented as a display device.
FIG. 12 is a drawing for explaining a conversation system according to one embodiment of the present disclosure.
FIG. 13 is a detailed block diagram of an electronic device according to an embodiment of the present disclosure.
FIG. 14 is a flowchart illustrating the operation of an electronic device according to an embodiment of the present disclosure.

먼저, 본 명세서 및 청구범위에서 사용되는 용어는 본 개시의 기능을 고려하여 일반적인 용어들을 선택하였다. 하지만, 이러한 용어들은 당 분야에 종사하는 기술자의 의도나 법률적 또는 기술적 해석 및 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 일부 용어는 출원인이 임의로 선정한 용어도 있다. 이러한 용어에 대해서는 본 명세서에서 정의된 의미로 해석될 수 있으며, 구체적인 용어 정의가 없으면 본 명세서의 전반적인 내용 및 당해 기술 분야의 통상적인 기술 상식을 토대로 해석될 수도 있다. First, the terms used in this specification and claims are general terms selected in consideration of the functions of the present disclosure. However, these terms may vary depending on the intentions of those skilled in the art, legal or technical interpretations, and the emergence of new technologies. Furthermore, some terms may have been arbitrarily selected by the applicant. These terms may be interpreted according to the meanings defined in this specification. In the absence of a specific definition, they may be interpreted based on the overall content of this specification and common technical knowledge in the relevant technical field.

또한, 본 개시를 설명함에 있어서, 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 개시의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우, 그에 대한 상세한 설명은 축약하거나 생략한다.In addition, when describing the present disclosure, if it is determined that a specific description of a related known function or configuration may unnecessarily obscure the gist of the present disclosure, the detailed description thereof will be abbreviated or omitted.

나아가, 이하 첨부 도면들 및 첨부 도면들에 기재된 내용들을 참조하여 본 개시의 실시 예를 상세하게 설명하지만, 본 개시가 실시 예들에 의해 제한되거나 한정되는 것은 아니다.Furthermore, embodiments of the present disclosure will be described in detail with reference to the attached drawings and the contents described in the attached drawings, but the present disclosure is not limited or restricted by the embodiments.

이하, 첨부된 도면을 참조하여 본 개시를 상세히 설명한다.Hereinafter, the present disclosure will be described in detail with reference to the attached drawings.

도 1은 본 개시의 일 실시 예에 따른 전자 장치에 의해 제공되는 화면을 설명하기 위한 도면이다.FIG. 1 is a drawing for explaining a screen provided by an electronic device according to one embodiment of the present disclosure.

전자 장치(100)는 사용자 명령을 수신할 수 있는 다양한 전자 기기가 될 수 있다. 예를 들어, 전자 장치(100)는 스마트 폰, PC, 태블릿 PC, 노트북, PDA, PMP, 스마트 TV 등이 될 수 있다. The electronic device (100) may be any of a variety of electronic devices capable of receiving user commands. For example, the electronic device (100) may be a smart phone, a PC, a tablet PC, a laptop, a PDA, a PMP, a smart TV, etc.

또한, 전자 장치(100)는 외부 장치(미도시)로부터 사용자 명령을 수신하는 서버가 될 수 있다. 전자 장치(100)가 서버로 구현될 경우, 외부 장치(미도시)는 스마트 폰, PC, 태블릿 PC, 노트북, PDA, PMP, 스마트 TV 등이 될 수 있다. 이하에서는, 설명의 편의를 위해 본 개시의 일 실시 예에 따른 전자 장치(100)는 서버인 것으로 상정하여 설명한다.Additionally, the electronic device (100) may be a server that receives user commands from an external device (not shown). When the electronic device (100) is implemented as a server, the external device (not shown) may be a smart phone, a PC, a tablet PC, a laptop, a PDA, a PMP, a smart TV, etc. In the following, for convenience of explanation, the electronic device (100) according to one embodiment of the present disclosure is assumed to be a server.

전자 장치(100)는 사용자의 질의를 유도하는 화면을 제공할 수 있다. 예를 들어, 도 1의 (a)에 도시된 바와 같이, 전자 장치(100)는 “무엇을 도와드릴까요”와 같은 메시지를 포함하는 화면을 제공할 수 있다. 여기에서, 화면은 특정 어플리케이션의 실행 화면이 될 수 있다. The electronic device (100) may provide a screen that prompts a user's inquiry. For example, as illustrated in (a) of FIG. 1, the electronic device (100) may provide a screen containing a message such as "How can I help you?" Here, the screen may be the execution screen of a specific application.

그리고, 전자 장치(100)는 사용자 명령을 수신할 수 있다. 여기에서, 사용자 명령은 키보드 또는 온 스크린 키보드 등을 통해 입력된 텍스트가 될 수 있음은 물론, 스타일러스 등을 통해 입력된 그림 또는 텍스트가 될 수 있다. 또한, 사용자 명령은 마이크를 통해 입력된 사용자 음성이 될 수도 있다.In addition, the electronic device (100) can receive a user command. Here, the user command can be text entered through a keyboard or an on-screen keyboard, or a picture or text entered through a stylus or the like. In addition, the user command can also be the user's voice entered through a microphone.

그리고, 전자 장치(100)는 사용자 명령이 수신되면, 사용자 명령에 대한 응답 정보를 제공할 수 있다. And, when a user command is received, the electronic device (100) can provide response information to the user command.

이를 위해, 전자 장치(100)는 먼저 사용자 명령의 카테고리를 분류할 수 있다. 구체적으로, 전자 장치(100)는 사용자 명령이 수신되면, 기저장된 복수의 텍스트 중에서 사용자 명령에 대응되는 텍스트를 식별하고, 텍스트 별로 매칭된 카테고리 정보에 기초하여, 사용자 명령의 카테고리를 분류할 수 있다. 그리고, 전자 장치(100)는 해당 카테고리에 포함된 복수의 정보 중에서 사용자 명령에 대응되는 정보를 응답 정보로 제공할 수 있다.To this end, the electronic device (100) can first classify the category of the user command. Specifically, when a user command is received, the electronic device (100) can identify a text corresponding to the user command from among a plurality of pre-stored texts, and classify the category of the user command based on the category information matched to each text. In addition, the electronic device (100) can provide information corresponding to the user command from among a plurality of pieces of information included in the corresponding category as response information.

예를 들어, 전자 장치(100)에 '택시 검색'과 같은 텍스트가 기저장되어 있는 상태에서, 도 1의 (b)에 도시된 바와 같이 “택시 찾아줘”가 입력된 경우, 전자 장치(100)는 기저장된 복수의 텍스트 중에서 “택시 찾아줘”에 대응되는 텍스트로 '택시 검색'을 식별할 수 있다. 그리고, 전자 장치(100)는 '택시 검색'에 매칭된 '교통' 카테고리를 사용자 명령의 카테고리로 분류하고, '교통' 카테고리에 포함된 복수의 정보 중에서 '택시 검색'과 관련된 정보를 응답 정보로 제공할 수 있다. 즉, 도 1의 (b)에 도시된 바와 같이, 전자 장치(100)는 사용자 주변의 예약 가능한 택시와 관련된 정보를 응답 정보로 제공할 수 있다.For example, when a text such as 'taxi search' is pre-stored in the electronic device (100), and "find a taxi" is input as illustrated in (b) of FIG. 1, the electronic device (100) can identify 'taxi search' as the text corresponding to "find a taxi" among the plurality of pre-stored texts. In addition, the electronic device (100) can classify the 'transportation' category matching 'taxi search' as a category of the user command, and provide information related to 'taxi search' among the plurality of pieces of information included in the 'transportation' category as response information. That is, as illustrated in (b) of FIG. 1, the electronic device (100) can provide information related to taxis available for reservation around the user as response information.

한편, 본 개시의 일 실시 예에 따른 전자 장치(100)는 수신된 사용자 명령에 대응되는 텍스트가 기저장된 복수의 텍스트와 형태적으로는 유사하지만, 대상(entity) 및 의도(intent) 중 하나가 다른 경우, 해당 사용자 명령의 카테고리를 에러로 분류할 수 있다. Meanwhile, an electronic device (100) according to an embodiment of the present disclosure may classify the category of the user command as an error if the text corresponding to the received user command is similar in form to a plurality of pre-stored texts, but one of the entity and intent is different.

예를 들어, 전술한 실시 예와 같이 전자 장치(100)에 '택시 검색'과 같은 텍스트가 기저장되어 있는 상태에서, 도 1의 (c)에 도시된 바와 같이 “택시 보고 싶어”가 입력된 경우, '택시 검색' 및 “택시 보고 싶어”는 '택시'를 공통적으로 포함하고 있다는 점에서 형태적으로는 유사하지만, 전자는 '교통' 택시와 관련된 정보를 써치하기 위한 의도이고, 후자는 '영화' 택시와 관련된 정보를 써치하기 위한 의도로써, 양 의도가 다른 경우이다. 이 경우, 전자 장치(100)는 해당 사용자 명령의 카테고리를 에러로 분류할 수 있다. 이와 관련된 상세한 설명은 후술하도록 한다.For example, in a case where a text such as 'taxi search' is pre-stored in the electronic device (100) as in the above-described embodiment, when "I want to see a taxi" is input as shown in (c) of FIG. 1, 'taxi search' and "I want to see a taxi" are similar in form in that they both contain 'taxi', but the former is intended to search for information related to 'transportation' taxis, and the latter is intended to search for information related to 'movie' taxis, and thus the two intentions are different. In this case, the electronic device (100) may classify the category of the corresponding user command as an error. A detailed description thereof will be provided later.

그리고, 전자 장치(100)는 사용자 명령의 카테고리가 에러로 분류되면, 에러 정보를 제공할 수 있다. 여기에서, 에러 정보는 사용자 명령에 의해 요청된 정보를 찾을 수 없다는 정보가 될 수 있다.In addition, the electronic device (100) can provide error information when the category of the user command is classified as an error. Here, the error information can be information indicating that the information requested by the user command cannot be found.

다시 도 1의 (c)를 참조하면, 전자 장치(100)에 '택시 검색'과 같은 텍스트가 기저장되어 있는 상태에서, “택시 보고 싶어”가 입력된 경우, 전자 장치(100)는 “택시 보고 싶어”의 카테고리를 에러로 분류하고, 요청된 정보를 찾을 수 없다는 정보를 에러 정보로 제공할 수 있다. Referring again to (c) of FIG. 1, when text such as ‘taxi search’ is pre-stored in the electronic device (100), and “I want to see a taxi” is entered, the electronic device (100) can classify the category of “I want to see a taxi” as an error and provide information that the requested information cannot be found as error information.

이에 따라, 종래의 전자 장치와 달리, 본 개시의 일 실시 예에 따른 전자 장치(100)는 사용자 의도와 전혀 관계 없는 응답 정보를 제공하는 경우를 방지할 수 있다. Accordingly, unlike conventional electronic devices, the electronic device (100) according to one embodiment of the present disclosure can prevent cases where response information that is completely unrelated to the user's intention is provided.

도 2는 본 개시의 일 실시 예에 따른 전자 장치를 설명하기 위한 블록도이다. 도 2에 도시된 바와 같이, 전자 장치(100)는 메모리(110) 및 프로세서(120)를 포함한다. FIG. 2 is a block diagram illustrating an electronic device according to an embodiment of the present disclosure. As illustrated in FIG. 2, the electronic device (100) includes a memory (110) and a processor (120).

메모리(110)는 예를 들면, 내장 메모리 또는 외장 메모리를 포함할 수 있다. 내장 메모리는, 예를 들면, 휘발성 메모리(예: DRAM(dynamic RAM), SRAM(static RAM), 또는 SDRAM(synchronous dynamic RAM) 등), 비휘발성 메모리(non-volatile Memory)(예: OTPROM(one time programmable ROM), PROM(programmable ROM), EPROM(erasable and programmable ROM), EEPROM(electrically erasable and programmable ROM), mask ROM, flash ROM, 플래시 메모리(예: NAND flash 또는 NOR flash 등), 하드 드라이브, 또는 솔리드 스테이트 드라이브(solid state drive(SSD)) 중 적어도 하나를 포함할 수 있다.The memory (110) may include, for example, built-in memory or external memory. The built-in memory may include, for example, at least one of volatile memory (e.g., dynamic RAM (DRAM), static RAM (SRAM), or synchronous dynamic RAM (SDRAM)), non-volatile memory (e.g., one time programmable ROM (OTPROM), programmable ROM (PROM), erasable and programmable ROM (EPROM), electrically erasable and programmable ROM (EEPROM), mask ROM, flash ROM, flash memory (e.g., NAND flash or NOR flash), a hard drive, or a solid state drive (SSD).

외장 메모리는 플래시 드라이브(flash drive), 예를 들면, CF(compact flash), SD(secure digital), Micro-SD(micro secure digital), Mini-SD(mini secure digital), xD(extreme digital), MMC(multi-media card) 또는 메모리 스틱(memory stick) 등을 포함할 수 있다. External memory may include a flash drive, such as a compact flash (CF), secure digital (SD), micro secure digital (Micro-SD), mini secure digital (Mini-SD), extreme digital (xD), multi-media card (MMC), or memory stick.

메모리(110)는 프로세서(120)에 의해 액세스되며, 프로세서(120)에 의한 데이터의 독취/기록/수정/삭제/갱신 등이 수행될 수 있다.The memory (110) is accessed by the processor (120), and data can be read/written/modified/deleted/updated by the processor (120).

본 개시에서 메모리라는 용어는 프로세서(120)와 별도로 마련된 메모리, 프로세서(120) 내 롬(미도시) 및 램(미도시) 중 적어도 하나를 포함할 수 있다.In the present disclosure, the term memory may include at least one of a memory provided separately from the processor (120), a ROM (not shown) and a RAM (not shown) within the processor (120).

프로세서(120)는 전자 장치(100)의 전반적인 동작을 제어하기 위한 구성이다. 예를 들면, 프로세서(120)는 운영 체제 또는 응용 프로그램을 구동하여 프로세서(120)에 연결된 다수의 하드웨어 또는 소프트웨어 구성요소들을 제어할 수 있고, 각종 데이터 처리 및 연산을 수행할 수 있다. 프로세서(120)는 CPU(central processing unit) 또는 GPU(graphics-processing unit)이거나 둘 다일 수 있다. 프로세서(120)는 적어도 하나의 범용 프로세서(general processor), 디지털 신호 프로세서(digital signal processor), ASIC(Application specific integrated circuit), SoC(system on chip), MICOM(Microcomputer) 등으로 구현될 수 있다. The processor (120) is a component for controlling the overall operation of the electronic device (100). For example, the processor (120) may control a plurality of hardware or software components connected to the processor (120) by running an operating system or an application program, and may perform various data processing and calculations. The processor (120) may be a central processing unit (CPU), a graphics-processing unit (GPU), or both. The processor (120) may be implemented as at least one general processor, a digital signal processor, an application specific integrated circuit (ASIC), a system on chip (SoC), a microcomputer (MICOM), etc.

프로세서(120)는 메모리(110)에 저장된 컴퓨터 실행가능 명령어(computer executable instructions)를 실행함으로써 본 개시의 다양한 실시 예에 따른 전자 장치(100)의 동작을 수행할 수 있다.The processor (120) can perform operations of the electronic device (100) according to various embodiments of the present disclosure by executing computer executable instructions stored in the memory (110).

예컨대, 프로세서(120)는 메모리(110)에 저장된 컴퓨터 실행가능 명령어(computer executable instructions)를 실행함으로써 사용자 명령에 대한 응답 정보를 제공할 수 있다. 이하, 도 3 내지 도 5를 참조하여 이에 대해 구체적으로 설명한다.For example, the processor (120) can provide response information to a user command by executing computer executable instructions stored in the memory (110). This will be described in detail below with reference to FIGS. 3 to 5.

도 3은 본 개시의 일 실시 예에 따른 메모리에 기저장된 복수의 텍스트를 설명하기 위한 도면이다.FIG. 3 is a diagram illustrating a plurality of texts stored in a memory according to an embodiment of the present disclosure.

도 3을 참조하면, 메모리(110)는 복수의 텍스트를 저장할 수 있다. 여기에서, 복수의 텍스트 각각에는 카테고리에 관한 정보가 매칭되어 있을 수 있다. 예를 들어, 텍스트 1에는 Label 1 이 매칭될 수 있고, 텍스트 2에는 Label 2가 매칭될 수 있다. 더 구체적인 실시 예로, '택시 검색'에는 '교통' 카테고리가 매칭될 수 있고, '요리 방송'에는 '방송' 카테고리가 매칭될 수 있다. Referring to FIG. 3, the memory (110) can store multiple texts. Here, each of the multiple texts may be associated with information regarding a category. For example, Text 1 may be associated with Label 1, and Text 2 may be associated with Label 2. As a more specific example, the "Transportation" category may be associated with "Taxi Search," and the "Broadcast" category may be associated with "Cooking Broadcast."

프로세서(120)는 사용자 명령을 수신할 수 있다. 여기에서, 사용자 명령은 외부 장치(미도시)의 키보드 또는 온 스크린 키보드 등을 통해 입력된 텍스트가 될 수 있다. 또한, 사용자 명령은, 외부 장치(미도시)의 마이크를 통해 입력된 사용자 음성이 될 수 있다. 이 경우, 프로세서(120)는 STT(Speech to Text) 알고리즘을 통해 수신된 사용자 음성을 텍스트로 변환될 수 있다. 이하, 설명의 편의를 위해 사용자 명령은 외부 장치(미도시)의 온 스크린 키보드 등을 통해 입력된 텍스트인 것으로 상정하여 설명한다.The processor (120) can receive a user command. Here, the user command can be text inputted through a keyboard or an on-screen keyboard of an external device (not shown). Additionally, the user command can be a user voice inputted through a microphone of the external device (not shown). In this case, the processor (120) can convert the received user voice into text through an STT (Speech to Text) algorithm. For convenience of explanation, the following description assumes that the user command is text inputted through an on-screen keyboard of an external device (not shown).

프로세서(120)는 기저장된 복수의 텍스트 중에서 사용자 명령에 대응되는 텍스트를 식별할 수 있다The processor (120) can identify a text corresponding to a user command among a plurality of pre-stored texts.

구체적으로, 프로세서(120)는 사용자 명령이 수신되면, 자연어 처리(natural language processing) 기술을 통해, 사용자 명령에 대응되는 텍스트를 식별할 수 있다. 여기에서, 자연어 처리는 제1 인공 지능 모델을 이용하여 수행될 수 있다. 구체적으로, 프로세서(120)는 제1 인공 지능 모델을 이용하여 사용자 명령의 형태소, 구문, 구조 등을 분석하고, 기저장된 복수의 텍스트 중에서 수신된 사용자 명령과 기설정된 임계 값 이상 일치하는 텍스트를, 사용자 명령에 대응되는 텍스트를 식별할 수 있다.Specifically, when a user command is received, the processor (120) can identify a text corresponding to the user command through natural language processing technology. Here, the natural language processing can be performed using a first artificial intelligence model. Specifically, the processor (120) can analyze the morphology, syntax, structure, etc. of the user command using the first artificial intelligence model, and identify a text corresponding to the user command among a plurality of pre-stored texts that matches the received user command by a preset threshold value or more.

일 예로, 사용자 명령이 “택시 찾아줘”인 경우, 프로세서(120)는 제1 인공 지능 모델을 이용하여, “택시 찾아줘”의 형태소, 구문, 구조 등을 분석하고, 기저장된 복수의 텍스트 중에서 “택시 찾아줘”와 기설정된 임계 값 이상 일치하는 텍스트를 사용자 명령에 대응되는 텍스트를 식별할 수 있다. 상술한 실시 예에서, “택시 찾아줘”에 대응되는 텍스트는 '택시 검색'이 될 수 있다.For example, if the user command is “Find me a taxi,” the processor (120) may use the first artificial intelligence model to analyze the morphology, syntax, structure, etc. of “Find me a taxi,” and identify a text corresponding to the user command among a plurality of pre-stored texts that matches “Find me a taxi” by a preset threshold value or more. In the above-described embodiment, the text corresponding to “Find me a taxi” may be “Search for a taxi.”

이후, 프로세서(120)는 사용자 명령의 카테고리를 분류할 수 있다. 구체적으로, 프로세서(120)는 텍스트 별로 매칭되어 있는 카테고리 정보를 이용하여 사용자 명령의 카테고리를 분류할 수 있다.Thereafter, the processor (120) can classify the categories of the user commands. Specifically, the processor (120) can classify the categories of the user commands using category information matched to each text.

예를 들어, 도 3에서 텍스트 1이 '택시 검색'이고, Label 1 '교통' 카테고리인 경우, 프로세서(120)는 사용자 명령으로 “택시 찾아줘”가 수신되면, 사용자 명령의 카테고리를 '교통'으로 분류할 수 있다.For example, if text 1 in FIG. 3 is 'taxi search' and Label 1 is 'transportation' category, when the processor (120) receives a user command of "find a taxi", it can classify the category of the user command as 'transportation'.

그리고, 프로세서(120)는 사용자 명령의 카테고리에 포함된 복수의 정보 중에서, 사용자 명령에 대응되는 정보를 응답 정보로 제공할 수 있다. In addition, the processor (120) can provide information corresponding to the user command as response information among a plurality of pieces of information included in the category of the user command.

상술한 실시 예에서, 프로세서(120)는 '교통' 카테고리에 포함된 복수의 정보 중에서 '택시 검색'과 관련된 정보를 응답 정보로 제공할 수 있다. 이 경우, 응답 정보는 사용자 주변의 예약 가능한 택시와 관련된 정보가 될 수 있다. 이를 위해, 프로세서(120)는 사용자 명령이 입력된 외부 장치(예를 들어, 스마트 폰 등)로부터 위치 정보를 수신하거나, 교통 상황에 관한 정보를 제공하는 외부 서버로부터 택시와 관련된 정보를 수신할 수 있다.In the above-described embodiment, the processor (120) may provide information related to "taxi search" from among the plurality of pieces of information included in the "transportation" category as response information. In this case, the response information may be information related to available taxis around the user. To this end, the processor (120) may receive location information from an external device (e.g., a smartphone) into which a user command has been input, or receive taxi-related information from an external server that provides information on traffic conditions.

한편, 메모리에 기저장된 텍스트만으로 응답 정보를 제공할 경우, 사용자 의도와 관계 없는 정보를 응답 정보로 제공하는 경우가 생길 수 있다. 예를 들어, 메모리에 영화 택시와 관련된 텍스트가 기저장되어 있지 않은 상태에서, 사용자가 영화 택시를 감상할 의도로 “택시 보고 싶어”를 입력한 경우가 그러하다. On the other hand, if response information is provided solely based on text already stored in memory, information unrelated to the user's intent may be provided as response information. For example, if a user enters "I want to see Taxi" with the intention of watching the movie Taxi, but no text related to the movie is stored in memory, this could occur.

이 경우, 종래의 전자 장치는, 기저장된 텍스트 중에서 '택시 보고 싶어'와 가장 유사한 텍스트인 '택시 찾아줘'를 찾고, 그에 대한 응답 정보로 사용자 주변의 이용 가능한 택시와 관련된 정보 등을 제공하였다. 이는, 영화 택시를 감상하고자 하는 사용자 의도와 전혀 관계 없는 정보로써, 사용자에게 불편을 초래할 수 있다.In this case, the conventional electronic device retrieved the text "Find a taxi" from the pre-stored texts, which most closely resembled "I want to see a taxi." In response, it provided information about available taxis in the user's vicinity. This information is completely unrelated to the user's intention to watch the movie "Taxi," and can be inconvenient.

도 4는 본 개시의 일 실시 예에 따른 추가적으로 저장되는 텍스트를 설명하기 위한 도면이다.FIG. 4 is a drawing for explaining additionally stored text according to one embodiment of the present disclosure.

도 4를 참조하면, 메모리(110)는 기저장된 복수의 텍스트(텍스트 1 내지 텍스트 N) 외 새로운 텍스트(텍스트 N+1)를 저장할 수 있다. 여기에서, 새로운 텍스트는 기저장된 복수의 텍스트와 형태적으로는 유사하나, 대상(entity) 및 의도(intent) 중 하나가 다른 텍스트가 될 수 있다. Referring to FIG. 4, the memory (110) can store a new text (text N+1) in addition to a plurality of pre-stored texts (text 1 to text N). Here, the new text may be a text that is morphologically similar to the plurality of pre-stored texts, but has a different entity or intent.

구체적으로, 새로운 텍스트는 기저장된 복수의 텍스트 중 적어도 하나와 대상 및 의도 중 하나는 일치하나 나머지 하나는 일치하지 않는 텍스트가 될 수 있다. Specifically, the new text may be a text that matches at least one of the multiple pre-stored texts with respect to one of the target and intent, but does not match the other.

예를 들어, 기저장된 텍스트가 '교통' 카테고리에 매칭된 '택시 검색'인 경우, 대상은 '택시'로 일치하나, 의도가 다른 '택시 감상' 등이 새로운 텍스트가 될 수 있다. 또한, 기저장된 텍스트가 '볼륨' 카테고리에 매칭된 '볼륨 올려'인 경우, 의도는 특정 값을 올리기 위한 목적으로 동일하나, 대상이 다른 '채널 올려' 등이 새로운 텍스트가 될 수 있다.For example, if the pre-saved text is "Search for a Taxi" and matches the "Transportation" category, a new text, such as "Appreciate a Taxi," could match the target as "taxi" but have a different intent. Furthermore, if the pre-saved text is "Turn up the volume" and matches the "Volume" category, a new text, such as "Turn up the channel," could match the target, but have the same intent of increasing a specific value.

한편, 새로운 텍스트(N+1)에는 에러 카테고리가 매칭되어 있을 수 있다. 여기에서, 에러 카테고리는, Rejection 카테고리 등 다양한 이름으로 표현될 수 있다.Meanwhile, the new text (N+1) may be associated with an error category. Here, the error category can be expressed by various names, such as the Rejection category.

프로세서(120)는 기저장된 복수의 텍스트 중에서 사용자 명령에 대응되는 텍스트를 식별할 수 있다The processor (120) can identify a text corresponding to a user command among a plurality of pre-stored texts.

전술한 바와 같이, 프로세서(120)는 사용자 명령이 수신되면, 자연어 처리(natural language processing) 기술을 통해, 사용자 명령에 대응되는 텍스트를 식별할 수 있다. As described above, when a user command is received, the processor (120) can identify text corresponding to the user command through natural language processing technology.

그리고, 사용자 명령에 대응되는 텍스트가 기저장된 복수의 텍스트(텍스트 1 내지 텍스트 N) 중 하나로 식별되면, 프로세서(120)는 사용자 명령의 카테고리에 포함된 복수의 정보 중에서, 사용자 명령에 대응되는 정보를 응답 정보로 제공할 수 있다. And, if the text corresponding to the user command is identified as one of the plurality of pre-stored texts (text 1 to text N), the processor (120) can provide information corresponding to the user command as response information among the plurality of pieces of information included in the category of the user command.

만약, 사용자 명령에 대응되는 텍스트가 생성된 텍스트 중 하나로 식별되면, 프로세서(120)는 사용자 명령에 의해 요청된 정보를 찾을 수 없다는 에러 정보를 제공할 수 있다. 즉, 프로세서(120)는 사용자 명령에 대해 Rejection 할 수 있다. If the text corresponding to the user command is identified as one of the generated texts, the processor (120) may provide error information indicating that the information requested by the user command cannot be found. In other words, the processor (120) may reject the user command.

구체적으로, 프로세서(120)는 사용자 명령에 대응되는 텍스트가 새로운 텍스트 중 하나로 식별되면, 새로운 텍스트에 매칭된 카테고리 정보에 기초하여, 사용자 명령의 카테고리를 에러로 분류하고, 사용자 명령에 대해 Rejection 할 수 있다. Specifically, if the text corresponding to the user command is identified as one of the new texts, the processor (120) can classify the category of the user command as an error and reject the user command based on the category information matched to the new text.

한편, 이와 같은 새로운 텍스트는 제2 인공 지능 모델에 의해 생성되고, 제1 인공 지능 모델에 의해 에러로 분류될 수 있다. Meanwhile, new texts like this can be generated by the second artificial intelligence model and classified as errors by the first artificial intelligence model.

도 5는 본 개시의 일 실시 예에 따른 인공 지능 모델이 수행하는 학습을 설명하기 위한 도면이다.FIG. 5 is a diagram illustrating learning performed by an artificial intelligence model according to an embodiment of the present disclosure.

제2 인공 지능 모델(520)은 기저장된 복수의 텍스트와는 상이한 새로운 텍스트를 생성할 수 있다. 이하, 설명의 편의를 위해 제2 인공 지능 모델(520)에 의해 생성된 새로운 텍스트를 유사 텍스트로 지칭하여 설명한다.The second artificial intelligence model (520) can generate new texts that are different from the previously stored multiple texts. For convenience of explanation, the new texts generated by the second artificial intelligence model (520) will be referred to as "similar texts" below.

구체적으로, 제2 인공 지능 모델(520)은 기저장된 복수의 텍스트를 입력으로 하여, 기저장된 복수의 텍스트와 형태적으로는 유사하나, 대상(entity) 및 의도(intent) 중 하나가 다른 텍스트를 생성할 수 있다.Specifically, the second artificial intelligence model (520) can take a plurality of pre-stored texts as input and generate a text that is morphologically similar to the plurality of pre-stored texts, but has a different entity or intent.

예를 들어, 기저장된 텍스트가 '교통' 카테고리에 매칭된 '택시 검색'인 경우, 제2 인공 지능 모델(520)은 '택시 검색'과 형태적으로는 유사하나 의도가 다른 '택시 보고 싶어', '택시 감상' 등을 유사 텍스트로 생성할 수 있다. 또한, 기저장된 텍스트가 '볼륨' 카테고리에 매칭된 '볼륨 올려'인 경우, 제2 인공 지능 모델(520)은 '볼륨 올려'와 형태적으로는 유사하나 대상 및 의도가 다른 '볼륨 내려' 등을 유사 텍스트로 생성할 수 있다.For example, if the pre-stored text is 'taxi search' that matches the 'transportation' category, the second artificial intelligence model (520) can generate similar texts such as 'I want to see a taxi' and 'appreciate a taxi' that are similar in form to 'taxi search' but have different intentions. In addition, if the pre-stored text is 'turn up the volume' that matches the 'volume' category, the second artificial intelligence model (520) can generate similar texts such as 'turn down the volume' that are similar in form to 'turn up the volume' but have different targets and intentions.

제1 인공 지능 모델(510)은 제2 인공 지능 모델(520)에 의해 생성된 유사 텍스트를 입력으로 하여, 유사 텍스트가 기저장된 복수의 텍스트 중 하나인지 아닌지를 판단할 수 있다. 그리고, 제1 인공 지능 모델(510)은 유사 텍스트가 기저장된 복수의 텍스트 중 하나인 것으로 판단되면, 유사 텍스트를 에러로 분류하도록 학습할 수 있다.The first artificial intelligence model (510) can input a similar text generated by the second artificial intelligence model (520) and determine whether the similar text is one of multiple pre-stored texts. Furthermore, if the first artificial intelligence model (510) determines that the similar text is one of multiple pre-stored texts, it can learn to classify the similar text as an error.

구체적으로, 제1 인공 지능 모델(510)은 기저장된 복수의 텍스트와 제2 인공 지능 모델(520)에 의해 생성된 유사 텍스트를 입력으로 하여, 유사 텍스트가 기저장된 복수의 텍스트 중 하나로 판단되면, 유사 텍스트를 에러로 분류하도록 학습할 수 있다.Specifically, the first artificial intelligence model (510) can be trained to classify a similar text as an error if it is determined to be one of the plurality of pre-stored texts by taking as input a plurality of pre-stored texts and a similar text generated by the second artificial intelligence model (520).

예를 들어, '교통' 카테고리에 '택시 검색'이라는 텍스트는 기저장되어 있으나, '택시 감상'과 같은 텍스트는 기저장되어 있지 않은 상태에서, 제2 인공 지능 모델에 의해 “택시 찾아줘”가 유사 텍스트로 생성된 경우, 제1 인공 지능 모델(510)은 “택시 찾아줘”에 대응되는 텍스트가 기저장된 복수의 텍스트 중 하나인지를 판단할 수 있다. 그리고, 제1 인공 지능 모델(510)이 기저장된 '택시 검색'을 유사 텍스트인 “택시 찾아줘”에 대응되는 컨텐츠로 판단할 경우, 제1 인공 지능 모델(510)은 유사 텍스트를 에러로 분류하도록 학습할 수 있다. For example, if the text "taxi search" is pre-stored in the "transportation" category, but a text such as "taxi appreciation" is not pre-stored, and "find a taxi" is generated as a similar text by the second artificial intelligence model, the first artificial intelligence model (510) can determine whether the text corresponding to "find a taxi" is one of the multiple pre-stored texts. In addition, if the first artificial intelligence model (510) determines that the pre-stored "taxi search" is content corresponding to the similar text "find a taxi," the first artificial intelligence model (510) can learn to classify the similar text as an error.

여기에서, 학습은 제1 인공 지능 모델(501)의 서로 다른 레이어에 포함된 뉴런들 사이의 웨이트(weight) 조절이 될 수 있다. 구체적으로, 제1 인공 지능 모델은 제2 인공 지능 모델(520)에 의해 생성된 유사 텍스트에 대해서는 균등한 출력 벡터 값(uniform distribution)을 출력하도록 서로 다른 레이어에 포함된 뉴런들 사이의 웨이트(weight)를 조절할 수 있다. 가령 N개의 텍스트가 기저장되어 있는 경우, 제2 인공 지능 모델(520)에 의해 생성된 유사 텍스트에 대해서는 1/N 을 출력하도록 제1 인공 지능 모델(510)은 뉴런들 사이의 웨이트(weight)를 조절할 수 있다.Here, learning can be weight adjustment between neurons included in different layers of the first artificial intelligence model (501). Specifically, the first artificial intelligence model can adjust the weight between neurons included in different layers so as to output a uniform output vector value (uniform distribution) for similar texts generated by the second artificial intelligence model (520). For example, if N texts are pre-stored, the first artificial intelligence model (510) can adjust the weight between neurons so as to output 1/N for similar texts generated by the second artificial intelligence model (520).

즉, 제1 인공 지능 모델(501)은 제2 인공 지능 모델(520)에 의해 생성된 유사 텍스트에 대해서는 1/N 을 출력하도록 학습할 수 있다. 이에 따라, 제1 인공 지능 모델(501)은 이후 수신된 사용자 명령에 대한 출력 벡터 값이 1/N로 출력되면, 사용자 명령을 에러로 분류할 수 있다.That is, the first artificial intelligence model (501) can be trained to output 1/N for similar texts generated by the second artificial intelligence model (520). Accordingly, the first artificial intelligence model (501) can classify a user command as an error if the output vector value for a subsequently received user command is output as 1/N.

한편, 제1 인공 지능 모델(510)이 제2 인공 지능 모델(520)에 의해 생성된 유사 텍스트를 에러로 분류하면, 제1 인공 지능 모델(510)은 상술한 학습을 수행하지 않을 수 있다. 즉, 유사 텍스트가 기저장된 복수의 텍스트 중 하나에 대응되지 않는 것으로 판단하면, 제1 인공 지능 모델(510)은 상술한 학습을 수행하지 않을 수 있다.Meanwhile, if the first artificial intelligence model (510) classifies the similar text generated by the second artificial intelligence model (520) as an error, the first artificial intelligence model (510) may not perform the learning described above. That is, if the first artificial intelligence model (510) determines that the similar text does not correspond to one of the plurality of pre-stored texts, the first artificial intelligence model (510) may not perform the learning described above.

이 경우, 제2 인공 지능 모델(520)이 학습될 수 있다. 구체적으로, 제1 인공 지능 모델(510)이 유사 텍스트를 에러로 분류하면, 제2 인공 지능 모델(520)은 상술한 유사 텍스트보다, 기저장된 텍스트 중 적어도 하나와 더 유사한 텍스트를 생성하도록 학습할 수 있다.In this case, a second artificial intelligence model (520) may be trained. Specifically, if the first artificial intelligence model (510) classifies a similar text as an error, the second artificial intelligence model (520) may be trained to generate a text that is more similar to at least one of the pre-stored texts than the similar text described above.

여기에서, 학습은 제2 인공 지능 모델(502)의 서로 다른 레이어에 포함된 뉴런들 사이의 웨이트(weight) 조절이 될 수 있다. 구체적으로, 제2 인공 지능 모델은 상술한 유사 텍스트보다, 기저장된 텍스트 중 적어도 하나와 더 유사한 텍스트를 생성하도록 서로 다른 레이어에 포함된 뉴런들 사이의 웨이트(weight)를 조절할 수 있다.Here, learning may be weight adjustment between neurons included in different layers of the second artificial intelligence model (502). Specifically, the second artificial intelligence model may adjust the weights between neurons included in different layers to generate text that is more similar to at least one of the pre-stored texts than the aforementioned similar text.

예를 들어, 기저장된 텍스트가 '볼륨' 카테고리에 매칭된 '볼륨 올려'인 경우, 제2 인공 지능 모델(520)은 '볼륨 올려'와 형태적으로는 유사하나 대상 및 의도가 다른 '볼륨 내려' 등을 유사 텍스트로 생성할 수 있다.For example, if the pre-stored text is 'volume up' that matches the 'volume' category, the second artificial intelligence model (520) can generate similar texts such as 'volume down' that are similar in form to 'volume up' but have different targets and intentions.

그리고, 제1 인공 지능 모델(510)이 유사 텍스트인 '볼륨 내려' 를 에러로 분류하면, 제2 인공 지능 모델(520)은 학습을 통해 '볼륨 내려' 보다 '볼륨 올려'와 더 유사한 텍스트를 생성할 수 있다. 가령, 새로이 생성된 유사 텍스트는 '볼륨 올리지 마' 등이 될 수 있다.In addition, if the first artificial intelligence model (510) classifies the similar text 'volume down' as an error, the second artificial intelligence model (520) can generate a text more similar to 'volume up' than 'volume down' through learning. For example, the newly generated similar text could be 'don't turn up the volume'.

이후, 제1 인공 지능 모델(510)은 제2 인공 지능 모델(502)에 의해 생성된, 유사 텍스트보다 유사도가 더 높은 새로운 유사 텍스트를 입력으로 하여, 새로운 유사 텍스트가 기저장된 복수의 텍스트 중 하나인지 아닌지를 판단할 수 있다.Thereafter, the first artificial intelligence model (510) can input a new similar text having a higher similarity than the similar text generated by the second artificial intelligence model (502), and determine whether the new similar text is one of the plurality of previously stored texts.

그리고, 제1 인공 지능 모델(501)이 새로운 유사 텍스트를 기저장된 복수의 텍스트 중 하나로 판단하는 경우, 제1 인공 지능 모델(501)은 상술한 학습을 재차 수행할 수 있다. 마찬가지로, 제2 인공 지능 모델(502)은 제1 인공 지능 모델(501)이 새로운 유사 텍스트를 에러로 분류하는 경우, 상술한 학습을 재차 수행할 수 있다.In addition, if the first artificial intelligence model (501) determines that the new similar text is one of the multiple pre-stored texts, the first artificial intelligence model (501) can perform the above-described learning again. Similarly, if the first artificial intelligence model (501) classifies the new similar text as an error, the second artificial intelligence model (502) can perform the above-described learning again.

이와 같은 반복적인 학습을 통해서, 제1 인공 지능 모델(501)은 제2 인공 지능 모델(501)에 의해 생성된 유사 텍스트를 에러로 분류할 수 있다.Through this kind of repetitive learning, the first artificial intelligence model (501) can classify similar texts generated by the second artificial intelligence model (501) as errors.

한편, 상술한 본 개시의 인공 지능 모델은 GAN(Generative Adversarial Network) 모델이 될 수 있다. Meanwhile, the artificial intelligence model of the present disclosure described above may be a Generative Adversarial Network (GAN) model.

GAN은 두 신경망 모델의 경쟁을 통해, 진짜 같은 가짜를 생성하는 모델로써, 제2 인공 지능 모델(502)은 GAN의 Generator 모델이 될 수 있다. 구체적으로, 제2 인공 지능 모델(502)은 기저장된 복수의 텍스트를 입력으로, 기저장된 복수의 텍스트와 형태적으로는 유사하지만 대상 및 의도 중 적어도 하나는 텍스트를 생성할 수 있다. 즉, 제2 인공 지능 모델(502)은 기저장된 복수의 리스트와 유사한 텍스트를 생성하는 것이 목적이다.A GAN is a model that generates fakes that look real through competition between two neural network models. The second artificial intelligence model (502) can be a generator model of the GAN. Specifically, the second artificial intelligence model (502) can take multiple pre-stored texts as input and generate texts that are morphologically similar to the multiple pre-stored texts, but have at least one target and/or intent. In other words, the purpose of the second artificial intelligence model (502) is to generate texts similar to multiple pre-stored lists.

제1 인공 지능 모델(501)은 GAN의 Discriminator 모델이 될 수 있다. 구체적으로, 제1 인공 지능 모델(501)은 제2 인공 지능 모델(502)에 의해 생성된 텍스트가 기저장된 복수의 텍스트 중 하나인지, 아닌지를 판단할 수 있다. The first artificial intelligence model (501) can be a discriminator model of a GAN. Specifically, the first artificial intelligence model (501) can determine whether the text generated by the second artificial intelligence model (502) is one of multiple pre-stored texts or not.

그리고, 제1 인공 지능 모델(501)은 제2 인공 지능 모델(502)에 의해 생성된 텍스트 중에서, 기저장된 복수의 텍스트 중 하나라고 판단한 텍스트를 입력으로 하여 학습을 수행하고, 학습을 통해 제2 인공 지능 모델(502)에 의해 생성된 텍스트를 에러로 분류할 수 있다.And, the first artificial intelligence model (501) performs learning by inputting a text that is judged to be one of a plurality of pre-stored texts among the texts generated by the second artificial intelligence model (502), and can classify the text generated by the second artificial intelligence model (502) as an error through learning.

또한, 제2 인공 지능 모델(502)은, 생성한 유사 텍스트 중에서 제1 인공 지능 모델(501)이 기저장된 복수의 텍스트 중 하나가 아니라고 판단한 텍스트를 입력으로 하여 학습을 수행하고, 학습을 통해 이전에 생성한 유사 텍스트보다 기저장된 복수의 텍스트와의 유사도가 더 높은 텍스트를 생성할 수 있다.In addition, the second artificial intelligence model (502) performs learning by inputting text that the first artificial intelligence model (501) determines is not one of the plurality of pre-stored texts among the generated similar texts, and through learning, can generate text that has a higher similarity with the plurality of pre-stored texts than the previously generated similar texts.

이와 같은 학습의 반복을 통해서, 제2 인공 지능 모델(502)은 기저장된 복수의 텍스트와 유사도가 높은 텍스트를 생성하고, 제1 인공 지능 모델(501)은 기저장된 복수의 텍스트와 유사도가 높은 텍스트를 에러로 분류할 수 있게 된다.Through repetition of such learning, the second artificial intelligence model (502) can generate texts having a high similarity to multiple pre-stored texts, and the first artificial intelligence model (501) can classify texts having a high similarity to multiple pre-stored texts as errors.

도 6a 내지 도 9b는 본 개시의 일 실시 예에 따른 응답 정보의 다양한 실시 예를 설명하기 위한 도면이다. 이하에서는, '요리' 카테고리에 '요리 방송 찾아줘'가 기저장되어 있고, '교통' 카테고리에 '택시 찾아줘'가 기저장되어 있으며, '요리 재료 찾아줘' 및 '택시 보고 싶어'는 '에러' 카테고리로 분류하도록 제1 인공 지능 모델이 학습된 경우를 상정하여 설명한다.FIGS. 6A to 9B are diagrams illustrating various embodiments of response information according to an embodiment of the present disclosure. In the following description, it is assumed that "Find cooking shows" is pre-stored in the "Cooking" category, "Find taxis" is pre-stored in the "Transportation" category, and the first artificial intelligence model has been trained to classify "Find cooking ingredients" and "I want to see a taxi" into the "Error" category.

도 6a 내지 도 7b는 스마트 TV에 사용자 음성이 입력되는 경우의 실시 예를 설명하기 위한 도면이다. Figures 6a to 7b are drawings for explaining an embodiment in which a user's voice is input to a smart TV.

전자 장치(100)는 외부 장치로부터 사용자 명령을 수신할 수 있다. 예를 들어, 도 6a에 도시된 바와 같이, 사용자가 외부 장치인 스마트 TV에 “요리 방송 찾아줘”를 발화한 경우, 전자 장치(100)는 외부 장치로부터 “요리 방송 찾아줘”에 대응되는 음성 신호를 수신할 수 있다.The electronic device (100) can receive user commands from an external device. For example, as illustrated in FIG. 6A, if a user utters "Find a cooking show" to a smart TV, which is an external device, the electronic device (100) can receive a voice signal corresponding to "Find a cooking show" from the external device.

그리고, 전자 장치(100)는 음성 신호에 STT(Speech to Text) 알고리즘을 적용하여 음성 신호를 텍스트로 변환될 수 있다. In addition, the electronic device (100) can convert the voice signal into text by applying an STT (Speech to Text) algorithm to the voice signal.

그리고, 전자 장치(100)는 기저장된 복수의 텍스트 중에서 사용자 명령에 대응되는 텍스트를 식별할 수 있다. 구체적으로, 전자 장치(100)는 제1 인공 지능 모델을 이용하여 기저장된 복수의 텍스트 중에서 사용자 명령에 대응되는 텍스트를 식별할 수 있다.In addition, the electronic device (100) can identify a text corresponding to a user command from among a plurality of pre-stored texts. Specifically, the electronic device (100) can identify a text corresponding to a user command from among a plurality of pre-stored texts using a first artificial intelligence model.

그리고, 전자 장치(100)는 식별된 텍스트에 매칭된 카테고리 정보에 기초하여 사용자 명령에 대한 응답 정보를 제공할 수 있다.Additionally, the electronic device (100) can provide response information to a user command based on category information matched to the identified text.

예를 들어, 도 6a에 도시된 바와 같이, 사용자 명령이 “요리 방송 찾아줘”인 경우, 전자 장치(100)는 기저장된 복수의 텍스트 중에서 “요리 방송 찾아줘”에 대응되는 텍스트(예를 들어, '요리 방송' 등)을 식별하고, 식별된 텍스트에 매칭된 카테고리 정보(예를 들어, '요리' 등)에 기초하여 사용자 명령에 대한 응답 정보를 제공할 수 있다.For example, as illustrated in FIG. 6A, when the user command is “Find a cooking show,” the electronic device (100) can identify a text (e.g., “cooking show”) corresponding to “Find a cooking show” among a plurality of pre-stored texts, and provide response information for the user command based on category information (e.g., “cooking”) matched to the identified text.

즉, 상술한 실시 예에서, 전자 장치(100)는 도 6b에 도시된 바와 같이, '요리' 카테고리 내의 복수의 정보 중에서 '요리 방송'과 관련된 정보를 응답 정보로 제공할 수 있다. 한편, 응답 정보는 전자 장치(100)에 기저장된 정보 중 하나가 될 수 있음은 물론, 사용자 명령의 키워드에 기초하여 웹 검색 된 정보가 될 수 있다.That is, in the above-described embodiment, the electronic device (100) may provide information related to 'cooking broadcast' among a plurality of pieces of information within the 'cooking' category as response information, as illustrated in FIG. 6b. Meanwhile, the response information may be one of the pieces of information pre-stored in the electronic device (100), or may be information searched on the web based on keywords in a user command.

한편, 도 7a에 도시된 바와 같이, 사용자가 외부 장치인 스마트 TV에 “요리 재료 찾아줘”를 발화한 경우, 전자 장치(100)는 외부 장치로부터 “요리 재료 찾아줘”에 대응되는 음성 신호를 수신할 수 있다.Meanwhile, as illustrated in FIG. 7a, when a user utters “Find cooking ingredients” to an external device, such as a smart TV, the electronic device (100) can receive a voice signal corresponding to “Find cooking ingredients” from the external device.

그리고, 전자 장치(100)는 제1 인공 지능 모델을 이용하여 기저장된 복수의 텍스트 중에서 사용자 명령에 대응되는 텍스트를 식별할 수 있다.And, the electronic device (100) can identify a text corresponding to a user command among a plurality of pre-stored texts using the first artificial intelligence model.

그리고, 전자 장치(100)는 식별된 텍스트에 매칭된 카테고리 정보에 기초하여 사용자 명령에 대해 에러 정보를 제공할 수 있다.Additionally, the electronic device (100) can provide error information for a user command based on category information matched to the identified text.

예를 들어, 도 7a에 도시된 바와 같이, 사용자 명령이 “요리 재료 찾아줘”인 경우, 전자 장치(100)는 기저장된 복수의 텍스트 중에서 “요리 재료 찾아줘”에 대응되는 텍스트(예를 들어, '요리 재료 찾아줘' 등)을 식별하고, 식별된 텍스트에 매칭된 카테고리 정보(예를 들어, '에러' 등)에 기초하여 사용자 명령에 대해 에러 정보를 제공할 수 있다.For example, as illustrated in FIG. 7a, when the user command is “Find cooking ingredients,” the electronic device (100) can identify a text corresponding to “Find cooking ingredients” (e.g., “Find cooking ingredients”) among a plurality of pre-stored texts, and provide error information for the user command based on category information (e.g., “Error”) matched to the identified text.

상술한 실시 예에서, 전자 장치(100)는 사용자 명령을 에러로 분류하고, 도 7b에 도시된 바와 같이, 사용자 명령에 대한 검색 결과를 찾을 수 없다는 메시지를 에러 정보로 제공할 수 있다.In the above-described embodiment, the electronic device (100) may classify the user command as an error and provide a message indicating that a search result for the user command cannot be found as error information, as illustrated in FIG. 7b.

도 8a 내지 도 9b는 사용자 단말 장치에 사용자 명령이 입력되는 경우의 실시 예를 설명하기 위한 도면이다. FIGS. 8A to 9B are drawings for explaining an embodiment in which a user command is input to a user terminal device.

전자 장치(100)는 외부 장치로부터 사용자 명령을 수신할 수 있다. 예를 들어, 도 8a에 도시된 바와 같이, 사용자가 외부 장치인 사용자 단말 장치에 “택시 찾아줘”를 입력한 경우, 전자 장치(100)는 외부 장치로부터 “택시 찾아줘”와 같은 텍스트를 수신할 수 있다. 여기에서, 사용자 단말 장치에서 제공되는 화면을 챗봇 어플리케이션의 실행 화면이 될 수 있다.The electronic device (100) can receive user commands from an external device. For example, as illustrated in FIG. 8A, if a user inputs "Find a taxi" into a user terminal device, which is an external device, the electronic device (100) can receive a text such as "Find a taxi" from the external device. Here, the screen provided by the user terminal device can be the execution screen of the chatbot application.

그리고, 전자 장치(100)는 기저장된 복수의 텍스트 중에서 사용자 명령에 대응되는 텍스트를 식별할 수 있다. 구체적으로, 전자 장치(100)는 제1 인공 지능 모델을 이용하여 기저장된 복수의 텍스트 중에서 사용자 명령에 대응되는 텍스트를 식별할 수 있다.In addition, the electronic device (100) can identify a text corresponding to a user command from among a plurality of pre-stored texts. Specifically, the electronic device (100) can identify a text corresponding to a user command from among a plurality of pre-stored texts using a first artificial intelligence model.

그리고, 전자 장치(100)는 식별된 텍스트에 매칭된 카테고리 정보에 기초하여 사용자 명령에 대한 응답 정보를 제공할 수 있다.Additionally, the electronic device (100) can provide response information to a user command based on category information matched to the identified text.

예를 들어, 도 8a에 도시된 바와 같이, 사용자 명령이 “택시 찾아줘”인 경우, 전자 장치(100)는 기저장된 복수의 텍스트 중에서 “택시 찾아줘”에 대응되는 텍스트(예를 들어, '택시 찾아줘', '택시 검색' 등)을 식별하고, 식별된 텍스트에 매칭된 카테고리 정보(예를 들어, '교통' 등)에 기초하여 사용자 명령에 대한 응답 정보를 제공할 수 있다.For example, as illustrated in FIG. 8A, when the user command is “Find a taxi,” the electronic device (100) can identify a text corresponding to “Find a taxi” (e.g., “Find a taxi,” “Search for a taxi,” etc.) from among a plurality of pre-stored texts, and provide response information for the user command based on category information (e.g., “Transportation,” etc.) matched to the identified text.

상술한 실시 예에서, 전자 장치(100)는 도 8b에 도시된 바와 같이, '교통' 카테고리 내의 복수의 정보 중에서 '예약 가능한 택시'와 관련된 정보를 응답 정보로 제공할 수 있다. 한편, 전자 장치(100)는 사용자 주변의 예약 가능한 택시를 검색하기 위해서, 사용자 단말 장치로부터 GPS 신호를 수신하거나, 교통 상황에 관한 정보를 제공하는 외부 서버와의 통신을 수행할 수 있다.In the above-described embodiment, the electronic device (100) may provide information related to "reservable taxis" among a plurality of pieces of information within the "transportation" category as response information, as illustrated in FIG. 8B . Meanwhile, the electronic device (100) may receive a GPS signal from a user terminal device or communicate with an external server that provides information on traffic conditions to search for reservable taxis around the user.

한편, 도 9a에 도시된 바와 같이, 사용자가 외부 장치인 사용자 단말 장치에 “택시 보고 싶어”를 입력한 경우, 전자 장치(100)는 외부 장치로부터 “택시 보고 싶어”와 같은 텍스트를 수신할 수 있다.Meanwhile, as illustrated in FIG. 9a, when a user inputs “I want to see a taxi” into a user terminal device, which is an external device, the electronic device (100) can receive a text such as “I want to see a taxi” from the external device.

그리고, 전자 장치(100)는 제1 인공 지능 모델을 이용하여 기저장된 복수의 텍스트 중에서 사용자 명령에 대응되는 텍스트를 식별할 수 있다.And, the electronic device (100) can identify a text corresponding to a user command among a plurality of pre-stored texts using the first artificial intelligence model.

그리고, 전자 장치(100)는 식별된 텍스트에 매칭된 카테고리 정보에 기초하여 사용자 명령에 대해 에러 정보를 제공할 수 있다.Additionally, the electronic device (100) can provide error information for a user command based on category information matched to the identified text.

예를 들어, 도 9a에 도시된 바와 같이, 사용자 명령이 “택시 보고 싶어”인 경우, 전자 장치(100)는 기저장된 복수의 텍스트 중에서 “택시 보고 싶어”에 대응되는 텍스트(예를 들어, '택시 보고 싶어' 등)을 식별하고, 식별된 텍스트에 매칭된 카테고리 정보(예를 들어, '에러' 등)에 기초하여 사용자 명령에 대해 에러 정보를 제공할 수 있다.For example, as illustrated in FIG. 9A, when the user command is “I want to see a taxi,” the electronic device (100) can identify a text corresponding to “I want to see a taxi” (e.g., “I want to see a taxi”) from among a plurality of pre-stored texts, and provide error information for the user command based on category information (e.g., “error”) matched to the identified text.

상술한 실시 예에서, 전자 장치(100)는 사용자 명령을 에러로 분류하고, 도 9b에 도시된 바와 같이, 사용자 명령에 대한 검색 결과를 찾을 수 없다는 메시지와 함께 새로운 사용자 명령을 유도하는 메시지를 응답 정보로 제공할 수 있다.In the above-described embodiment, the electronic device (100) may classify the user command as an error and provide a message as response information that induces a new user command along with a message that the search result for the user command cannot be found, as illustrated in FIG. 9b.

도 10은 본 개시의 일 실시 예에 따른 전자 장치가 서버로 구현되는 경우의 상세 블록도이다.FIG. 10 is a detailed block diagram of an electronic device implemented as a server according to an embodiment of the present disclosure.

전자 장치(100)가 서버로 구현되는 경우, 전자 장치(100)는 도 10에 도시된 바와 같이, 메모리(1010), 통신부(1020) 및 프로세서(1030)를 포함할 수 있다. 이하에서는, 상술한 설명과 중복되는 부분은 생략 내지 축약하여 설명한다.When the electronic device (100) is implemented as a server, the electronic device (100) may include a memory (1010), a communication unit (1020), and a processor (1030), as illustrated in FIG. 10. In the following, any part that overlaps with the above description will be omitted or abbreviated.

메모리(1010)는 전자 장치(100)의 적어도 하나의 다른 구성요소에 관계된 명령 또는 데이터를 저장할 수 있다. 특히, 메모리(1010)는 비휘발성 메모리, 휘발성 메모리, 플래시메모리(flash-memory), 하드디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD) 등으로 구현될 수 있다. The memory (1010) can store commands or data related to at least one other component of the electronic device (100). In particular, the memory (1010) can be implemented as a non-volatile memory, a volatile memory, a flash memory, a hard disk drive (HDD), a solid state drive (SSD), or the like.

메모리(1010)는 프로세서(1030)에 의해 액세스되며, 프로세서(1030)에 의한 데이터의 독취/기록/수정/삭제/갱신 등이 수행될 수 있다. 본 개시에서 메모리라는 용어는 메모리(1010), 프로세서(1030) 내 롬(미도시), 램(미도시) 또는 전자 장치(100)에 장착되는 메모리 카드(미도시)(예를 들어, micro SD 카드, 메모리 스틱)를 포함할 수 있다. 또한, 메모리(1010)에는 복수의 텍스트가 기저장되어 있을 수 있고, 복수의 텍스트 각각에는 카테고리가 매칭되어 있을 수 있다.The memory (1010) is accessed by the processor (1030), and data reading/recording/modifying/deleting/updating, etc. can be performed by the processor (1030). In the present disclosure, the term "memory" may include a memory (1010), a ROM (not shown), a RAM (not shown) within the processor (1030), or a memory card (not shown) (e.g., a micro SD card, a memory stick) mounted on the electronic device (100). In addition, a plurality of texts may be pre-stored in the memory (1010), and each of the plurality of texts may be matched with a category.

또한, 메모리(1010)는 기저장된 복수의 텍스트와 형태적으로는 유사하나 대상(entity) 및 의도(intent) 중 하나가 다른 텍스트를 생성하는 제2 인공 지능 모델 및 제2 인공 지능 모델에 의해 생성된 텍스트를 기저장된 복수의 텍스트 중 하나인지를 판별하는 제1 인공 지능 모델을 저장할 수 있다.Additionally, the memory (1010) may store a second artificial intelligence model that generates a text that is morphologically similar to a plurality of pre-stored texts but has a different entity and intent, and a first artificial intelligence model that determines whether a text generated by the second artificial intelligence model is one of the plurality of pre-stored texts.

통신부(1020)는 외부 장치와 통신을 수행할 수 있다. 이때, 통신부(1020)는 외부 장치로부터 사용자 명령을 수신하고, 사용자 명령에 대한 응답 정보를 외부 장치로 전송할 수 있다. The communication unit (1020) can communicate with an external device. At this time, the communication unit (1020) can receive a user command from the external device and transmit response information for the user command to the external device.

이를 위해, 통신부(1020)는 무선 통신 칩, 와이 파이 칩, 블루투스 등을 포함할 수 있다.For this purpose, the communication unit (1020) may include a wireless communication chip, a Wi-Fi chip, Bluetooth, etc.

프로세서(1030)는 메모리(1010) 및 통신부(1020)와 전기적으로 연결되어 전자 장치(100)의 전반적인 동작 및 기능을 제어할 수 있다.The processor (1030) is electrically connected to the memory (1010) and the communication unit (1020) to control the overall operation and function of the electronic device (100).

프로세서(1030)는 통신부(1020)를 통해 외부 장치로부터 사용자 명령을 수신할 수 있다. The processor (1030) can receive user commands from an external device through the communication unit (1020).

그리고, 프로세서(1030)는 수신된 사용자 명령에 대응되는 텍스트를 판단하고, 제1 인공 지능 모델을 통해 텍스트가 기저장된 복수의 텍스트 중 하나에 대응되는 것으로 분류되면, 사용자 명령에 대한 응답 정보를 제공할 수 있다. In addition, the processor (1030) determines a text corresponding to a received user command, and if the text is classified as corresponding to one of a plurality of pre-stored texts through the first artificial intelligence model, response information for the user command can be provided.

구체적으로, 프로세서(1030)는, 제1 인공 지능 모델을 통해, 사용자 명령에 대응되는 텍스트가 기저장된 복수의 텍스트 중 하나에 대응되는지를 판단할 수 있다. 그리고, 프로세서(1030)는 텍스트가 기저장된 복수의 텍스트 중 하나에 대응되는 것으로 분류되면, 텍스트에 매칭된 카테고리를 판단하고, 해당 카테고리에 포함된 복수의 정보 중에서 사용자 명령에 대응되는 정보를 응답 정보로 제공할 수 있다.Specifically, the processor (1030) may determine, through the first artificial intelligence model, whether a text corresponding to a user command corresponds to one of a plurality of pre-stored texts. Furthermore, if the text is classified as corresponding to one of the plurality of pre-stored texts, the processor (1030) may determine a category matching the text and provide information corresponding to the user command from among a plurality of pieces of information included in the corresponding category as response information.

여기에서, 응답 정보는 교통 상황 등의 상태 정보가 될 수 있음은 물론, TV 등의 외부 장치의 전원을 온, 오프 하기 위한 제어 정보가 될 수 있다.Here, the response information can be status information such as traffic conditions, as well as control information for turning on and off the power of an external device such as a TV.

또한, 프로세서(1030)는 제1 인공 지능 모델을 통해 사용자 명령에 대응되는 텍스트가 에러로 분류되면, 사용자 명령에 대해 에러 정보를 제공할 수 있다.Additionally, the processor (1030) can provide error information for the user command if the text corresponding to the user command is classified as an error through the first artificial intelligence model.

구체적으로, 제1 인공 지능 모델은 사용자 명령에 대응되는 텍스트가 기저장된 복수의 텍스트 중 적어도 하나의 텍스트와 대상(entity) 및 의도(intent) 중 하나가 다른 유사 텍스트인 경우, 사용자 명령에 대응되는 텍스트를 에러로 분류할 수 있다. 이 경우, 프로세서(1030)는 사용자 명령에 대해 에러 정보를 제공할 수 있다. 여기에서, 에러 정보는 사용자 명령에 의해 요청된 사항을 찾을 수 없다는 정보가 될 수 있다.Specifically, the first artificial intelligence model may classify the text corresponding to the user command as an error if the text corresponding to the user command is similar to at least one of the plurality of pre-stored texts in that the text differs in one of the entity and intent. In this case, the processor (1030) may provide error information regarding the user command. Here, the error information may be information indicating that the requested information by the user command cannot be found.

도 11은 본 개시의 일 실시 예에 따른 전자 장치가 디스플레이 장치로 구현되는 경우의 상세 블록도이다.FIG. 11 is a detailed block diagram of an electronic device according to an embodiment of the present disclosure when implemented as a display device.

전자 장치(100)는 사용자 명령이 입력될 수 있는 디스플레이 장치로 구현될 수 있다. 다양한 예를 들어, 전자 장치(100)는 스마트 폰, PC, 태블릿 PC, 노트북, PDA, PMP, 스마트 TV 등이 될 수 있다.The electronic device (100) may be implemented as a display device into which user commands can be input. For various examples, the electronic device (100) may be a smart phone, a PC, a tablet PC, a laptop, a PDA, a PMP, a smart TV, etc.

도 11에 도시된 바와 같이, 전자 장치가 디스플레이 장치로 구현될 경우, 전자 장치(100)는 메모리(1110), 입력부(1130), 디스플레이(1140), 통신부(1150) 및 프로세서(1160)를 포함할 수 있다. As illustrated in FIG. 11, when the electronic device is implemented as a display device, the electronic device (100) may include a memory (1110), an input unit (1130), a display (1140), a communication unit (1150), and a processor (1160).

입력부(1130)는 사용자 명령을 수신할 수 있다. The input unit (1130) can receive user commands.

입력부(1130)는 터치 센서, (디지털) 펜 센서, 압력 센서, 또는 키를 포함할 수 있다. 터치 센서는, 예를 들면, 정전식, 감압식, 적외선 방식, 또는 초음파 방식 중 적어도 하나의 방식을 사용할 수 있다. (디지털) 펜 센서는, 예를 들면, 터치 패널의 일부이거나, 별도의 인식용 쉬트를 포함할 수 있다. 키는, 예를 들면, 물리적인 버튼, 광학식 키, 또는 키패드를 포함할 수 있다.The input unit (1130) may include a touch sensor, a (digital) pen sensor, a pressure sensor, or a key. The touch sensor may use, for example, at least one of a capacitive type, a pressure-sensitive type, an infrared type, or an ultrasonic type. The (digital) pen sensor may be, for example, part of a touch panel or may include a separate recognition sheet. The key may include, for example, a physical button, an optical key, or a keypad.

또한, 입력부(1130)는 마이크를 포함할 수 있다. 여기에서, 마이크는 사용자 발화 음성을 수신할 수 있다.Additionally, the input unit (1130) may include a microphone. Here, the microphone may receive a user's spoken voice.

디스플레이(1140)는 다양한 화면을 표시할 수 있다. 특히, 디스플레이(1140)는 사용자 명령을 유도하는 화면을 제공할 수 있다. 또한, 디스플레이(1140)는 사용자 명령에 대한 응답 정보를 표시할 수 있다.The display (1140) can display various screens. In particular, the display (1140) can provide a screen that prompts a user command. Additionally, the display (1140) can display response information to the user command.

디스플레이(1140)는 LCD(Liquid Crystal Display), OLED(Organic Light Emitting Diodes), AM-OLED(Active-Matrix Organic Light-Emitting Diode), LcoS(Liquid Crystal on Silicon) 또는 DLP(Digital Light Processing) 등과 같은 다양한 디스플레이 기술로 구현될 수 있다. 또한, 디스플레이(1140)는 플렉서블 디스플레이(flexible display)의 형태로 전자 장치(100)의 전면 영역 및, 측면 영역 및 후면 영역 중 적어도 하나에 결합될 수도 있다.The display (1140) may be implemented with various display technologies such as LCD (Liquid Crystal Display), OLED (Organic Light Emitting Diodes), AM-OLED (Active-Matrix Organic Light-Emitting Diode), LcoS (Liquid Crystal on Silicon), or DLP (Digital Light Processing). In addition, the display (1140) may be combined with at least one of the front area, side area, and rear area of the electronic device (100) in the form of a flexible display.

또한, 디스플레이(1140)는 터치 센서를 구비한 터치 스크린으로 구현될 수도 있다.Additionally, the display (1140) may be implemented as a touch screen equipped with a touch sensor.

통신부(1150)는 외부 장치와 통신을 수행할 수 있다. 특히, 통신부(1150)는 외부 서버와의 통신을 통해, 사용자 명령에 대응되는 텍스트에 대한 검색 결과를 수신할 수 있다. 또한, 통신부(1150)는 사용자 명령이 특정 외부 장치를 제어하기 위한 명령인 경우, 제어 신호를 외부 장치로 전송할 수 있다.The communication unit (1150) can communicate with an external device. In particular, the communication unit (1150) can receive search results for text corresponding to a user command through communication with an external server. Furthermore, if the user command is a command for controlling a specific external device, the communication unit (1150) can transmit a control signal to the external device.

프로세서(1160)는 입력부(1130)를 통해 사용자 명령을 수신할 수 있다. 그리고, 프로세서(1160)는 제1 인공 지능 모델을 이용하여 기저장된 복수의 텍스트 중에서 사용자 명령에 대응되는 텍스트를 식별할 수 있다. The processor (1160) can receive a user command through the input unit (1130). In addition, the processor (1160) can identify a text corresponding to the user command among a plurality of pre-stored texts using the first artificial intelligence model.

그리고, 프로세서(1160)는 제1 인공 지능 모델을 이용하여 사용자 명령의 카테고리를 분류하고, 사용자 명령에 대한 응답 정보를 제공할 수 있다. In addition, the processor (1160) can classify the category of the user command using the first artificial intelligence model and provide response information for the user command.

구체적으로, 프로세서(1160)는 교통 상황 등의 응답 정보를 디스플레이(1140)를 통해 표시하거나, TV 등의 외부 장치의 전원을 온, 오프 하기 위한 제어 신호를 TV 등의 외부 장치로 전송할 수 있다.Specifically, the processor (1160) can display response information such as traffic conditions through the display (1140), or transmit a control signal to an external device such as a TV to turn the power of the external device on or off.

한편, 전자 장치(100)가 디스플레이 장치로 구현될 경우, 상술한 기술 중 일부는 디스플레이 장치에서 구현되고, 나머지 일부는 서버에서 구현될 수 있다.Meanwhile, when the electronic device (100) is implemented as a display device, some of the above-described technologies may be implemented in the display device, and the remaining parts may be implemented in the server.

구체적으로, 디스플레이 장치는 사용자 명령을 수신하여 서버로 전송하고, 서버는 수신된 사용자 명령에 대한 응답 정보를 획득 또는 생성하여 디스플레이 장치로 전송하며, 디스플레이 장치는 수신한 응답 정보를 표시할 수 있다.Specifically, the display device receives a user command and transmits it to a server, the server obtains or generates response information for the received user command and transmits it to the display device, and the display device can display the received response information.

도 12는 본 개시의 일 실시 예에 따른 대화 시스템을 설명하기 위한 도면이다.FIG. 12 is a drawing for explaining a conversation system according to one embodiment of the present disclosure.

본 개시의 일 실시 예에 따른 전자 장치(100)는 사용자 입력(특히, 사용자 음성)에 대한 응답을 제공하는 대화 시스템(Dialogue system)을 저장할 수 있다. 이때, 대화 시스템은 도 12에 도시된 바와 같이, 자동 음성 인식부(Automatic Speech Recognition, ASR)(1210), 자연어 이해부(Natural Language Understanding, NLU)(1220), 대화 매니저(Dialogue Manager, DM)(1230), 자연어 생성부(Natural Language Generator, NLG)(1240), TTS(Text-to-Speech)(1250) 및 지식 데이터 베이스(Knowledge Database)(1260)를 포함할 수 있다.An electronic device (100) according to an embodiment of the present disclosure may store a dialogue system that provides a response to a user input (particularly, a user voice). At this time, the dialogue system may include an Automatic Speech Recognition (ASR) unit (1210), a Natural Language Understanding (NLU) unit (1220), a Dialogue Manager (DM) (1230), a Natural Language Generator (NLG) unit (1240), a Text-to-Speech (TTS) unit (1250), and a Knowledge Database (1260), as illustrated in FIG. 12 .

자동 음성 인식부(1210)는 마이크 등을 통해 입력된 사용자 음성에 대한 음성 인식을 수행할 수 있다. 자연어 이해부(1220)는 음성 인식 결과를 바탕으로 사용자 음성의 의도(intent)를 파악할 수 있다. 대화 매니저(1230)는 자연어 이해 결과 및 지식 데이터 베이스(1260)에 저장된 데이터를 바탕으로 사용자 음성에 대한 응답에 대한 정보를 획득할 수 있다. 예를 들어, 대화 매니저(1230)는 응답을 생성하기 위한 정보를 획득할 수 있으며, 상술한 바와 같이, 획득된 정보는 자연어 이해부(1220)을 통해 파악된 사용자 음성의 의도(intent)와 지식 데이터 베이스(1260)에 저장된 데이터를 바탕으로 결정될 수 있다. 자연어 생성부(1240)는 대화 매니저(1230)를 통해 획득된 정보를 바탕으로 사용자 음성에 대한 응답으로서, 자연어를 획득할 수 있다. TTS(1250)는 획득된 자연어를 음성으로 변환할 수 있다 이에 의해, 대화 시스템은 사용자 음성에 대한 응답을 음성으로서 제공할 수 있게 되어, 사용자는 전자 장치(100)와 대화를 수행할 수 있게 된다.The automatic speech recognition unit (1210) can perform speech recognition on a user's speech input through a microphone, etc. The natural language understanding unit (1220) can identify the intent of the user's speech based on the speech recognition result. The conversation manager (1230) can obtain information on a response to the user's speech based on the natural language understanding result and data stored in the knowledge database (1260). For example, the conversation manager (1230) can obtain information for generating a response, and as described above, the obtained information can be determined based on the intent of the user's speech identified through the natural language understanding unit (1220) and data stored in the knowledge database (1260). The natural language generation unit (1240) can obtain natural language as a response to the user's speech based on the information obtained through the conversation manager (1230). TTS (1250) can convert acquired natural language into voice. By doing so, the conversation system can provide a response to the user's voice as voice, so that the user can conduct a conversation with the electronic device (100).

특히, 본 개시의 일 실시 예에 따른 대화 매니저(1230)는 지식 데이터 베이스(1260)에 저장된 복수의 텍스트 각각에 매칭된 카테고리에 기초하여, 사용자 음성에 대한 응답 정보를 획득할 수 있다. In particular, a conversation manager (1230) according to one embodiment of the present disclosure can obtain response information for a user's voice based on a category matched to each of a plurality of texts stored in a knowledge database (1260).

도 13은 본 개시의 일 실시 예에 따른 전자 장치의 상세 블록도이다.FIG. 13 is a detailed block diagram of an electronic device according to an embodiment of the present disclosure.

도 13에 도시된 바와 같이, 전자 장치(100)는 영상 획득부(1310), 영상 처리부(1320), 디스플레이(1330), 통신부(1340), 메모리(1350), 오디오 처리부(1360), 오디오 출력부(1370), 입력부(1380) 및 프로세서(1390) 중 적어도 하나를 포함할 수 있다. 한편, 도 13에 도시된 전자 장치(100)의 구성은 일 예에 불과하므로, 반드시 전술된 블록도에 한정되는 것은 아니다. 따라서, 전자 장치(100)의 종류 또는 전자 장치(100)의 목적에 따라 도 13에 도시된 전자 장치(100)의 구성의 일부가 생략 또는 변형되거나, 추가될 수도 있음은 물론이다. As illustrated in FIG. 13, the electronic device (100) may include at least one of an image acquisition unit (1310), an image processing unit (1320), a display (1330), a communication unit (1340), a memory (1350), an audio processing unit (1360), an audio output unit (1370), an input unit (1380), and a processor (1390). Meanwhile, the configuration of the electronic device (100) illustrated in FIG. 13 is merely an example and is not necessarily limited to the block diagram described above. Accordingly, it goes without saying that some of the configurations of the electronic device (100) illustrated in FIG. 13 may be omitted, modified, or added depending on the type of the electronic device (100) or the purpose of the electronic device (100).

영상 획득부(1310)는 다양한 소스를 통해 영상 데이터를 획득할 수 있다. 예로, 영상 획득부(1310)는 사용자 명령에 대한 응답 정보로 특정 영상을 획득할 수 있다. 영상 획득부(1310)를 통해 획득된 영상 데이터는 영상 처리부(1320)에서 처리될 수 있다.The image acquisition unit (1310) can acquire image data from various sources. For example, the image acquisition unit (1310) can acquire a specific image as response information to a user command. The image data acquired through the image acquisition unit (1310) can be processed by the image processing unit (1320).

영상 처리부(1320)는 영상 획득부(1310)에서 수신한 영상 데이터에 대한 처리를 수행할 수 있다. 영상 처리부(1320)에서는 영상 데이터에 대한 디코딩, 스케일링, 노이즈 필터링, 프레임 레이트 변환 또는 해상도 변환 등과 같은 다양한 이미지 처리를 수행할 수 있다. The image processing unit (1320) can perform processing on image data received from the image acquisition unit (1310). The image processing unit (1320) can perform various image processing operations, such as decoding, scaling, noise filtering, frame rate conversion, or resolution conversion on the image data.

디스플레이(1330)는 영상 처리부(1320)에서 처리한 영상 데이터를 디스플레이할 수 있다. 디스플레이1330)의 적어도 일부는 플렉서블 디스플레이(flexible display)의 형태로 전자 장치(100)의 전면 영역 및, 측면 영역 및 후면 영역 중 적어도 하나에 결합될 수도 있다. 플렉서블 디스플레이는 종이처럼 얇고 유연한 기판을 통해 손상 없이 휘거나 구부리거나 말 수 있는 것을 특징으로 할 수 있다. The display (1330) can display image data processed by the image processing unit (1320). At least a portion of the display (1330) may be combined with at least one of the front area, the side area, and the rear area of the electronic device (100) in the form of a flexible display. The flexible display may be characterized by being able to be bent, folded, or rolled without damage through a thin and flexible substrate like paper.

디스플레이(1330)는 터치 패널(1381)과 결합하여 레이어 구조의 터치 스크린으로 구현될 수 있다. 터치 스크린은 디스플레이 기능뿐만 아니라 터치 입력 위치, 터치된 면적뿐만 아니라 터치 입력 압력까지도 검출하는 기능을 가질 수 있고, 또한 실질적인 터치(real-touch)뿐만 아니라 근접 터치(proximity touch)도 검출하는 기능을 가질 수 있다.The display (1330) can be implemented as a layered touch screen in combination with a touch panel (1381). The touch screen can have not only a display function but also a function to detect a touch input location, a touched area, and even a touch input pressure, and can also have a function to detect not only a real touch but also a proximity touch.

통신부(1340)는 다양한 유형의 통신방식에 따라 다양한 유형의 외부 기기와 통신을 수행할 수 있다. 통신부(1340)는 와이파이 칩(1341), 블루투스 칩(1342), 무선 통신 칩(1343), NFC 칩(1344) 중 적어도 하나를 포함할 수 있다. 프로세서(1390)는 통신부(1340)를 이용하여 외부 서버 또는 각종 외부 기기와 통신을 수행할 수 있다. The communication unit (1340) can communicate with various types of external devices according to various types of communication methods. The communication unit (1340) can include at least one of a Wi-Fi chip (1341), a Bluetooth chip (1342), a wireless communication chip (1343), and an NFC chip (1344). The processor (1390) can communicate with an external server or various external devices using the communication unit (1340).

오디오 처리부(1360)는 오디오 데이터에 대한 처리를 수행하는 구성요소이다. 오디오 처리부(1360)에서는 오디오 데이터에 대한 디코딩이나 증폭, 노이즈 필터링 등과 같은 다양한 처리가 수행될 수 있다. 오디오 처리부(1360)에서 처리된 오디오 데이터는 오디오 출력부(1370)로 출력될 수 있다.The audio processing unit (1360) is a component that performs processing on audio data. The audio processing unit (1360) can perform various processing operations on audio data, such as decoding, amplification, and noise filtering. Audio data processed by the audio processing unit (1360) can be output to the audio output unit (1370).

오디오 출력부(1370)는 오디오 처리부(1360)에 의해 디코딩이나 증폭, 노이즈 필터링과 같은 다양한 처리 작업이 수행된 각종 오디오 데이터뿐만 아니라 각종 알림 음이나 음성 메시지를 출력하는 구성이다. 특히, 오디오 출력부(1370)는 스피커로 구현될 수 있으나, 이는 일 실시 예에 불과할 뿐, 오디오 데이터를 출력할 수 있는 출력 단자로 구현될 수 있다.The audio output unit (1370) is configured to output various audio data that have undergone various processing operations, such as decoding, amplification, and noise filtering, by the audio processing unit (1360), as well as various notification sounds or voice messages. In particular, the audio output unit (1370) may be implemented as a speaker, but this is only one embodiment, and may be implemented as an output terminal capable of outputting audio data.

입력부(1380)는 다양한 사용자 입력을 수신하여 프로세서(1390)로 전달할 수 있다. 사용자 입력부(1380)는, 예를 들면, 터치 패널(1381), (디지털) 펜 센서(1382) 또는 키(1383)를 포함할 수 있다. 터치 패널(1381)은, 예를 들면, 정전식, 감압식, 적외선 방식, 또는 초음파 방식 중 적어도 하나의 방식을 사용할 수 있다. 또한, 터치 패널(1381)은 제어 회로를 더 포함할 수도 있다. 터치 패널(1381)은 택타일 레이어(tactile layer)를 더 포함하여, 사용자에게 촉각 반응을 제공할 수 있다. (디지털) 펜 센서(1382)는, 예를 들면, 터치 패널의 일부이거나, 별도의 인식용 쉬트를 포함할 수 있다. 키(1383)는, 예를 들면, 물리적인 버튼, 광학식 키, 또는 키패드를 포함할 수 있다. The input unit (1380) can receive various user inputs and transmit them to the processor (1390). The user input unit (1380) can include, for example, a touch panel (1381), a (digital) pen sensor (1382), or keys (1383). The touch panel (1381) can use, for example, at least one of a capacitive method, a pressure-sensitive method, an infrared method, or an ultrasonic method. In addition, the touch panel (1381) may further include a control circuit. The touch panel (1381) can further include a tactile layer to provide a tactile response to the user. The (digital) pen sensor (1382) can be, for example, part of the touch panel or include a separate recognition sheet. The keys (1383) can include, for example, a physical button, an optical key, or a keypad.

프로세서(1390)(또는, 제어부)는 메모리(1350)에 저장된 각종 프로그램을 이용하여 전자 장치(100)의 전반적인 동작을 제어할 수 있다.The processor (1390) (or control unit) can control the overall operation of the electronic device (100) using various programs stored in the memory (1350).

프로세서(1390)는 RAM(1391), ROM(1392), 그래픽 처리부(1393), 메인 CPU(1394), 제1 내지 n 인터페이스(1395-1~1395-n), 버스(1396)로 구성될 수 있다. 이때, RAM(1391), ROM(1392), 그래픽 처리부(1393), 메인 CPU(1394), 제1 내지 n 인터페이스(1395-1~1395-n) 등은 버스(1396)를 통해 서로 연결될 수 있다.The processor (1390) may be composed of a RAM (1391), a ROM (1392), a graphics processing unit (1393), a main CPU (1394), first to n interfaces (1395-1 to 1395-n), and a bus (1396). At this time, the RAM (1391), the ROM (1392), the graphics processing unit (1393), the main CPU (1394), the first to n interfaces (1395-1 to 1395-n), etc. may be connected to each other via the bus (1396).

한편, 본 개시에 따른 인공지능과 관련된 기능은 프로세서(120)와 메모리(110)를 통해 동작된다. 프로세서(120)는 하나 또는 복수의 프로세서로 구성될 수 있다. 이때, 하나 또는 복수의 프로세서는 CPU, AP, DSP(Digital Signal Processor) 등과 같은 범용 프로세서, GPU, VPU(Vision Processing Unit)와 같은 그래픽 전용 프로세서 또는 NPU와 같은 인공지능 전용 프로세서일 수 있다. 하나 또는 복수의 프로세서는, 메모리에 저장된 기 정의된 동작 규칙 또는 인공지능 모델에 따라, 입력 데이터를 처리하도록 제어한다. 또는, 하나 또는 복수의 프로세서가 인공지능 전용 프로세서인 경우, 인공지능 전용 프로세서는, 특정 인공지능 모델의 처리에 특화된 하드웨어 구조로 설계될 수 있다. Meanwhile, the function related to artificial intelligence according to the present disclosure is operated through a processor (120) and a memory (110). The processor (120) may be composed of one or more processors. In this case, one or more processors may be a general-purpose processor such as a CPU, an AP, a DSP (Digital Signal Processor), a graphics-only processor such as a GPU, a VPU (Vision Processing Unit), or an artificial intelligence-only processor such as an NPU. One or more processors control to process input data according to predefined operation rules or artificial intelligence models stored in the memory. Alternatively, when one or more processors are artificial intelligence-only processors, the artificial intelligence-only processor may be designed with a hardware structure specialized for processing a specific artificial intelligence model.

기 정의된 동작 규칙 또는 인공지능 모델은 학습을 통해 만들어진 것을 특징으로 한다. 여기서, 학습을 통해 만들어진다는 것은, 기본 인공지능 모델이 학습 알고리즘에 의하여 다수의 학습 데이터들을 이용하여 학습됨으로써, 원하는 특성(또는, 목적)을 수행하도록 설정된 기 정의된 동작 규칙 또는 인공지능 모델이 만들어짐을 의미한다. 이러한 학습은 본 개시에 따른 인공지능이 수행되는 기기 자체에서 이루어질 수도 있고, 별도의 서버 및/또는 시스템을 통해 이루어 질 수도 있다. 학습 알고리즘의 예로는, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)이 있으나, 전술한 예에 한정되지 않는다.The predefined operation rules or artificial intelligence models are characterized by being created through learning. Here, being created through learning means that the basic artificial intelligence model is trained using a learning algorithm using a plurality of learning data, thereby creating a predefined operation rules or artificial intelligence model set to perform a desired characteristic (or purpose). This learning may be performed on the device itself on which the artificial intelligence according to the present disclosure is performed, or may be performed through a separate server and/or system. Examples of the learning algorithm include, but are not limited to, supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning.

인공지능 모델은, 복수의 신경망 레이어들로 구성될 수 있다. 복수의 신경망 레이어들 각각은 복수의 가중치들(weight values)을 갖고 있으며, 이전(previous) 레이어의 연산 결과와 복수의 가중치들 간의 연산을 통해 신경망 연산을 수행한다. 복수의 신경망 레이어들이 갖고 있는 복수의 가중치들은 인공지능 모델의 학습 결과에 의해 최적화될 수 있다. 예를 들어, 학습 과정 동안 인공지능 모델에서 획득한 로스(loss) 값 또는 코스트(cost) 값이 감소 또는 최소화되도록 복수의 가중치들이 갱신될 수 있다. 인공 신경망은 심층 신경망(DNN:Deep Neural Network)를 포함할 수 있으며, 예를 들어, CNN (Convolutional Neural Network), DNN (Deep Neural Network), RNN (Recurrent Neural Network), RBM (Restricted Boltzmann Machine), DBN (Deep Belief Network), BRDNN(Bidirectional Recurrent Deep Neural Network) 또는 심층 Q-네트워크 (Deep Q-Networks) 등이 있으나, 전술한 예에 한정되지 않는다.An artificial intelligence model may be composed of multiple neural network layers. Each of the multiple neural network layers has multiple weight values, and performs neural network operations through operations between the operation results of the previous layer and the multiple weights. The multiple weights of the multiple neural network layers may be optimized based on the learning results of the artificial intelligence model. For example, the multiple weights may be updated so that the loss value or cost value obtained from the artificial intelligence model is reduced or minimized during the learning process. The artificial neural network may include a deep neural network (DNN), and examples thereof include, but are not limited to, a convolutional neural network (CNN), a deep neural network (DNN), a recurrent neural network (RNN), a restricted boltzmann machine (RBM), a deep belief network (DBN), a bidirectional recurrent deep neural network (BRDNN), or deep Q-networks.

도 14는 본 개시의 일 실시 예에 따른 전자 장치의 동작을 설명하기 위한 흐름도이다.FIG. 14 is a flowchart illustrating the operation of an electronic device according to an embodiment of the present disclosure.

전자 장치는 사용자 명령을 수신(S1610)할 수 있다. 여기에서, 사용자 명령은 키보드 또는 온 스크린 키보드 등을 통해 입력된 텍스트가 될 수 있음은 물론, 스타일러스 등을 통해 입력된 그림 또는 텍스트가 될 수 있다. 또한, 사용자 명령은 마이크를 통해 입력된 사용자 음성이 될 수도 있다.The electronic device can receive a user command (S1610). Here, the user command can be text entered via a keyboard or on-screen keyboard, or a picture or text entered via a stylus or the like. Additionally, the user command can also be the user's voice entered via a microphone.

그리고, 전자 장치는 사용자 명령을 분류(S1620)할 수 있다. 구체적으로, 전자 장치는 제1 인공 지능 모델을 이용하여 사용자 명령의 카테고리를 분류할 수 있다.In addition, the electronic device can classify user commands (S1620). Specifically, the electronic device can classify categories of user commands using the first artificial intelligence model.

이를 위해, 전자 장치(100)는 먼저 사용자 명령이 수신되면, 제1 인공 지능 모델을 이용하여 기저장된 복수의 텍스트 중에서 사용자 명령에 대응되는 텍스트를 식별할 수 있다. 그리고, 전자 장치(100)는 텍스트 별로 매칭된 카테고리 정보에 기초하여, 사용자 명령의 카테고리를 분류할 수 있다.To this end, when a user command is received, the electronic device (100) can first identify a text corresponding to the user command from among a plurality of pre-stored texts using a first artificial intelligence model. Furthermore, the electronic device (100) can classify the category of the user command based on the category information matched to each text.

이후, 전자 장치는 분류 결과에 기초하여, 사용자 명령에 대한 응답 정보를 제공(S1630)할 수 있다.Thereafter, the electronic device can provide response information to a user command based on the classification result (S1630).

구체적으로, 전자 장치는 제1 인공 지능 모델을 이용하여 사용자 명령의 카테고리에 포함된 복수의 정보 중에서 사용자 명령에 대응되는 정보를 응답 정보로 제공할 수 있다.Specifically, the electronic device can provide information corresponding to the user command as response information from among a plurality of pieces of information included in the category of the user command using the first artificial intelligence model.

예를 들어, 전자 장치에 '택시 검색'과 같은 텍스트가 기저장되어 있는 상태에서, “택시 찾아줘”가 수신된 경우, 전자 장치는 기저장된 복수의 텍스트 중에서 “택시 찾아줘”에 대응되는 텍스트로 '택시 검색'을 식별할 수 있다. 그리고, 전자 장치는 '택시 검색'에 매칭된 '교통' 카테고리를 사용자 명령의 카테고리로 분류하고, '교통' 카테고리에 포함된 복수의 정보 중에서 '택시 검색'과 관련된 정보를 응답 정보로 제공할 수 있다. 예를 들어, 전자 장치는 사용자 주변의 예약 가능한 택시와 관련된 정보를 응답 정보로 제공할 수 있다.For example, if a text such as "taxi search" is stored in an electronic device and "find a taxi" is received, the electronic device can identify "taxi search" as the text corresponding to "find a taxi" among the plurality of stored texts. In addition, the electronic device can classify the "transportation" category matching "taxi search" as a category of the user command, and provide information related to "taxi search" among the plurality of pieces of information included in the "transportation" category as response information. For example, the electronic device can provide information related to available taxis around the user as response information.

한편, 사용자 명령의 카테고리가 에러 카테고리인 것으로 분류되는 경우, 전자 장치는 사용자 명령에 의해 요청된 정보를 찾을 수 없다는 에러 정보를 제공할 수 있다. 즉, 전자 장치는 사용자 명령을 Rejection 할 수 있다. Meanwhile, if the category of the user command is classified as an error category, the electronic device may provide error information indicating that the information requested by the user command cannot be found. In other words, the electronic device may reject the user command.

이에 따라, 종래의 전자 장치와 달리, 본 개시의 일 실시 예에 따른 전자 장치는 사용자 의도와 전혀 관계 없는 응답 정보를 제공하는 경우를 방지할 수 있다. Accordingly, unlike conventional electronic devices, the electronic device according to one embodiment of the present disclosure can prevent cases where response information is provided that is completely unrelated to the user's intention.

한편, 상술한 본 발명의 다양한 실시 예들에 따른 방법들은, 기존 전자 장치에 대한 소프트웨어/하드웨어 업그레이드 만으로도 구현될 수 있다. Meanwhile, the methods according to the various embodiments of the present invention described above can be implemented only with software/hardware upgrades for existing electronic devices.

또한, 상술한 본 발명의 다양한 실시 예들은 전자 장치에 구비된 임베디드 서버, 또는 외부의 서버를 통해 수행되는 것도 가능하다.In addition, the various embodiments of the present invention described above can also be performed through an embedded server provided in an electronic device or an external server.

상술한 다양한 실시 예에 따른 전자 장치의 제어 방법은 프로그램으로 구현되어 다양한 기록 매체에 저장될 수 있다. 즉, 각종 프로세서에 의해 처리되어 상술한 다양한 제어 방법을 실행할 수 있는 컴퓨터 프로그램이 기록 매체에 저장된 상태로 사용될 수도 있다.The control methods for electronic devices according to the various embodiments described above may be implemented as programs and stored on various recording media. That is, a computer program capable of executing the various control methods described above by being processed by various processors may be stored on a recording medium and used.

비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.A non-transitory readable medium refers to a medium that permanently stores data and can be read by a device, rather than a medium that stores data for a short period of time, such as a register, cache, or memory. Specifically, the various applications or programs described above may be stored and provided on non-transitory readable media, such as a CD, DVD, hard disk, Blu-ray disc, USB, memory card, or ROM.

이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.Although the preferred embodiments of the present invention have been illustrated and described above, the present invention is not limited to the specific embodiments described above, and various modifications may be made by those skilled in the art without departing from the gist of the present invention as claimed in the claims. Furthermore, such modifications should not be understood individually from the technical idea or prospect of the present invention.

100: 전자 장치
110: 메모리
120: 프로세서
100: Electronic devices
110: Memory
120: Processor

Claims (16)

전자 장치에 있어서,
컴퓨터 실행가능 명령어(computer executable instructions)를 저장하는 메모리; 및
상기 컴퓨터 실행가능 명령어를 실행함으로써, 수신된 사용자 명령에 대응되는 텍스트를 판단하고, 제1 인공 지능 모델을 통해 상기 텍스트가 기저장된 복수의 텍스트 중 하나에 대응되는 것으로 분류되면, 상기 사용자 명령에 대한 응답 정보를 제공하고, 상기 제1 인공 지능 모델을 통해 상기 텍스트가 에러로 분류되면, 상기 사용자 명령에 대해 에러 정보를 제공하는 프로세서;를 포함하고,
상기 제1 인공 지능 모델은,
상기 사용자 명령에 대응되는 텍스트가 상기 기저장된 복수의 텍스트 중 적어도 하나의 텍스트와 대상(entity) 및 의도(intent) 중 하나가 다른 유사 텍스트인 경우, 상기 텍스트를 상기 에러로 분류하며,
상기 유사 텍스트는, 제2 인공 지능 모델에 의해 생성되고,
상기 제1 인공 지능 모델은,
상기 제1 인공 지능 모델에 입력된 상기 유사 텍스트가 상기 기저장된 복수의 텍스트 중 하나에 대응되는지를 판단하고, 상기 판단 결과에 기초하여 학습 여부를 결정하며,
상기 제2 인공 지능 모델은,
상기 제1 인공 지능 모델이 상기 유사 텍스트를 상기 기저장된 복수의 텍스트에 대응되지 않는 것으로 판단하면, 상기 유사 텍스트가 상기 적어도 하나의 텍스트와 유사한 정도보다 더 높은 유사도를 갖는 새로운 유사 텍스트를 생성하도록 학습하는, 전자 장치.
In electronic devices,
Memory that stores computer executable instructions; and
A processor that determines a text corresponding to a received user command by executing the computer-executable instructions, and if the text is classified as corresponding to one of a plurality of pre-stored texts through a first artificial intelligence model, provides response information for the user command, and if the text is classified as an error through the first artificial intelligence model, provides error information for the user command;
The above first artificial intelligence model is,
If the text corresponding to the user command is a similar text that has a different entity and intent from at least one of the plurality of pre-stored texts, the text is classified as the error.
The above similar text is generated by the second artificial intelligence model,
The above first artificial intelligence model is,
Determine whether the similar text input to the first artificial intelligence model corresponds to one of the plurality of pre-stored texts, and determine whether to learn based on the determination result.
The above second artificial intelligence model is,
An electronic device that learns to generate a new similar text having a higher degree of similarity than the degree to which the similar text is similar to at least one text, when the first artificial intelligence model determines that the similar text does not correspond to the plurality of pre-stored texts.
제1항에 있어서,
상기 제1 인공 지능 모델은,
상기 기저장된 복수의 텍스트에 기초하여 상기 사용자 명령에 대응되는 텍스트를 판단하는 모델을, 상기 유사 텍스트는 에러로 분류하도록 학습시켜 얻어진 모델인, 전자 장치.
In the first paragraph,
The above first artificial intelligence model is,
An electronic device, wherein a model is obtained by training a model that determines a text corresponding to the user command based on the plurality of pre-stored texts, and classifies the similar text as an error.
삭제delete 삭제delete 제1항에 있어서,
상기 제1 인공 지능 모델은,
상기 유사 텍스트가 상기 기저장된 복수의 텍스트 중 하나에 대응되는 것으로 판단되면 상기 유사 텍스트를 에러로 분류하도록 학습하고, 상기 유사 텍스트가 상기 기저장된 복수의 텍스트에 대응되지 않는 것으로 판단되면 상기 학습을 수행하지 않는, 전자 장치.
In the first paragraph,
The above first artificial intelligence model is,
An electronic device that learns to classify the similar text as an error if it is determined that the similar text corresponds to one of the plurality of pre-stored texts, and does not perform the learning if it is determined that the similar text does not correspond to one of the plurality of pre-stored texts.
삭제delete 제1항에 있어서,
상기 제1 인공 지능 모델은,
상기 제2 인공 지능 모델에 의해 생성된 상기 새로운 유사 텍스트를 입력 받고, 상기 새로운 유사 텍스트가 상기 기저장된 복수의 텍스트 중 하나에 대응되는지를 판단하고, 상기 판단 결과에 기초하여 학습 여부를 결정하는, 전자 장치.
In the first paragraph,
The above first artificial intelligence model is,
An electronic device that receives the new similar text generated by the second artificial intelligence model, determines whether the new similar text corresponds to one of the plurality of pre-stored texts, and determines whether to learn based on the determination result.
제1항에 있어서,
상기 제1 및 제2 인공 지능 모델은, GAN(Generative Adversarial Network)인, 전자 장치.
In the first paragraph,
The first and second artificial intelligence models are electronic devices that are Generative Adversarial Networks (GANs).
전자 장치의 제어 방법에 있어서,
수신된 사용자 명령에 대응되는 텍스트를 판단하는 단계; 및
제1 인공 지능 모델을 통해 상기 텍스트가 기저장된 복수의 텍스트 중 하나에 대응되는 것으로 분류되면, 상기 사용자 명령에 대한 응답 정보를 제공하고, 상기 제1 인공 지능 모델을 통해 상기 텍스트가 에러로 분류되면, 상기 사용자 명령에 대해 에러 정보를 제공하는 단계;를 포함하고,
상기 제1 인공 지능 모델은,
상기 사용자 명령에 대응되는 텍스트가 상기 기저장된 복수의 텍스트 중 적어도 하나의 텍스트와 대상(entity) 및 의도(intent) 중 하나가 다른 유사 텍스트인 경우, 상기 텍스트를 상기 에러로 분류하며,
상기 유사 텍스트는, 제2 인공 지능 모델에 의해 생성되고,
상기 제1 인공 지능 모델은,
상기 제1 인공 지능 모델에 입력된 상기 유사 텍스트가 상기 기저장된 복수의 텍스트 중 하나에 대응되는지를 판단하고, 상기 판단 결과에 기초하여 학습 여부를 결정하며,
상기 제2 인공 지능 모델은,
상기 제1 인공 지능 모델이 상기 유사 텍스트를 상기 기저장된 복수의 텍스트에 대응되지 않는 것으로 판단하면, 상기 유사 텍스트가 상기 적어도 하나의 텍스트와 유사한 정도보다 더 높은 유사도를 갖는 새로운 유사 텍스트를 생성하도록 학습하는, 전자 장치의 제어 방법.
In a method for controlling an electronic device,
a step of determining a text corresponding to a received user command; and
A step of providing response information for the user command when the text is classified as corresponding to one of a plurality of pre-stored texts through the first artificial intelligence model, and providing error information for the user command when the text is classified as an error through the first artificial intelligence model;
The above first artificial intelligence model is,
If the text corresponding to the user command is a similar text that has a different entity and intent from at least one of the plurality of pre-stored texts, the text is classified as the error.
The above similar text is generated by the second artificial intelligence model,
The above first artificial intelligence model is,
Determine whether the similar text input to the first artificial intelligence model corresponds to one of the plurality of pre-stored texts, and determine whether to learn based on the determination result.
The above second artificial intelligence model is,
A control method of an electronic device, wherein, if the first artificial intelligence model determines that the similar text does not correspond to the plurality of pre-stored texts, the first artificial intelligence model learns to generate a new similar text having a higher degree of similarity than the degree of similarity of the similar text to the at least one text.
제9항에 있어서,
상기 제1 인공 지능 모델은,
상기 기저장된 복수의 텍스트에 기초하여 상기 사용자 명령에 대응되는 텍스트를 판단하는 모델을, 상기 유사 텍스트는 에러로 분류하도록 학습시켜 얻어진 모델인, 전자 장치의 제어 방법.
In paragraph 9,
The above first artificial intelligence model is,
A control method for an electronic device, wherein the model is obtained by training a model that determines a text corresponding to the user command based on the plurality of pre-stored texts, and classifies the similar text as an error.
삭제delete 삭제delete 제9항에 있어서,
상기 제1 인공 지능 모델은,
상기 유사 텍스트가 상기 기저장된 복수의 텍스트 중 하나에 대응되는 것으로 판단되면 상기 유사 텍스트를 에러로 분류하도록 학습하고, 상기 유사 텍스트가 상기 기저장된 복수의 텍스트에 대응되지 않는 것으로 판단되면 상기 학습을 수행하지 않는, 전자 장치의 제어 방법.
In paragraph 9,
The above first artificial intelligence model is,
A control method of an electronic device, wherein learning is performed to classify the similar text as an error if the similar text is determined to correspond to one of the plurality of pre-stored texts, and the learning is not performed if the similar text is determined not to correspond to the plurality of pre-stored texts.
삭제delete 제9항에 있어서,
상기 제1 인공 지능 모델은,
상기 제2 인공 지능 모델에 의해 생성된 상기 새로운 유사 텍스트를 입력 받고, 상기 새로운 유사 텍스트가 상기 기저장된 복수의 텍스트 중 하나에 대응되는지를 판단하고, 상기 판단 결과에 기초하여 학습 여부를 결정하는, 전자 장치의 제어 방법.
In paragraph 9,
The above first artificial intelligence model is,
A control method of an electronic device, which receives the new similar text generated by the second artificial intelligence model, determines whether the new similar text corresponds to one of the plurality of pre-stored texts, and determines whether to learn based on the determination result.
제9항에 있어서,
상기 제1 및 제2 인공 지능 모델은, GAN(Generative Adversarial Network)인, 전자 장치의 제어 방법.
In paragraph 9,
A method for controlling an electronic device, wherein the first and second artificial intelligence models are GAN (Generative Adversarial Network).
KR1020190099895A 2018-08-20 2019-08-14 Electronic apparatus and method for controlling thereof Active KR102857236B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/545,309 US11386304B2 (en) 2018-08-20 2019-08-20 Electronic device and method of controlling the same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20180096691 2018-08-20
KR1020180096691 2018-08-20

Publications (2)

Publication Number Publication Date
KR20200021409A KR20200021409A (en) 2020-02-28
KR102857236B1 true KR102857236B1 (en) 2025-09-09

Family

ID=69638545

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190099895A Active KR102857236B1 (en) 2018-08-20 2019-08-14 Electronic apparatus and method for controlling thereof

Country Status (1)

Country Link
KR (1) KR102857236B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113889145B (en) * 2021-09-17 2025-02-25 平安银行股份有限公司 Voice verification method, device, electronic device and medium
CN116610872B (en) * 2023-07-19 2024-02-20 深圳须弥云图空间科技有限公司 Training method and device for news recommendation model

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150348551A1 (en) 2014-05-30 2015-12-03 Apple Inc. Multi-command single utterance input method
WO2017041008A1 (en) 2015-09-02 2017-03-09 True Image Interactive, Llc Intelligent virtual assistant systems and related methods
US20180232451A1 (en) 2016-12-22 2018-08-16 Shutterstock, Inc. Search engine for processing image search queries in multiple languages

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150103809A (en) * 2014-03-04 2015-09-14 주식회사 디오텍 Method and apparatus for studying simillar pronounciation

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150348551A1 (en) 2014-05-30 2015-12-03 Apple Inc. Multi-command single utterance input method
WO2017041008A1 (en) 2015-09-02 2017-03-09 True Image Interactive, Llc Intelligent virtual assistant systems and related methods
US20180232451A1 (en) 2016-12-22 2018-08-16 Shutterstock, Inc. Search engine for processing image search queries in multiple languages

Also Published As

Publication number Publication date
KR20200021409A (en) 2020-02-28

Similar Documents

Publication Publication Date Title
US20220301549A1 (en) Electronic device and method for providing voice recognition service
US10733983B2 (en) Parameter collection and automatic dialog generation in dialog systems
US20230120040A1 (en) Electronic device and method of controlling electronic device
CN107210033B (en) Updating language understanding classifier models for digital personal assistants based on crowd sourcing
CN107112008B (en) Prediction-based sequence identification
US10978052B2 (en) Email-like user interface for training natural language systems
EP4046057A1 (en) Semantic representations using structural ontology for assistant systems
US11521619B2 (en) System and method for modifying speech recognition result
US10901689B1 (en) Dynamic augmented reality interface creation
KR102596841B1 (en) Electronic device and method for providing one or more items responding to speech of user
KR102719934B1 (en) System and method for modifying voice recognition result
US11705110B2 (en) Electronic device and controlling the electronic device
US11404050B2 (en) Electronic apparatus and method for controlling thereof
US11386304B2 (en) Electronic device and method of controlling the same
CN113076397A (en) Intention recognition method and device, electronic equipment and storage medium
KR102857236B1 (en) Electronic apparatus and method for controlling thereof
KR20220040997A (en) Electronic apparatus and control method thereof
US9077813B2 (en) Masking mobile message content
KR20220089537A (en) An electronic apparatus and Method for controlling electronic apparatus thereof
KR102858207B1 (en) Electronic device and operating method for performing speech recognition
US12080289B2 (en) Electronic apparatus, system comprising electronic apparatus and server and controlling method thereof
US20230196001A1 (en) Sentence conversion techniques
US12159628B1 (en) Natural language interactions with interactive visual content
US20250118299A1 (en) Context Aware Notifications
KR20220090294A (en) Electronic apparatus, system comprising server and controlling method thereof

Legal Events

Date Code Title Description
PA0109 Patent application

St.27 status event code: A-0-1-A10-A12-nap-PA0109

P22-X000 Classification modified

St.27 status event code: A-2-2-P10-P22-nap-X000

P22-X000 Classification modified

St.27 status event code: A-2-2-P10-P22-nap-X000

PG1501 Laying open of application

St.27 status event code: A-1-1-Q10-Q12-nap-PG1501

E13-X000 Pre-grant limitation requested

St.27 status event code: A-2-3-E10-E13-lim-X000

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

PA0201 Request for examination

St.27 status event code: A-1-2-D10-D11-exm-PA0201

P22-X000 Classification modified

St.27 status event code: A-2-2-P10-P22-nap-X000

P22-X000 Classification modified

St.27 status event code: A-2-2-P10-P22-nap-X000

D13-X000 Search requested

St.27 status event code: A-1-2-D10-D13-srh-X000

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

St.27 status event code: A-1-2-D10-D22-exm-PE0701

PR0701 Registration of establishment

St.27 status event code: A-2-4-F10-F11-exm-PR0701

PR1002 Payment of registration fee

St.27 status event code: A-2-2-U10-U11-oth-PR1002

Fee payment year number: 1

PG1601 Publication of registration

St.27 status event code: A-4-4-Q10-Q13-nap-PG1601