JP2014013569A - ディスプレイ装置、対話型システム及び応答情報提供方法 - Google Patents
ディスプレイ装置、対話型システム及び応答情報提供方法 Download PDFInfo
- Publication number
- JP2014013569A JP2014013569A JP2013139935A JP2013139935A JP2014013569A JP 2014013569 A JP2014013569 A JP 2014013569A JP 2013139935 A JP2013139935 A JP 2013139935A JP 2013139935 A JP2013139935 A JP 2013139935A JP 2014013569 A JP2014013569 A JP 2014013569A
- Authority
- JP
- Japan
- Prior art keywords
- user
- response
- server
- received
- user voice
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/44—Receiver circuitry for the reception of television signals according to analogue transmission standards
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/951—Indexing; Web crawling techniques
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/30—Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/233—Processing of audio elementary streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/239—Interfacing the upstream path of the transmission network, e.g. prioritizing client content requests
- H04N21/2393—Interfacing the upstream path of the transmission network, e.g. prioritizing client content requests involving handling client requests
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42203—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/478—Supplemental services, e.g. displaying phone caller identification, shopping application
- H04N21/4788—Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/482—End-user interface for program selection
- H04N21/4828—End-user interface for program selection for searching program descriptors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/16—Analogue secrecy systems; Analogue subscription systems
- H04N7/173—Analogue secrecy systems; Analogue subscription systems with two-way working, e.g. subscriber sending a programme selection signal
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H60/00—Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
- H04H60/68—Systems specially adapted for using specific information, e.g. geographical or meteorological information
- H04H60/72—Systems specially adapted for using specific information, e.g. geographical or meteorological information using electronic programme guides [EPG]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/60—Network streaming of media packets
- H04L65/61—Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio
- H04L65/611—Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio for multicast or broadcast
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/02—Protocols based on web technology, e.g. hypertext transfer protocol [HTTP]
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Information Transfer Between Computers (AREA)
- User Interface Of Digital Computer (AREA)
- Selective Calling Equipment (AREA)
- Telephonic Communication Services (AREA)
Abstract
【課題】 本発明の目的とするところは、ディスプレイ装置からユーザの多様な発話音声に対して、より的確な応答情報を提供することができるためのディスプレイ装置、対話型システム及び応答情報提供方法を提供することにある。
【解決手段】 ディスプレイ装置、対話型システム及び応答情報提供方法が開示される。本発明に係るディスプレイ装置は、ユーザ音声を収集するための音声収集部と、対話型サーバと通信を行う通信部と、対話型サーバに伝送されたユーザ音声に対応する応答情報が対話型サーバから受信されると、応答情報に対応する機能を実行するように制御する制御部とを含み、制御部は、ウェブサーチ及びソーシャルネットワークサービスを通じて、ユーザ音声に関連した代替応答情報を受信するように通信部を制御する。それにより、ディスプレイ装置は、ユーザの多様なユーザ音声に適した応答情報を提供することができる。
【選択図】 図1
【解決手段】 ディスプレイ装置、対話型システム及び応答情報提供方法が開示される。本発明に係るディスプレイ装置は、ユーザ音声を収集するための音声収集部と、対話型サーバと通信を行う通信部と、対話型サーバに伝送されたユーザ音声に対応する応答情報が対話型サーバから受信されると、応答情報に対応する機能を実行するように制御する制御部とを含み、制御部は、ウェブサーチ及びソーシャルネットワークサービスを通じて、ユーザ音声に関連した代替応答情報を受信するように通信部を制御する。それにより、ディスプレイ装置は、ユーザの多様なユーザ音声に適した応答情報を提供することができる。
【選択図】 図1
Description
本発明は、ディスプレイ装置、対話型システム及び応答情報提供方法に関し、より詳細には、ユーザの発話音声に対応する応答情報を提供するためのディスプレイ装置、対話型システム及び応答情報提供方法に関する。
一般的に、音声認識が可能なディスプレイ装置は、ユーザが実行しようとするユーザの発話音声を収集し、その収集した発話音声をネットワークを通じて接続された外部サーバに伝送する。その後、ディスプレイ装置は、外部サーバからディスプレイ装置で認識可能な形態に変換されたユーザの発話音声関連の情報を受信し、その受信した発話音声関連の情報を分析し、ユーザの発話音声に対する意味を把握する。その後、ディスプレイ装置は、意味把握された結果に基づいて、ユーザの発話音声に対応する機能を実行し、必要に応じて、ユーザの発話音声に対するガイドメッセージを出力する。
しかし、このような従来のディスプレイ装置は、ユーザの発話音声に対応する機能を実行するうえで、極めて制限的であるだけでなく、単にユーザの発話音声に対応する機能を実行したり、回避する程度の機能のみを行う。
具体的に、ディスプレイ装置は、ユーザからの要求に応じて、音声認識モードにシフトすると、ユーザの発話音声に通じてディスプレイ装置の動作を制御できる命令語を画面上にディスプレイする。よって、ユーザは、画面上にディスプレイされたディスプレイ装置の動作制御に関連した命令語を参照し、自分の望む機能に対する動作を音声で命令することができる。
すなわち、従来のディスプレイ装置は、予め設定された命令語に基づいて、ユーザの発話音声に対応する動作を行うか、或いは、発話音声に対する再要求のみを行うだけで、ユーザの多様な発話音声に対して異なる応答情報を提供することができないという問題があった。
よって、このような問題点を解消すべく、ディスプレイ装置はユーザから発話音声に関連した情報を受信し、ウェブサーチを通じてユーザから入力された情報に基づいて、ユーザの要求に対する応答情報を提供する方法が模索されている。しかし、このような方法も、ユーザが要求した質問に対する的確な応答情報を提供することができないという問題があった。
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、ディスプレイ装置からユーザの多様な発話音声に対して、より的確な応答情報を提供することができるようにすることにある。
以上のような目的を達成するための本発明の一実施形態に係るディスプレイ装置は、ユーザ音声を収集するための音声収集部と、対話型サーバと通信を行う通信部と、対話型サーバに伝送された前記ユーザ音声に対応する応答情報が前記対話型サーバから受信されると、前記応答情報に対応する機能を実行するように制御する制御部とを含み、前記制御部は、ウェブサーチ及びソーシャルネットワークサービスを通じて、前記ユーザ音声に関連した代替応答情報を受信するように前記通信部を制御する。
そして、出力部を更に含み、前記制御部は、前記対話型サーバから前記ユーザ音声に対応する前記応答情報に対する提供不可メッセージとともに前記ユーザ音声内に含まれた発話要素が受信されると、前記ウェブサーチ及び前記ソーシャルネットワークサービスを通じて、前記発話要素に関連した代替応答情報を受信して出力するように前記出力部を制御してよい。
なお、前記制御部は、前記ウェブサーチを行うためのユーザ命令が受信されると、前記発話要素に基づいたウェブサーチに対する結果を受信して出力するように制御してよい。
そして、前記制御部は、前記ソーシャルネットワークサービスに対するユーザ命令が受信されると、前記発話要素に基づいた応答要求メッセージを生成し、前記ソーシャルネットワークサービスを提供するSNS(Social Network Service)サーバに伝送し、前記SNSサーバから前記応答要求メッセージに対応する応答メッセージを受信して出力してよい。
なお、前記制御部は、ユーザ命令に応じて、前記ユーザのSNSアカウントに前記応答要求メッセージを伝送し、前記ユーザのSNSアカウントと連動するSNSアカウントから前記応答メッセージを受信して出力してよい。
そして、前記制御部は、ユーザ命令に応じて、前記ユーザのSNSアカウントと連動するSNSアカウントの中から選択されたSNSアカウントに前記応答要求メッセージを伝送し、前記選択されたSNSアカウントから前記応答メッセージを受信して出力してよい。
なお、前記制御部は、ユーザ命令に応じて、予め設定された共用SNSアカウントに前記応答要求メッセージを伝送し、前記共用SNSアカウントと連動するSNSアカウントから前記応答メッセージを受信して出力してよい。
そして、前記制御部は、前記応答メッセージが受信されると、前記応答メッセージ受信を報知する報知情報を出力するように制御してよい。
なお、前記対話型サーバは、前記収集されたユーザ音声をテキスト情報に変換する第1サーバ及び前記テキスト情報に変換されたユーザ音声に対応する応答情報を生成する第2サーバを含み、前記制御部は、前記収集されたユーザ音声をデジタル信号に変換して前記第1サーバに伝送し、前記第1サーバから前記ユーザ音声に対するテキスト情報が受信されると、前記テキスト情報を前記第2サーバに伝送し、前記ユーザ音声に対応する応答情報を受信してよい。
そして、前記第2サーバは、前記ユーザ音声内にEPG関連の発話要素または前記ディスプレイ装置の機能制御関連の発話要素が含まれた場合、前記第2サーバから受信した応答情報に基づいて、前記ユーザ音声に対応する応答メッセージ出力及び機能実行のうち、少なくとも一方の機能を実行してよい。
一方、本発明の一実施形態に係るディスプレイ装置からユーザ音声に適した応答情報を提供する方法において、前記方法は、ユーザ音声を収集するステップと、前記収集されたユーザ音声を対話型サーバに伝送するステップと、前記対話型サーバから前記ユーザ音声に対応する応答情報が受信されるかをチェックするステップと、前記チェックの結果、前記ユーザ音声に対応する応答情報が受信されると、前記応答情報に対応する機能を実行するステップとを含み、前記機能を実行するステップは、ウェブサーチ及びソーシャルネットワークサービスを通じて、前記ユーザ音声に関連した代替応答情報を受信して出力する。
そして、前記機能を実行するステップは、前記対話型サーバから前記応答情報に対する提供不可メッセージとともに前記ユーザ音声内に含まれた発話要素が受信されると、前記ウェブサーチ及び前記ソーシャルネットワークサービスを通じて、前記発話要素に関連した代替応答情報を受信して出力してよい。
なお、前記機能を実行するステップは、前記ウェブサーチを行うためのユーザ命令が受信されると、前記発話要素に基づいたウェブサーチに対する結果を受信して出力してよい。
そして、前記機能を実行するステップは、前記ソーシャルネットワークサービスに対するユーザ命令が受信されると、前記発話要素に基づいた応答要求メッセージを生成し、前記ソーシャルネットワークサービスを提供するSNS(Social Network Service)サーバに伝送し、前記SNSサーバから前記応答要求メッセージに対応する応答メッセージを受信して出力してよい。
なお、前記機能を実行するステップは、ユーザ命令に応じて、前記ユーザのSNSアカウントに前記応答要求メッセージを伝送し、前記ユーザのSNSアカウントと連動するSNSアカウントから前記応答メッセージを受信して出力してよい。
そして、前記機能を実行するステップは、ユーザ命令に応じて、前記ユーザのSNSアカウントと連動するSNSアカウントの中から選択されたSNSアカウントに前記応答要求メッセージを伝送し、前記選択されたSNSアカウントから前記応答メッセージを受信して出力してよい。
なお、前記機能を実行するステップは、ユーザ命令に応じて、予め設定された共用SNSアカウントに前記応答要求メッセージを伝送し、前記共用SNSアカウントと連動するSNSアカウントから前記応答メッセージを受信して出力してよい。
そして、前記機能を実行するステップは、前記応答メッセージが受信されると、前記応答メッセージ受信を報知する報知情報を出力してよい。
なお、前記対話型サーバは、前記収集されたユーザ音声をテキスト情報に変換する第1サーバ及び前記テキスト情報に変換されたユーザ音声に対応する応答情報を生成する第2サーバを含み、前記伝送するステップは、前記ユーザ音声に対するデジタル信号で前記第1サーバに伝送するステップと、前記第1サーバから前記ユーザ音声に対するテキスト情報を受信するステップと、前記受信したテキスト情報を前記第2サーバに伝送するステップと、前記第2サーバから前記ユーザ音声に対応する応答情報を受信するステップとを含む。
そして、前記機能を実行するステップは、前記ユーザ音声内にEPG関連の発話要素または前記ディスプレイ装置の機能制御関連の発話要素が含まれた場合、前記第2サーバから受信した応答情報に基づいて、前記ユーザ音声に対応する応答メッセージ出力及び機能実行のうち、少なくとも一方の機能を実行してよい。
一方、本発明の一実施形態に係るユーザ音声に適した応答情報を提供する対話型システムにおいて、前記対話型システムは前記ユーザ音声を認識し、前記認識されたユーザ音声に対応する機能を実行するディスプレイ装置と、前記ディスプレイ装置からユーザ音声が受信されると、前記ユーザ音声をテキスト情報に変換し、前記変換されたテキスト情報を分析し、前記ユーザ音声に対応する応答情報を前記ディスプレイ装置に伝送する対話型サーバとを含み、前記ディスプレイ装置は、前記対話型サーバから受信した応答情報に対応する機能を実行するか、ウェブサーチまたはソーシャルネットワークサービスサーバを通じて受信された代替応答情報に基づいて前記ユーザ音声に関連した機能を実行する。
以上説明したように、本発明によれば、ディスプレイ装置は、ユーザの多様なユーザ音声が入力されるとしても、それぞれのユーザ音声に対して、より的確な応答情報を提供することができるようになる。
以下に添付図面を参照しながら、本発明の好適な実施形態について詳細に説明する。
図1は、本発明の一実施形態に係るユーザ音声に適した応答情報を提供する対話型システムのブロック図である。
同図に示すように、本発明の一実施形態に係る対話型システムは、ディスプレイ装置100と、対話型サーバ200と、ウェブサーバ300及びSNSサーバ400を含む。ディスプレイ装置100は、インターネット及びユーザ音声認識が可能な装置として、スマートテレビや、スマートフォンのような携帯電話や、デスクトップパソコン、ノートパソコン、ナビゲーション等のような多様な電子装置で実現されてよい。このようなディスプレイ装置100は、ユーザからユーザ音声を認識し、認識されたユーザ音声に対応する機能を実行する。具体的に、ディスプレイ装置100は、ユーザからユーザ音声が入力されると、入力されたユーザ音声をデジタル信号に変換し、対話型サーバ200に伝送する。その後、ディスプレイ装置100は、対話型サーバ200からユーザ音声に対応する応答情報が受信されると、受信した応答情報に基づいて、ユーザ音声に対応する機能を実行する。更に、ディスプレイ装置100は、ウェブサーバ300及びSNS(Social Network Service)サーバ400を介して受信された代替応答情報に基づいて、ユーザ音声に関連した機能を実行する。
対話型サーバ200は、ディスプレイ装置100と連動してディスプレイ装置100からユーザ音声が受信されると、受信されたユーザ音声をテキスト情報に変換し、その変換されたテキスト情報を分析し、ディスプレイ装置100から受信したユーザ音声に対応する応答情報をディスプレイ装置100に伝送する。このような対話型サーバ200は、第1サーバ10及び第2サーバで構成され、第1サーバ10は、ディスプレイ装置100から受信したユーザ音声をテキスト情報に変換し、テキスト情報に変換されたユーザ音声をディスプレイ装置100に伝送する。そして、第2サーバ20は、ディスプレイ装置100からテキスト情報に変換されたユーザ音声が受信されると、受信したテキスト情報を分析し、ユーザ音声に対応する応答情報を生成してディスプレイ装置100に伝送する。
本明細書では、対話型サーバ200が、第1及び第2サーバ10、20を介してユーザ音声に対応する応答情報を生成し、ディスプレイ装置100に伝送するものとして説明したが、それは本発明の一実施形態に過ぎず、実現方法に応じて、対話型サーバ200は単一サーバであってよい。単一の対話型サーバ200の場合、後述の第1サーバ10及び第2サーバ20の動作を全て行うため、以下では、単一の対話型サーバ200に対する詳細な説明は省略する。
上述のように、ディスプレイ装置100に代替応答情報を提供するウェブサーバ300はインターネットを通じて接続したディスプレイ装置100からの要求によるウェブサーチ結果情報を提供するサーバである。そして、SNSサーバ400は、ウェブ上でユーザ間の人的ネットワークを形成することができるように、TwitterやFacebookといったソーシャルネットワークサービス(以下、SNSという)を提供するサーバとして、このようなSNSを通じてユーザ間の情報共有及びコミュニティができる。
以下では、上述の対話型システムの各構成を通じてユーザ音声に適した応答情報を提供する動作について概略に説明する。
ディスプレイ装置100は、ユーザから音声が入力されると、入力されたユーザ音声を収集し、それに対応する機能を実行する。例えば、ディスプレイ装置100は、チャネル変更のためのユーザ音声が入力されると、当該チャネルを選局してディスプレイすることができる。この場合、ディスプレイ装置100は、当該機能に対応する応答メッセージを併せて提供することもできる。上述の例の場合、ディスプレイ装置100は、変更されたチャネルに対する情報を音声またはテキスト形態の映像で出力することができる。なお、ディスプレイ装置100は、特定番組の放送時間を問い合わせるユーザ音声が入力されると、当該番組の放送時間を音声またはテキスト形態の映像で出力することができる。
そのために、ディスプレイ装置100は、収集されたユーザ音声をデジタル信号に変換し、第1サーバ10に伝送する。それにより、第1サーバ10は、ディスプレイ装置100から受信したユーザ音声に対する特定パターンに応じて、ユーザ音声に対するテキスト情報を生成し、ディスプレイ装置100に伝送する。ユーザ音声からテキスト情報を生成する技術は、公知となっている技術であるため、本発明では詳細な発明を省略する。
第1サーバ10からユーザ音声に対するテキスト情報を受信したディスプレイ装置100は、ユーザ音声に対するテキスト情報を第2サーバ20に伝送する。それにより、第2サーバ20は、ディスプレイ装置100から受信したユーザ音声に対するテキスト情報に対する意味を分析し、ディスプレイ装置100の機能を制御するための応答情報を生成できるか否かを判断する。
具体的に、第2サーバ20は、ユーザ音声に対するテキスト情報から発話要素を抽出し、その抽出された発話要素に基づいて、ユーザ音声に関連した応答情報生成が可能かを判断する。ここで、応答情報は、ユーザ音声に対応する機能を実行するための情報として、ディスプレイ装置100の機能実行を制御するための制御命令及び応答メッセージのうち、少なくとも一つを含んでよい。なお、発話要素は、ユーザ音声内でユーザが要求した機能を実行するためのコアキーワードであってよい。このような発話要素は、対話作用(dialogue act)、主作用(main action)及び構成要素(component slot)を含んでよい。
ここで、対話作用は、ユーザ音声に対応する発話行為の力(Illocutionary force)を示すラベルとして、例えば、叙述(statement)、要求(Request)、質問(Question)等であってよい。主作用は、ユーザ音声から実際のユーザの意図を示すラベルを指すものとして、テレビオン/オフ、番組検索、番組時間検索、番組予約等であってよい。そして、構成要素は、ジャンル、番組名、時間、チャネル名、俳優名前等であってよい。
例えば、“○○○(放送番組名)は何時から始まる?”というユーザ音声の場合、対話作用は“る?”という質問であってよく、主作用は“始ま”という番組時間の検索であってよい。そして、構成要素は“○○○(放送番組名)”という番組名であってよい。
よって、第2サーバ20は、“○○○(放送番組名)は何時から始まる?”というユーザ音声が受信されると、その受信されたユーザ音声から対話作用、主作用及び構成要素を含む発話要素を抽出することができる。このように、ユーザ音声から発話要素が抽出されると、第2サーバ20は抽出した発話要素に基づいてユーザ音声に対応する機能を実行するための応答情報生成が可能か否かを判断することができる。
判断の結果、ユーザ音声に対応する機能を実行するための応答情報生成が可能である場合、第2サーバ20は、ユーザ音声に対応する機能を実行するための応答情報を生成し、ディスプレイ装置100に伝送する。
上述の例において、“○○○(放送番組名)は何時から始まる?”というユーザ音声に対する発話要素が抽出されると、第2サーバ20は抽出する発話要素に基づいて、当該番組が始める放送時間情報に対する応答情報を生成し、ディスプレイ装置100に伝送する。それにより、ディスプレイ装置100は、受信した応答情報に基づいて、“○○○(放送番組名)は7時から放送が始まります”という応答メッセージを応答またはテキスト形態の映像で出力することができる。
一方、判断の結果、ユーザ音声に対応する機能を実行するための応答情報生成が不可の場合、第2サーバ20はユーザ音声に対する提供不可メッセージを生成し、ディスプレイ装置100に伝送することができる。
例えば、“○○○(放送番組名)の新しい司会者は誰?”というユーザ音声に対するテキスト情報が受信されると、第2サーバ20は、“○○○(放送番組名)”、“新しい”、“司会者”、“誰”という発話要素を抽出することができる。このような発話要素が抽出されると、第2サーバ20は、抽出した発話要素に基づいて予め保存されたEPG情報から○○○(放送番組名)に対する新しい司会者に関する情報があるかをチェックする。チェックの結果、予め保存されたEPG情報から○○○(放送番組名)に対する新しい司会者関連の情報の獲得ができない場合、第2サーバ20は、ユーザ音声に対する提供不可メッセージをディスプレイ装置100に伝送する。よって、ディスプレイ装置100は、第2サーバ20から受信した提供不可メッセージに基づいて、“見つけられない情報です”といったガイドメッセージを音声及びテキスト形態の映像のうち、少なくとも一方を通じて出力することができる。同時に、ディスプレイ装置100は、第2サーバ20からユーザ音声に対する提供不可メッセージが受信されると、音声及びテキスト形態の映像のうち、少なくとも一方を通じて、“ウェブサーチまたはソーシャルネットワークサービスで提供を受けますか?”というような代替情報提供メッセージを出力する。
このような代替情報提供メッセージが出力された状態で、ユーザからウェブサーチを行うためのユーザ命令が入力されると、ディスプレイ装置100は、第2サーバ200から抽出された発話要素に基づいたウェブサーチ結果をウェブサーバ300から受信し、音声及び映像のうち少なくとも一方を通じて出力する。一実施形態により、ディスプレイ装置100は第2サーバ20からユーザ音声に対する提供不可メッセージとともに、ユーザ音声から抽出された発話要素を受信することができる。よって、ディスプレイ装置100は、ウェブサーチを行うためのユーザ命令が入力されると、第2サーバ20から受信された発話要素に基づいてウェブサーバ300からウェブサーチの結果を受信することができる。
更に別の実施形態により、ディスプレイ装置100はユーザからウェブサーチを行うための検索キーワードを受信し、その受信された検索キーワードに基づいてウェブサーバ300からウェブサーチの結果を受信することができる。
一方、ユーザからSNSに対するユーザ命令が受信されると、ディスプレイ装置100は第2サーバ20から抽出された発話要素に基づいた応答要求メッセージを生成する。一実施形態により、ディスプレイ装置100は、第2サーバ20からユーザ音声に対する提供不可メッセージとともに、ユーザ音声から抽出された発話要素を受信することができる。よって、ディスプレイ装置100は、SNSに対するユーザ命令が受信されると、第2サーバ20から受信した発話要素に基づいて応答要求メッセージを生成することができる。更に別の実施形態により、ディスプレイ装置100はユーザから入力されたデータに基づいて応答要求メッセージを生成することができる。
このような応答要求メッセージが生成されると、ディスプレイ装置100は生成された応答要求メッセージをSNSサーバ400に伝送する。それにより、SNSサーバ400は、応答要求メッセージを伝送したユーザのSNSアカウントと連動するSNSアカウントまたは連動するSNSアカウントのうち、ユーザから選択されたSNSアカウントから応答要求メッセージに関連した応答メッセージを受信し、ディスプレイ装置100に伝送する。一方、SNSサーバ400は、応答要求メッセージを伝送したユーザのSNSアカウントがない場合、予め設定された共用SNSアカウントと連動する共用SNSアカウントから応答要求メッセージに関連した応答メッセージを受信し、ディスプレイ装置100に伝送することができる。よって、ディスプレイ装置100は、SNSサーバ400から受信した応答メッセージを音声及びテキスト形態の映像のうち、少なくとも一方を通じて出力する。
このように、本発明に係る対話型システムは、ユーザ音声に対応する応答情報提供が不可の場合、ウェブサーチ及びSNSを用いてユーザ音声に関連した代替応答情報をユーザに提供することで、ユーザ音声に対する応答情報提供の失敗確率を最小限化することができる。
これまで、本発明の一実施形態に係る対話型システムからユーザ音声に適した応答情報を提供する動作について、概略に説明してきた。以下では、本発明に係る対話型システムからユーザ音声に適した応答情報を提供する方法について、概略に説明する。
図2は、本発明の一実施形態に係る対話型システムからユーザ音声に適した応答情報を提供する方法のシーケンス図である。
同図に示すように、ディスプレイ装置100は、ユーザから発話されたユーザ音声が入力されると、入力されたユーザ音声を収集する。その後、ディスプレイ装置100は、収集されたユーザ音声をデジタル信号に変換し、デジタル信号に変換されたユーザ音声を第1サーバに伝送する(S210、S220)。それにより、第1サーバ10は、ディスプレイ装置100からデジタル信号に変換されたユーザ音声をテキスト情報を生成した後、生成されたテキスト情報をディスプレイ装置100に伝送する(S230、S240)。その後、ディスプレイ装置100は、第1サーバ10から受信したテキスト情報を第2サーバ20に伝送する(S250)。ディスプレイ装置100からテキスト情報に変換されたユーザ音声を受信した第2サーバ20は、受信したテキスト情報から発話要素を抽出する(S260)。第2サーバ20において、ユーザ音声に対するテキスト情報から発話要素を抽出する動作は、図1を参照に説明しているため、省略する。
このような発話要素が抽出されると、第2サーバ20は抽出した発話要素に基づいて、ユーザ音声に対応する機能を実行するための応答情報またはユーザ音声に対応する応答情報に対する提供不可メッセージを生成した後、生成された応答情報または提供不可メッセージをディスプレイ装置100に伝送する(S270)。第2サーバ20から応答情報または提供不可メッセージを受信するディスプレイ装置100は、ユーザ音声に対応する応答情報が受信されると、受信した応答情報に基づいてユーザ音声に対応する機能を実行する。
実施形態により、第2サーバ20は、ユーザ音声に対するテキスト情報から抽出された発話要素が予め保存されたEPG情報に関連した発話要素か、或いは、ディスプレイ装置100の制御命令に関連した発話要素かを判断する。判断の結果、抽出された発話要素が予め保存されたEPG情報に関連した発話要素か、或いは、ディスプレイ装置100の制御命令に関連した発話要素である場合、第2サーバ20はユーザ音声に対応する応答情報を生成し、ディスプレイ装置100に伝送する。それにより、ディスプレイ装置100は、受信した応答情報に基づいて、ユーザ音声に対応する応答メッセージ出力及び機能実行のうち、少なくとも一方の機能を実行する。
一方、判断の結果、抽出された発話要素が予め保存されたEGP情報に関連した発話要素か、或いは、ディスプレイ装置100の制御命令に関連した発話要素ではない場合、第2サーバ20は、ユーザ音声に対応する応答情報に対する提供不可メッセージを生成し、ディスプレイ装置100に伝送する。それにより、ディスプレイ装置100は、第2サーバ20から受信した提供不可メッセージに基づいて、“見つけられない情報です”といったガイドメッセージを音声及びテキスト形態の映像のうち、少なくとも一方を通じて出力する。同時に、ディスプレイ装置100は、第2サーバ20からユーザ音声に対する提供不可メッセージが受信されると、音声及びテキスト形態の映像のうち少なくとも一方を通じて“ウェブサーチまたはソーシャルネットワークサービスで提供を受けますか?”といった代替情報提供メッセージを出力する。その後、ユーザから選択されたユーザ命令に応じて、ウェブサーバ300またはSNSサーバ400を介してユーザ音声に関連した代替応答情報を受信し、音声及び映像のうち少なくとも一方を通じて出力する。
以下では、対話型システムでからディスプレイ装置100を介してユーザ音声に関連した代替応答情報を提供する方法について説明する。
図3は、本発明の一実施形態に係る対話型システムからユーザ音声に関連した代替応答情報を提供する方法のシーケンス図である。
上述のように、ディスプレイ装置100は、第2サーバ20からユーザ音声に対する提供不可メッセージが受信されると、“見つけられない情報です”といった提供不可メッセージを音声およびテキスト形態の映像のうち、少なくとも一方を通じて出力する。その後、ディスプレイ装置100は、音声及びテキスト形態の映像のうち、少なくとも一方を通じて“ウェブサーチまたはソーシャルネットサービスで提供を受けますか?”といった代替情報提供メッセージを出力する。このような代替情報提供メッセージが出力されている状態で、ディスプレイ装置100はユーザからウェブサーチを行うためのユーザ命令、或いは、SNSに対するユーザ命令が入力されるかを判断する(S310)。判断の結果、ユーザ命令がウェブサーチを行うための命令である場合、ディスプレイ装置100は、ウェブサーバ300にユーザ音声から抽出された発話要素に基づいたウェブサーチを要求し、それによるウェブサーチ結果情報を受信する(S320、S330)。
一実施形態によって、ディスプレイ装置100は、第2サーバ20からユーザ音声に対する提供不可メッセージとともに、ユーザ音声から抽出された発話要素を受信することができる。よって、ディスプレイ装置100は、ウェブサーチを行うためのユーザ命令が入力されると、第2サーバ20から受信した発話要素に基づいて、ウェブサーバ300からウェブサーチ結果情報を受信することができる。更に別の実施形態により、ディスプレイ装置100は、ユーザからウェブサーチを行うための検索キーワードを入力され、その入力された検索キーワードに基づいてウェブサーバ300からウェブサーチ結果を受信することができる。このようなウェブサーチ結果情報がウェブサーバ300から受信されると、ディスプレイ装置100は、受信したウェブサーチ結果情報を音声または映像で出力する(S340)。
一方、ステップS310において、ユーザ命令がSNSに対する命令であると判断されると、ディスプレイ装置100はユーザ音声から抽出された発話要素に基づいた応答要求メッセージを生成し、SNSサーバ400に伝送する(S350)。
一実施形態により、ディスプレイ装置100は第2サーバ20からユーザ音声に対する提供不可メッセージとともに、ユーザ音声から抽出された発話要素を受信することができる。よって、ディスプレイ装置100は、SNSに対するユーザ命令が受信されると、第2サーバ20から受信した発話要素に基づいて応答要求メッセージを生成することができる。更に別の実施形態により、ディスプレイ装置100はユーザから入力されたデータに基づいて、応答要求メッセージを生成することができる。
このような応答要求メッセージが生成されると、ディスプレイ装置100は生成された応答要求メッセージをSNSサーバ400に伝送する。それにより、SNSサーバ400は、応答要求メッセージを伝送したユーザのSNSアカウントと連動するSNSアカウントまたは連動するSNSアカウントのうち、ユーザから選択されたSNSアカウントから応答要求メッセージに関連した応答メッセージをディスプレイ装置100に伝送する(S360)。一方、SNSサーバ400は、応答要求メッセージを伝送したユーザのSNSアカウントがない場合、予め設定された共用SNSアカウントと連動する共用SNSアカウントから、応答要求メッセージに関連した応答メッセージを受信することができる。よって、ディスプレイ装置100は、SNSサーバ400から受信した応答メッセージを音声及びテキスト形態の映像のうち、少なくとも一方を通じて出力することができる(S370)。
以下では、ユーザ音声に適した応答情報を提供するディスプレイ装置100の各構成について詳細に説明する。
図4は、本発明の一実施形態に係るディスプレイ装置のブロック図である。
同図に示すように、ディスプレイ装置100は、通信部110と、音声収集部120と、制御部130と、出力部140及び保存部150を含む。
通信部110は、ユーザ音声に適した応答情報を提供する対話型サーバ200と通信を行う。具体的に、通信部110は、多様な通信方式によって、対話型サーバ200の第1サーバ10及び第2サーバ20と通信を行い、ユーザ音声に対応する応答情報を受信することができる。そのために、通信部110は、近距離無線通信モジュール(図示せず)、無線通信モジュール(図示せず)等のような多様な通信モジュールを含んでよい。ここで、近距離無線通信モジュール(図示せず)は、近距離に位置する外部機器と無線通信を行う無線モジュールとして、例えば、ブルートゥースやZigbee(登録商標)等であってよい。無線通信モジュール(図示せず)は、WiFi、IEEE等のような無線通信プロトコルによって外部ネットワークに接続して通信を行うモジュールである。その他に、無線通信モジュールは、3G(3rd Generation)、3GPP(3rd Generation Partnership Project)、LTE(Long Term Evolution)等のような多様な移動通信規格によって移動通信網に接続し、通信を行う移動通信モジュールを更に含んでよい。
音声収集部120は、収集されたユーザ音声を処理し、ユーザ音声信号を生成する。すなわち、音声収集部120は、収集されたユーザ音声からノイズ(例えば、エアコンの音、掃除機の音、音楽の音等)を取り除いて、ユーザ音声信号を生成することができる。具体的に、音声収集部120は、アナログ形態のユーザ音声が入力されると、入力されたユーザ音声をサンプリングしてデジタル信号に変換する。このとき、音声収集部120は、デジタル信号に変換されたユーザ音声にノイズがあるかを判断し、ノイズがある場合、変換されたデジタル信号から当該ノイズを取り除くことが望ましい。このように、音声収集部120を介してユーザ音声がデジタル信号に変換されると、通信部110は、デジタル信号に変換されたユーザ音声を第1サーバ10に伝送する。ここで、第1サーバ10は、ユーザ音声をテキスト情報として生成するサーバである。
よって、通信部110は、音声収集部120を介してユーザ音声がデジタル信号に変換されると、変換されたデジタル信号を第1サーバ10に伝送し、第1サーバ10はデジタル信号に変換されたユーザ音声をテキスト情報として生成してディスプレイ装置100に伝送する。その後、通信部110は、第1サーバ10からテキスト情報に変換されたユーザ音声が受信されると、テキスト情報に変換されたユーザ音声を第2サーバ20に伝送する。
制御部130は、第2サーバ20からテキスト情報に変換されたユーザ音声に対応する応答情報が受信されると、受信した応答情報に基づいてユーザ音声に対応する機能を実行するように制御する。具体的に、制御部130は、ユーザ音声が入力されると、音声収集部120を介してユーザ音声をデジタル信号に変換する。その後、制御部130は、通信部110を介してデジタル信号に変換されたユーザ音声を第1サーバ10に伝送し、第1サーバ10からユーザ音声に対するテキスト情報を受信する。第1サーバ10からユーザ音声に対するテキスト情報が受信されると、制御部130は、通信部110を介してテキスト情報に変換されたユーザ音声を第2サーバ20に伝送し、ユーザ音声に対応する応答情報を受信することができる。
一方、制御部130は、第2サーバ20からユーザ音声に対応する応答情報に対する提供不可メッセージが受信されると、ウェブサーチ及びSNSのうち少なくとも一つを通じて、ユーザ音声に関連した代替応答情報を受信するように通信部110を制御することができる。
出力部140は、音声及び映像のうち少なくとも一方を出力する。具体的に、出力部140は、第2サーバ20からユーザ音声に対応する応答情報が受信されたり、または、ウェブサーバ300及びSNSサーバ400のうち、少なくとも一方から代替応答情報が受信されると、制御部130の制御命令に応じて、受信された応答情報または代替応答情報に基づいて、ユーザ音声に対する応答メッセージを音声またはテキスト形態の映像で出力することができる。そのために、出力部140は、ディスプレイ部141及びオーディオ出力部143を備えてよい。
具体的に、ディスプレイ部141は、液晶表示装置(Liquid Crystal Display:LCD)、有機電気発光ダイオード(Organic Light Emitting Display:OLED)またはプラズマ表示パネル(Plasma Display Panel:PDP)等で実現され、ディスプレイ装置100を介して提供可能な多様なディスプレイ画面を提供することができる。特に、ディスプレイ部141は、ユーザ音声に対応する応答メッセージがテキストまたはイメージ形態でディスプレイすることができる。ここで、ディスプレイ部141は、タッチパッドとともに相互レイヤ構造をなすタッチスクリーン形態で実現されてよく、タッチスクリーンはタッチ入力位置、面積、タッチ入力の圧力までも検出するように構成されてよい。
一方、オーディオ出力部143は、スピーカまたはジャック等のような出力ポートで実現され、ユーザ音声に対する応答メッセージを音声形態で出力することができる。
一方、上述のように、第2サーバ20から受信される応答情報は、ユーザ音声から抽出された発話要素に基づいて分類された機能によって、異なる形態で生成されることが望ましい。ここで、抽出された発話要素に基づいて分類される機能は、EPG関連機能及びディスプレイ装置100の機能制御に関連した機能のうち、少なくとも一つを含んでよい。例えば、ユーザ音声から抽出される発話要素が放送番組に関連した発話要素である場合、EPG関連機能であってよく、ディスプレイ装置100の電源オン/オフ、チャネル変更、音量変更等に関連する発話要素である場合、ディスプレイ装置100の機能制御に関連した機能であってよい。よって、制御部130は、このような応答情報が第2サーバ20から受信されると、その受信された応答情報に基づいてユーザ音声に対応する機能を実行するように制御することができる。
例えば、ユーザから“今日放送される○○○(放送番組名)録画して”というユーザ音声が入力されると、制御部130は、音声収集部120を介して“今日放送される○○○(放送番組名)録画して”というユーザ音声をデジタル信号に変換し、第1サーバ10に伝送する。その後、第1サーバ10から“今日放送される○○○(放送番組名)録画して”ユーザ音声に対するテキスト情報を受信されると、制御部130は、“今日放送される○○○(放送番組名)録画して”というユーザ音声に対する情報を第2サーバ20に伝送する。
それにより、第2サーバ20は、受信した“今日放送される○○○(放送番組名)録画して”というユーザ音声に対するテキスト情報から“今日”、“○○○(放送番組名)”、“録画”という発話要素を抽出し、抽出した発話要素に基づいてEPG関連機能であると判断する。その後、第2サーバ20は、○○○(放送番組名)に対する予約録画に対する制御命令と、“○○○(放送番組名)に対する録画が予約されました”という応答メッセージを含む応答情報をディスプレイ装置100側に伝送する。よって、制御部130は、第2サーバ20から受信した応答情報に含まれた制御命令に従って、○○○(放送番組名)に対する予約録画を設定する。そして、制御部130は、受信した応答情報に含まれた応答メッセージに基づいて、“○○○(放送番組名)に対する録画が予約されました”という応答メッセージを映像及び音声のうち、少なくとも一方を通じて出力するように出力部140を制御する。
このような制御命令に応じて、出力部140はディスプレイ部141及びオーディオ出力部143のうち、少なくとも一方を介して“○○○(放送番組名)に対する録画が予約されました”という応答メッセージを音声またはテキスト形態の映像で出力する。
一方、制御部130は、ユーザからEPG関連の機能またはディスプレイ装置100の機能を制御するための機能に関連しないユーザ音声を入力されてよい。例えば、ユーザから悪口或いは禁止薬物のような制限された発話要素を含むユーザ音声が入力されると、制御部130は、入力されたユーザ音声に対するテキスト情報を第1サーバ10から受信し、それを第2サーバ20に伝送する。このようなユーザ音声に対するテキスト情報から発話要素が抽出されると、第2サーバ20は抽出された発話要素が予め保存された制限された発話要素であるかをチェックする。チェックの結果、抽出された発話要素が悪口或いは禁止薬物のような制限された発話要素であると、第2サーバ20はユーザ音声に対する提供不可メッセージを生成し、ディスプレイ装置100に伝送する。よって、制御部130は、受信した提供不可メッセージに基づいて、“機能を実行することができません”或いは“制限された音声です。再入力してください”といったガイドメッセージを音声及びテキスト形態の映像のうち、少なくとも一方を通じて出力するように出力部140を制御する。
しかし、本発明は、それに限定されるものではなく、制御部130は、ユーザから悪口或いは禁止薬物に関連するユーザ音声が入力されると、保存部150に予め保存された発話要素関連テーブルを参照し、ユーザ音声に対する機能実行関連有無を判断することができる。ここで、保存部150は、予め保存された発話要素関連テーブルは、ユーザ音声に対応する機能を制限するために、ユーザから予め設定されて保存されたテーブルである。よって、制御部130は、ユーザによって予め設定された発話要素関連テーブルを参照し、ユーザ音声に対する機能実行関連有無を判断することができる。
一方、別の例として、ユーザから“○○○(放送番組名)の新しい司会者は誰?”というユーザ音声が入力されると、制御部130は、第1サーバ10から“○○○(放送番組名)の新しい司会者は誰?”というユーザ音声に対するテキスト情報を第2サーバ20に伝送する。このようなユーザ音声に対するテキスト情報を受信した第2サーバ20は、“○○○(放送番組名)の司会者がノホンチョルから誰に代わったの?”というユーザ音声に対するテキスト情報から“○○○(放送番組名)”、“司会者”、“ノホンチョル”、“誰”、“代わった”という発話要素を抽出することができる。このような発話要素が抽出されると、第2サーバ20は抽出した発話要素に基づいて予め保存されたEPG情報から○○○(放送番組名)に対する新しい司会者関連情報があるかをチェックする。チェックの結果、予め保存されたEPG情報から○○○(放送番組名)に対する新しい司会者関連情報獲得が不可であると、第2サーバ20はユーザ音声に対する提供不可メッセージをディスプレイ装置100に伝送する。
このような提供不可メッセージが受信されると、制御部130は、受信した提供不可メッセージに基づいて、“見つめられない情報です”といったガイドメッセージを音声及びテキスト形態の映像のうち、少なくとも一方を通じて出力するように出力部140を制御する。同時に、制御部130は、第2サーバ20からユーザ音声に対する提供不可メッセージが受信されると、音声及びテキスト形態の映像のうち、少なくとも一方を通じて“ウェブサーチまたはソーシャルネットワークサービスの提供を受けますか?”というような代替情報提供メッセージを生成する。その後、制御部130は、生成された代替情報提供メッセージが音声及び映像のうち、少なくとも一方を通じて出力されるように出力部140を制御する。
図5は、本発明の一実施形態に係るディスプレイ装置から代替情報提供メッセージを出力する例示図である。
同図に示すように、出力部140は、制御部130の制御命令に応じて、ディスプレイ部141を介して代替情報提供メッセージを出力することができる。すなわち、ディスプレイ部141は、画面上に“(○○○(放送番組名)、ノホンチョル)をウェブ検索しますか?”というウェブサーチ関連の第1代替情報提供メッセージ510及び“登録されたSNS友達に聞いていますか?”というSNS関連の第2代替情報提供メッセージ520をテキスト形態で出力することができる。そして、音声出力部143は、スピーカ(図示せず)を通じて“(○○○(放送番組名)、ノホンチョル)をウェブ検索しますか?”というウェブサーチ関連の第1代替情報提供メッセージ510及び“登録されたSNS友達に聞いていますか?”というSNS関連の第2代替情報提供メッセージ520を可聴音形態の音声で出力することができる。
具体的に、第2サーバ20は、ユーザ音声に対する提供不可メッセージとともに、ユーザ音声から抽出された発話要素のうち、主要名詞または客体関連発話要素のみをディスプレイ装置100に伝送する。よって、制御部130は、第2サーバ20から受信した主要名詞または客体に基づいて代替の第1及び第2情報提供メッセージ510、520を生成し、その生成された第1及び第2代替情報提供メッセージ510、520が音声または映像で出力されるように出力部140を制御する。よって、出力部140は、ディスプレイ部141及び音声出力部143のうち、少なくとも一方を介して第1及び第2代替情報提供メッセージ510、520を映像または音声で出力することができる。
このような代替情報提供メッセージが出力された状態で、代替情報提供に関連するユーザ命令が受信されると、制御部130は、ウェブサーバ300及びSNSサーバ400のうち、少なくとも一方を介してユーザ音声に関連する代替応答情報を受信して出力するように、出力部140を制御することができる。
具体的に、ユーザからウェブサーチを行うためのユーザ命令が受信されると、制御部130は、第2サーバ20から受信した主要名詞または客体関連発話要素に基づいてウェブサーバ300からウェブサーチ結果情報を受信する。このようなウェブサーチ結果情報が受信されると、出力部140は、制御部130の制御命令に応じて、ディスプレイ部141及び音声出力部143のうち、少なくとも一方を介してウェブサーチ結果情報を映像または音声で出力する。
一方、ユーザからSNSに対するユーザ命令が受信されると、制御部130は、第2サーバ20から受信した主要名詞または客体関連発話要素に基づいて、応答要求メッセージを生成する。その後、制御部130は、通信部110を介してSNSを提供するSNSサーバ400に応答要求メッセージを伝送し、SNSサーバ400から応答請求メッセージに関連する応答眼セージを受信する。一実施形態により、制御部130は、ユーザのSNSアカウントに応答要求メッセージをSNSサーバ400に伝送し、SNSサーバ400からユーザのSNSアカウントと連動するSNSアカウントから応答要求メッセージに関連する応答メッセージを受信することができる。
更に別の実施形態により、制御部130は、ユーザのSNSアカウントと連動するSNSアカウントのうち、ユーザから選択されたSNSアカウントから応答要求メッセージに関連する応答メッセージを受信することができる。具体的に、制御部130は、ユーザのSNSアカウントと連動するSNSアカウントのうち、ユーザから選択されたSNSアカウントがある場合、SNSサーバ400にユーザから選択されたSNSアカウントに応答要求メッセージを伝送するように要求することができる。それにより、SNSサーバ400は、ユーザから選択されたSNSアカウントに応答要求メッセージを伝送し、当該SNSアカウントから応答要求メッセージに関連する応答メッセージが受信されると、それをディスプレイ装置100に伝送する。よって、制御部130は、ユーザから選択されたSNSアカウントから応答要求メッセージに関連する応答メッセージを受信することができる。
図6は、本発明の一実施形態に係るディスプレイ装置からSNSを通じてユーザ音声に関連した応答メッセージを提供する例示図である。
同図に示すように、出力部140は、制御部130の制御命令に応じて、ディスプレイ部141を介してSNSサーバ400から受信した応答メッセージをテキスト形態の映像で出力することができる。具体的に、制御部130は、SNSサーバ400を介してユーザのSNSアカウントと連動する複数のSNSアカウントのうち、第1ユーザ及び第2ユーザのSNSアカウントから応答メッセージを受信することができる。第1ユーザ及び第2ユーザのSNSアカウントから応答メッセージが受信されると、出力部140は、制御部130の制御命令に応じて、ディスプレイ部141及び音声出力部143のいずれか一方を介して、第1ユーザ及び第2ユーザのSNSアカウントから受信した応答メッセージを出力する。
図示のように、第1ユーザのSNSアカウントから“ノホンチョルが降りたの?”という応答メッセージがSNSサーバ400を介して受信されると、ディスプレイ部143は、画面上に“送信者:第1ユーザ”と“ノホンチョルが降りたの?”という第1応答メッセージ620を出力する。そして、第2ユーザのSNSアカウントから“知らない…”という応答メッセージがSNSサーバ400を介して受信されると、ディスプレイ部143は画面上に“送信者:第2ユーザ”と“知らない…”という第2応答メッセージ630を出力する。
一方、制御部130は、ユーザがSNSアカウントがない場合、予め設定された共用SNSアカウントと連動するSNSアカウントから応答要求メッセージに関連する応答メッセージを受信することができる。具体的に、SNSサーバ400に伝送される応答要求メッセージは、ユーザのSNSアカウント登録を識別するためのユーザ情報が含まれてよい。よって、このような応答要求メッセージが受信されると、SNSサーバ400は、受信した応答要求メッセージに含まれたユーザ情報を参照し、当該ユーザのSNSアカウントが登録されているかをチェックする。チェックの結果、ユーザのSNSアカウントが登録されていないとチェックされると、SNSサーバ400は予め設定された共用SNSアカウントに共用SNSアカウントと連動するSNSアカウントに応答要求メッセージを伝送し、連動するSNSアカウントから応答要求メッセージに関連する応答メッセージが受信されると、それをディスプレイ装置100に伝送する。
それにより、出力部140は、制御部130の制御命令に応じて、ディスプレイ部141を介してSNSサーバ400から受信した応答メッセージをテキスト形態の映像で出力することができる。すなわち、ディスプレイ部141は、図6に示すように、画面上に“送信者:サムスン”と“ギルとパクウンヨンだよ”という第3応答メッセージ630を出力する。
一方、制御部130は、SNSサーバ400を介してユーザのSNSアカウントと連動したり、共用SNSアカウントと連動するSNSアカウントから応答メッセージが受信されると、応答メッセージ受信を報知する報知情報が出力されると、出力部140を制御することができる。よって、出力部140は、制御部130の制御命令に応じて、音声出力部143を介して応答メッセージ受信を報知する報知情報を音声で出力することができる。
しかし、本発明はそれに限定されるものではなく、制御部130は、SNSサーバ400を介してユーザのSNSアカウントと連動したり、共用SNSアカウントと連動するSNSアカウントから応答メッセージが受信されると、受信した応答メッセージをハイライト処理して出力されるように、出力部140を制御することができる。よって、出力部140は、制御部130の制御命令に応じて、ディスプレイ部141を介して画面上に映像で出力される応答メッセージのうち、現在受信された応答メッセージにハイライト処理して出力することができる。
一方、図6において、ディスプレイ部141は、SNSサーバ400を介してユーザのSNSアカウントと連動したり、共用SNSアカウントと連動するSNSアカウントから応答メッセージを受信する間、画面の上段に“応答待ち”という表示ウィンドウ610をディスプレイする。このような表示ウィンドウ610がディスプレイされる間、ディスプレイ部141は、SNSサーバ400を介してユーザのSNSアカウントと連動したり、共用SNSアカウントと連動するSNSアカウントから応答メッセージを受信することができる。
一方、画面に出力された応答メッセージのうち、ユーザの望む応答メッセージが出力されると、ユーザは応答メッセージ受信を中断することができる。このようなユーザ命令が受信されると、制御部130はSNSに対する受信中断要求メッセージを生成し、その生成された受信中断要求メッセージをSNSサーバ400に伝送する。よって、SNSサーバ400は、受信中断要求メッセージを受信した時点からユーザのSNSアカウントと連動したり、共用SNSアカウントと連動するSNSアカウントから受信した応答メッセージに対する伝送を終了する。
以下では、上述のディスプレイ装置100の細部構成について、より詳細に説明する。
図7は、本発明の一実施形態に係るディスプレイ装置の細部構成を説明するためのブロック図である。
同図に示すように、ディスプレイ装置100は、図4に示す構成要素の他に、撮影部160と、入力部170と、受信部180及び信号処理部190を更に含んでよい。図6に示す構成要素のうち、図5に示す構成要素と重複する構成要素はその機能が同様であるため、詳細な説明は省略する。
撮影部160は、ユーザの顔を撮影して顔イメージを生成する。なお、上述の保存部150は、ユーザの顔イメージ及びユーザ情報をマッチさせて保存することができる。よって、撮影部160を介して撮影されたユーザの顔イメージが生成されると、制御部130は生成された顔イメージにマッチするユーザ情報を保存部150から獲得し、その獲得したユーザ情報及びユーザ音声に対するテキスト情報を第2サーバ20に伝送することができる。
よって、第2サーバ20は、受信したユーザ音声に対するテキスト情報から抽出した発話要素が制限された発話要素である場合、受信したユーザ情報に基づいて、ユーザ音声に対応する応答情報の生成有無を判断する。その後、第2サーバ20は、判断の結果に応じて、ユーザ音声に対応する応答情報を生成したり、ユーザ音声に対応する応答情報に対する提供不可メッセージを生成してディスプレイ装置100に伝送する。よって、制御部130は、上述のように、第2サーバ20から受信したユーザ音声に対応する応答情報に基づいて機能を実行したり、または、応答情報に対する提供不可メッセージに基づいて、“制限された音声です。再入力してください”といったガイドメッセージを音声及び映像のうち、少なくとも一方を通じて出力するように出力部140を制御することができる。
入力部170は、多様なユーザ操作を受信して制御部130に伝達するための入力手段として、入力パネルで実現されてよい。ここで、入力パネルは、タッチパッド(Touch Pad)或いは各種機能キー、数字キー、文字キー等を備えたキーパッド(Key Pad)またはタッチスクリーン(Touch Screen)方式で構成されてよい。更に、入力部170は、ディスプレイ装置100を制御するためのリモコンで伝送されるリモコン信号を受信するためのIR受信部(図示せず)で実現されてよい。
このような入力部170は、ディスプレイ装置100の製品種類に応じて、ディスプレイ装置100の機能を制御するための各種ユーザ操作を受信することができる。例えば、ディスプレイ装置100が、スマートテレビで実現される場合、入力部170は電源オン/オフ、チャネル変更、音量変更等、スマートテレビの機能を制御するためのユーザ操作を受信することができる。このようなユーザ操作が、入力部170を介して入力されると、制御部130は、入力部170を介して入力されたユーザ操作に対応する各種機能を実行するように、別の構成要素を制御することができる。例えば、制御部130は、電源オフ命令が入力されると、ディスプレイ装置100の各構成要素に供給される電源を遮断することができ、チャネル変更が入力されると、ユーザ操作に応じて選択されたチャネルを選局するように、受信部180を制御することができる。
更に、入力部170には、ユーザの音声を収集するための音声認識モードを開始するためのユーザ命令が入力される。このような音声認識モードを開始するためのユーザ命令が入力部150を介して入力されると、制御部130は音声収集部120を活性化して予め設定された距離内で発話されるユーザ音声を収集することができる。
上述の保存部150は、ディスプレイ装置100を動作させるために必要な各種プログラム等が保存される保存媒体として、メモリ、HDD(Hard Disk Drive)等で実現可能である。例えば、保存部150は、制御部130の動作実行のためのプログラムを保存するためのROM、制御部130の動作実行によるデータを一時的に保存するためのROM等を備えてよい。なお、各種参照データを保存するためのEEROM(Electrically Erasable and Programmable ROM)等を更に備えてよい。
特に、保存部150は、ユーザ音声に適した多様な応答メッセージを音声またはテキスト情報で保存していてよい。それにより、制御部130は、ユーザ音声に適した応答メッセージに対する音声情報またはテキスト情報を保存部150から読み取り、ディスプレイ部141及びオーディオ出力部143のうち、少なくとも一方を介して出力することができる。具体的に、ユーザ音声に適した応答メッセージを音声形態で出力する場合、制御部130は、保存部150から読み取られた音声情報をデコード等の信号処理を行い、デコードされた音声データを増幅してオーディオ出力部143を介して出力することができる。なお、ユーザ音声に適した応答メッセージをテキスト形態で出力する場合、制御部130は、保存部150から読み取られたテキスト情報をデコード等の信号処理を行い、テキスト情報を構成するテキストが含まれるように、UI画面を構成してディスプレイ部141を介して出力することができる。
しかし、本発明はそれに限定されずに、制御部130は、第2サーバ20から受信した応答情報に含まれた応答メッセージを上述の処理動作を行い、ディスプレイ部141及びオーディオ出力部143のうち、少なくとも一方を介してテキスト関連映像または音声で出力することができる。
受信部180は、放送ネットワークを通じて放送番組関連コンテンツを受信する。具体的に、受信部180は、放送ネットワークを通じて放送番組関連コンテンツを伝送する放送局またはインターネットを通じてコンテンツファイルを伝送するウェブサーバからコンテンツを受信することができる。なお、ディスプレイ装置100内に設けられたり、ディスプレイ装置100に接続された各種記録媒体再生装置からコンテンツを受信することもできる。ここで、記録媒体再生装置とは、CD、DVD、ハードディスク、ブルーレイディスク、メモリカード、USBメモリ等のような多様な記録媒体に保存されたコンテンツを再生する装置を意味する。
放送局からコンテンツを受信する場合、受信部180は、チューナ(図示せず)、復調器(図示せず)、等化器(図示せず)等のような構成を含む形態で実現されてよい。一方、ウェブサーバのようなソース機器からコンテンツを受信する場合、受信部180は、ネットワークインターフェースカード(図示せず)で実現されてよい。または、上述の各種記録媒体装置からコンテンツを受信する実施形態の場合、受信部180は、記録媒体再生装置と接続されたインターフェース部(図示せず)で実現されてよい。このように、受信部180は、実施形態により多様な形態で実現されてよい。
信号処理部190は、受信部180を介して受信されたコンテンツが出力部140を介して出力できるようにコンテンツに対する信号処理を行う。具体的に、信号処理部190は、コンテンツに含まれたビデオ信号がディスプレイ部141から出力可能な形態で出力されるように、当該ビデオ信号に対してデコード、スケーリング及びフレームレート変換等の信号処理を行う。なお、信号処理部180は、コンテンツに含まれたオーディオ信号がオーディオ出力部143を介して出力可能な形態で出力されるように当該オーディオ信号に対してデコード等の信号処理を行う。それにより、ディスプレイ部141及びオーディオ出力部143は、信号処理部190によって信号処理されたコンテンツに含まれたビデオ及びオーディオ信号を出力することができる。
これまで、本発明に係るディスプレイ装置100において、第1及び第2サーバ10、20を含む対話型サーバ200を介してユーザ音声に適した応答情報を受信し、それによる機能を実行する動作について詳細に説明してきた。以下では、本発明に係る対話型サーバ200の第2サーバ10からディスプレイ装置100を介して受信したユーザ音声に適した応答情報を生成し、ディスプレイ装置100に伝送する動作について詳細に説明する。
図8は、本発明の一実施形態に係る対話型サーバのブロック図である。
同図において説明する対話型サーバは、上述の第2サーバとして、第1サーバ10を介してテキスト情報に変換されたユーザ音声をディスプレイ装置100から受信し、その受信されたユーザ音声に対するテキスト情報から発話要素を抽出し、ユーザ音声に適した応答情報をディスプレイ装置100に伝送するサーバである。このような対話型サーバは、通信部810と、抽出部820と、保存部830及び制御部840を含む。
通信部810は、ディスプレイ装置100と通信を行い、抽出部820は、通信部810を介してディスプレイ装置100から受信したユーザ音声から発話要素を抽出する。上述のように、抽出部820は、ユーザ音声に対するテキスト情報が受信されると、受信したテキスト情報から対話作用、主作用及び構成要素を含む発話要素を抽出することができる。発話要素に対する具体的な説明は、既に詳細に説明しているため、以下では詳細な説明は省略する。
保存部830は、ユーザ音声別の談話履歴情報を記録及びEPG情報を保存している。制御部840は、抽出部820を介して抽出されたユーザ音声に対する発話要素に応じて分類された機能に基づいて、ユーザ音声に対応する応答情報を異なる形態で生成し、ディスプレイ装置100に伝送する。ここで、発話要素に応じて分類される機能は、EPG関連機能及びディスプレイ装置100の制御機能のうち、少なくとも一方を含んでよい。よって、制御部840は、ユーザ音声から抽出された発話要素に応じて、ユーザ音声がEPGに関連するものか、それとも、ディスプレイ装置100の機能を制御するためのものかを判断し、その判断の結果に応じて、ユーザ音声に対応する応答情報を生成することができる。
実施形態に応じて、ユーザ音声から抽出された発話要素がEPG関連発話要素である場合、制御部840は保存部830に予め保存されたEPG情報に基づいて、ユーザ音声に対応するEPG情報提供が可能か否かを判断することができる。判断の結果、EPG情報提供が可能である場合、制御部840はEPG情報に基づいてユーザ音声に対応する応答情報を生成する。
例えば、“今週放送の○○○(放送番組名)を録画して!”というユーザ音声の場合、抽出部840は、“今週”、“○○○(放送番組名)”、“録画”、“して”という発話要素を抽出することができる。このような発話要素が抽出されると、制御部840は、保存部830に保存されたEPG情報から○○○(放送番組名)に対する番組情報及び開始時間情報を獲得することができる。よって、制御部840は、予め獲得した番組情報及び開始時間情報に基づいて、○○○(放送番組名)に対する予約録画関連制御命令及び保存部830に予め保存された談話履歴情報に基づいて生成された応答メッセージを含む応答情報を生成することができる。このようなユーザ音声に対応する応答情報が生成されると、制御部840は、通信部810を介してディスプレイ装置100に伝送する。よって、ディスプレイ装置100は、受信した応答情報に基づいてユーザ音声に対応する応答メッセージ出力及び機能実行のうち、少なくとも一方の機能を実行することができる。
一方、判断の結果、EPG情報提供ができない場合、制御部840はユーザ音声に対応する応答情報に対する提供不可メッセージを生成する。
例えば、“○○○(放送番組名)に出てる主人公って誰?”というユーザ音声の場合、抽出部820は“○○○(放送番組名)”、“主人公”、“誰”という発話要素を抽出することができる。このような発話要素が抽出されると、制御部840は、保存部830に保存されたEPG情報から○○○(放送番組名)に対する主人公情報があるかをチェックする。チェックの結果、予め保存されたEPG情報から○○○(放送番組名)に対する主人公情報の獲得ができない場合、制御部840は、ユーザ音声に対応する応答情報に対する提供不可メッセージを生成することができる。
応答情報に対する提供不可メッセージ生成に関連する更に別の例として、制御部740は、ユーザ音声から抽出された発話要素が悪口、禁止薬物等のような制限された禁止単語である場合、制御部840はユーザ音声に対応する応答情報に対する提供不可メッセージを生成することができる。
このように、ユーザ音声に対応する応答情報またはユーザ音声に対応する応答情報に対する提供不可メッセージが生成されると、制御部840は、通信部810を介してディスプレイ装置100に伝送する。同時に、制御部840はユーザ音声から抽出された発話要素のうち、主要名詞または客体関連発話要素をディスプレイ装置100に伝送することができる。それにより、ディスプレイ装置100は、受信した発話要素に基づいたウェブサーチ結果情報及び応答メッセージのうち、少なくとも一方をウェブサーバ及びSNSサーバ400を介して受信して、音声及び映像のいずれか一方で出力することができる。
これまで、本発明に係るユーザ音声に適した応答情報を提供する対話型サーバの各構成について詳細に説明してきた。以下では、上述のディスプレイ装置でユーザ音声に適した応答情報に基づいて機能を実行する方法について詳細に説明する。
図9は、本発明の一実施形態に係るディスプレイ装置からユーザ音声に適した応答情報を提供されるための方法のフローチャートである。
ディスプレイ装置は、ユーザから音声認識モードを開始するためのユーザ命令が入力されると、入力されたユーザ命令に応じて、ユーザの音声を認識できる音声認識モードにシフトする(S910)。このような音声認識モードにシフトした状態で、ディスプレイ装置は、ユーザからユーザ音声を受信する。ユーザ音声が受信されると、ディスプレイ装置はユーザからユーザ音声を収集し、その収集されたユーザ音声をデジタル信号に変換する(S920、S930)。その後、ディスプレイ装置は、デジタル信号に変換されたユーザ音声を第1サーバに伝送する(S940)。ここで、第1サーバは、デジタル信号に変換されたユーザ音声をテキスト情報に変換するサーバであってよい。このような第1サーバからユーザ音声に対するテキスト情報が受信されると、ディスプレイ装置は受信したユーザ音声に対するテキスト情報を第2サーバに伝送する(S950)。ここで、第2サーバは、ユーザ音声から抽出された発話要素に応じてユーザ音声に適した応答情報を生成するサーバであってよい。
このような対話型サーバからユーザ音声に対応する応答情報が受信されると、ディスプレイ装置は受信した応答情報に基づいて、ユーザ音声に対応する機能を実行する(S960)。ここで、応答情報は、ユーザ音声から抽出された発話要素に基づいて分類された機能に応じて異なる形態で生成されることが望ましい。なお、抽出された発話要素に基づいて分類される機能は、EPG関連機能及びディスプレイ装置の機能制御に関連する機能のうち、少なくとも一方を含んでよい。例えば、ユーザ音声から抽出された発話要素が放送番組に関連する発話要素であると、EPG関連機能であってよく、ディスプレイ装置の電源オン/オフ、チャネル変更、音量変更等に関連する発話要素であると、ディスプレイ装置の機能制御に関連する機能であってよい。よって、ディスプレイ装置は、このような応答情報が第2サーバから受信されると、その受信された応答情報に含まれた応答メッセージを音声または映像で出力することができる。さらに、ディスプレイ装置は、第2サーバから受信した応答情報に含まれた制御命令に応じて、ディスプレイ装置の機能実行に対する機能を実行することができる。
一方、ディスプレイ装置は、ユーザ音声から抽出された発話要素に基づいて、ユーザ音声に対応する応答情報に対する実行不可メッセージが受信されると、ウェブサーチ及びSNSのうち、少なくとも一方を通じて代替応答情報を受信して、映像及び音声で出力する。
図10は、本発明の一実施形態に係るディスプレイ装置からユーザ音声に関連した代替応答情報を提供されるための方法のフローチャートである。
同図に示すように、ディスプレイ装置は第2サーバ20からユーザ音声に対応する応答情報が受信されるかをチェックする(S1010)。チェックの結果、第2サーバ20からユーザ音声に対応する応答情報が受信されると、ディスプレイ装置は、上述のように、受信した応答情報に基づいて応答メッセージを音声及び映像のうち、少なくとも一方を通じて出力したり、ディスプレイ装置の機能実行に対する機能を実行する(S1020)。
一方、チェックの結果、第2サーバ20からユーザ音声に対応する応答情報に対する提供不可メッセージが受信されると、ディスプレイ装置は受信された提供不可メッセージに基づいて、“機能を実行することができません。”或いは“制限された音声です。再入力してください。”といったガイドメッセージを音声及びテキスト形態の映像のうち、少なくとも一方を通じて出力する(S1030)。このようなメッセージを出力した後、ディスプレイ装置はウェブサーチ及びSNSのうち、少なくとも一方を通じて代替情報を提供するために、代替情報メッセージを音声及び映像のうち、少なくとも一方を通じて出力する。
具体的に、図5を参照して説明したように、第2サーバ20から受信された提供不可メッセージに基づいてガイドメッセージを出力したディスプレイ装置は、画面上に“(○○○(番組名)、ノホンチョル)をウェブ検索しますか?”というウェブサーバ関連の第1代替情報提供メッセージ510及び“登録されたSNS友達に聞いてみますか?”というSNS関連の第2代替情報提供メッセージ520をテキスト形態で出力することができる。そして、音声出力部143は、スピーカ(図示せず)を通じて“(○○○(番組名)、ノホンチョル)をウェブ検索しますか?”というウェブサーチ関連の第1代替情報提供メッセージ510及び“登録されたSNS友達に聞いてみますか?”というSNS関連の第2代替情報提供メッセージ520を可聴音形態の音声で出力することができる。
このような代替情報提供メッセージが出力された状態で、ディスプレイ装置はユーザから代替情報提供に関連したユーザ命令が受信されるかをチェックする(S1040)。チェックの結果、ユーザからウェブサーチを行うためのユーザ命令が受信されると、ディスプレイ装置は第2サーバ20から受信した主要名詞または客体関連発話要素に基づいて、ウェブサーバ300からウェブサーチ結果情報を受信し、映像及び音声のうち少なくとも一方を通じて出力する(S1050)。
一方、ステップS1040でユーザからSNSに対するユーザ命令が受信されるとチェックされると、ディスプレイ装置は第2サーバ20から受信した主要名詞または客体関連発話要素に基づいて応答要求メッセージを生成する。その後、ディスプレイ装置は、SNSを提供するSNSサーバ400に応答要求メッセージを伝送する。それにより、ディスプレイ装置は、SNSサーバ400から応答要求メッセージに関連する応答メッセージを受信し、受信した応答メッセージを映像及び音声のうち、少なくとも一方を通じて出力する(S1060)。
一実施形態により、ディスプレイ装置は、ユーザのSNSアカウントに応答要求メッセージをSNSサーバ400に伝送し、SNSサーバ400からユーザのSNSアカウントと連動するSNSアカウントから応答要求メッセージに関連する応答メッセージを受信することができる。
更に別の実施形態により、ディスプレイ装置はユーザのSNSアカウントと連動するSNSアカウントのうち、ユーザから選択されたSNSアカウントから応答要求メッセージに関連する応答メッセージを受信することができる。具体的に、ディスプレイ装置は、ユーザのSNSアカウントと連動するSNSアカウントのうち、ユーザから選択されたSNSアカウントがある場合、SNSサーバ400にユーザから選択されたSNSアカウントに応答要求メッセージを伝送するように要求することができる。それにより、SNSサーバ400は、ユーザから選択されたSNSアカウントに応答要求メッセージを伝送し、当該SNSアカウントから応答要求メッセージに関連する応答メッセージが受信されると、それをディスプレイ装置100に伝送する。よって、ディスプレイ装置は、ユーザから選択されたSNSアカウントから応答要求メッセージに関連する応答メッセージを受信することができる。
このように、ディスプレイ装置は、ユーザのSNSアカウントと連動するSNSアカウントのうち、少なくとも一つのSNSアカウントから応答要求メッセージに関連した応答メッセージが受信されると、図6のように、画面上に受信した応答メッセージを出力することができる。具体的に、図6において説明したように、ディスプレイ装置はSNSサーバ400を介してユーザのSNSアカウントと連動する複数のSNSアカウントのうち、第1ユーザ及び第2ユーザのSNSアカウントから応答メッセージを受信することができる。すなわち、第1ユーザのSNSアカウントから“ノホンチョルが降りたの?”という応答メッセージが受信されてよく、第2ユーザのSNSアカウントから“知らない…”という応答メッセージが受信されてよい。
よって、ディスプレイ装置は、画面上に“送信者:第1ユーザ”と“ノホンチョルが降りたの?”という第1応答メッセージ620を出力し、“送信者:第2ユーザ”と“知らない…”という第2応答メッセージ630を出力することができる。
一方、ディスプレイ装置は、ユーザがSNSアカウントがない場合、予め設定された共用SNSアカウントと連動するSNSアカウントから応答要求メッセージに関連する応答メッセージを受信することができる。具体的に、SNSサーバ400に伝送される応答要求メッセージは、SNSアカウント登録を識別するためのユーザ情報が含まれてよい。よって、SNSサーバ400は、ディスプレイ装置から応答要求メッセージが受信されると、受信した応答要求メッセージに含まれたユーザ情報を参照し、当該ユーザのSNSアカウントが登録されているかをチェックする。チェックの結果、ユーザのSNSアカウントが登録されていないとチェックされると、SNSサーバ400は予め設定された共用SNSアカウントに共用SNSアカウントと連動するSNSアカウントに応答要求メッセージを伝送する。その後、応答要求メッセージを伝送したSNSアカウントから応答メッセージが受信されると、SNSサーバ400は受信した応答メッセージをディスプレイ装置に伝送する。
このように、共用SNSアカウントを通じて応答要求メッセージを伝送し、それによる応答メッセージを受信する場合、ディスプレイ装置は、図6において説明したように、画面上に“送信者:サムスン”と“ギルとパクウンヨンだよ”という第3応答メッセージ630を出力する。
このように、SNSサーバ400を介してユーザのSNSアカウントと連動したり、共用SNSアカウントと連動するSNSアカウントから応答メッセージが受信されると、ディスプレイ装置は受信された応答メッセージを画面上に出力するだけでなく、応答メッセージが受信されたことを報知する報知情報を音声で出力することができる。更に、ディスプレイ装置は、SNSサーバ400を介してユーザのSNSアカウントと連動したり、共用SNSアカウントと連動するSNSアカウントから応答メッセージが受信されると、受信された応答メッセージをハイライト処理して出力することができる。
このように、ユーザ命令に応じて、SNSを通じてユーザ音声に関連する応答メッセージを受信するディスプレイ装置は、応答メッセージ受信中断に関連するユーザ命令が受信されると、SNSに対する受信中断要求メッセージを生成してSNSサーバ400に伝送する。よって、SNSサーバ400は、受信中断要求メッセージを受信した時点からユーザのSNSアカウントと連動したり、共用SNSアカウントと連動するSNSアカウントから受信された応答メッセージに対する伝送を終了する。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明は以上の実施形態に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的趣旨の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
10 第1サーバ
20 第2サーバ
100 ディスプレイ装置
110、810 通信部
120 音声収集部
130、840 制御部
140 出力部
141 ディスプレイ部
143 オーディオ出力部
150、830 保存部
160 撮影部
170 入力部
180 受信部
190 信号処理部
200 対話型サーバ
300 ウェブサーバ
400 SNSサーバ
510 第1代替情報提供メッセージ
520 第2代替情報提供メッセージ
610 表示ウィンドウ
620 第1応答メッセージ
630 第2応答メッセージ
820 抽出部
20 第2サーバ
100 ディスプレイ装置
110、810 通信部
120 音声収集部
130、840 制御部
140 出力部
141 ディスプレイ部
143 オーディオ出力部
150、830 保存部
160 撮影部
170 入力部
180 受信部
190 信号処理部
200 対話型サーバ
300 ウェブサーバ
400 SNSサーバ
510 第1代替情報提供メッセージ
520 第2代替情報提供メッセージ
610 表示ウィンドウ
620 第1応答メッセージ
630 第2応答メッセージ
820 抽出部
Claims (15)
- ユーザ音声を収集するための音声収集部と、
対話型サーバと通信を行う通信部と、
前記対話型サーバに伝送された前記ユーザ音声に対応する応答情報が前記対話型サーバから受信されると、前記応答情報に対応する機能を実行するように制御する制御部と
を含み、
前記制御部は、
ウェブサーチ及びソーシャルネットワークサービスを通じて、前記ユーザ音声に関連した代替応答情報を受信するように前記通信部を制御することを特徴とするディスプレイ装置。 - 出力部を更に含み、
前記制御部は、
前記対話型サーバから前記ユーザ音声に対応する前記応答情報に対する提供不可メッセージとともに前記ユーザ音声内に含まれた発話要素が受信されると、前記ウェブサーチ及び前記ソーシャルネットワークサービスを通じて、前記発話要素に関連した代替応答情報を受信して出力するように前記出力部を制御することを特徴とする請求項1に記載のディスプレイ装置。 - 前記制御部は、
前記ウェブサーチを行うためのユーザ命令が受信されると、前記発話要素に基づいたウェブサーチに対する結果を受信して出力するように制御することを特徴とする請求項2に記載のディスプレイ装置。 - 前記制御部は、
前記ソーシャルネットワークサービスに対するユーザ命令が受信されると、前記発話要素に基づいた応答要求メッセージを生成し、前記ソーシャルネットワークサービスを提供するSNS(Social Network Service)サーバに伝送し、前記SNSサーバから前記応答要求メッセージに対応する応答メッセージを受信して出力することを特徴とする請求項2に記載のディスプレイ装置。 - 前記制御部は、
ユーザ命令に応じて、前記ユーザのSNSアカウントに前記応答要求メッセージを伝送し、前記ユーザのSNSアカウントと連動するSNSアカウントから前記応答メッセージを受信して出力することを特徴とする請求項4に記載のディスプレイ装置。 - 前記制御部は、
ユーザ命令に応じて、前記ユーザのSNSアカウントと連動するSNSアカウントの中から選択されたSNSアカウントに前記応答要求メッセージを伝送し、前記選択されたSNSアカウントから前記応答メッセージを受信して出力することを特徴とする請求項4に記載のディスプレイ装置。 - 前記制御部は、
ユーザ命令に応じて、予め設定された共用SNSアカウントに前記応答要求メッセージを伝送し、前記共用SNSアカウントと連動するSNSアカウントから前記応答メッセージを受信して出力することを特徴とする請求項4に記載のディスプレイ装置。 - 前記制御部は、
前記応答メッセージが受信されると、前記応答メッセージ受信を報知する報知情報を出力するように制御することを特徴とする請求項4に記載のディスプレイ装置。 - 前記対話型サーバは、
前記収集されたユーザ音声をテキスト情報に変換する第1サーバ及び前記テキスト情報に変換されたユーザ音声に対応する応答情報を生成する第2サーバを含み、
前記制御部は、
前記収集されたユーザ音声をデジタル信号に変換して前記第1サーバに伝送し、前記第1サーバから前記ユーザ音声に対するテキスト情報が受信されると、前記テキスト情報を前記第2サーバに伝送し、前記ユーザ音声に対応する応答情報を受信することを特徴とする請求項1に記載のディスプレイ装置。 - 前記第2サーバは、
前記ユーザ音声内にEPG関連の発話要素または前記ディスプレイ装置の機能制御関連の発話要素が含まれた場合、前記第2サーバから受信した応答情報に基づいて、前記ユーザ音声に対応する応答メッセージ出力及び機能実行のうち、少なくとも一方の機能を実行することを特徴とする請求項9に記載のディスプレイ装置。 - ディスプレイ装置からユーザ音声に適した応答情報を提供する方法において、
ユーザ音声を収集するステップと、
前記収集されたユーザ音声を対話型サーバに伝送するステップと、
前記対話型サーバから前記ユーザ音声に対応する応答情報が受信されるかをチェックするステップと、
前記チェックの結果、前記ユーザ音声に対応する応答情報が受信されると、前記応答情報に対応する機能を実行するステップと
を含み、
前記機能を実行するステップは、
ウェブサーチ及びソーシャルネットワークサービスを通じて、前記ユーザ音声に関連した代替応答情報を受信して出力することを特徴とする応答情報提供方法。 - 前記機能を実行するステップは、
前記対話型サーバから、前記ユーザ音声に対応する前記応答情報に対する提供不可メッセージとともに前記ユーザ音声内に含まれた発話要素が受信されると、前記ウェブサーチ及び前記ソーシャルネットワークサービスを通じて、前記発話要素に関連した代替応答情報を受信して出力することを特徴とする請求項11に記載の応答情報提供方法。 - 前記機能を実行するステップは、
前記ウェブサーチを行うためのユーザ命令が受信されると、前記発話要素に基づいたウェブサーチに対する結果を受信して出力することを特徴とする請求項12に記載の応答情報提供方法。 - 前記機能を実行するステップは、
前記ソーシャルネットワークサービスに対するユーザ命令が受信されると、前記発話要素に基づいた応答要求メッセージを生成し、前記ソーシャルネットワークサービスを提供するSNS(Social Network Service)サーバに伝送し、前記SNSサーバから前記応答要求メッセージに対応する応答メッセージを受信して出力することを特徴とする請求項12に記載の応答情報提供方法。 - 前記機能を実行するステップは、
ユーザ命令に応じて、前記ユーザのSNSアカウントに前記応答要求メッセージを伝送し、前記ユーザのSNSアカウントと連動するSNSアカウントから前記応答メッセージを受信して出力することを特徴とする請求項14に記載の応答情報提供方法。
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR20120072448A KR20140004515A (ko) | 2012-07-03 | 2012-07-03 | 디스플레이 장치, 대화형 시스템 및 응답 정보 제공 방법 |
| KR10-2012-0072448 | 2012-07-03 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2014013569A true JP2014013569A (ja) | 2014-01-23 |
Family
ID=48700435
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2013139935A Pending JP2014013569A (ja) | 2012-07-03 | 2013-07-03 | ディスプレイ装置、対話型システム及び応答情報提供方法 |
Country Status (9)
| Country | Link |
|---|---|
| US (1) | US9412368B2 (ja) |
| EP (1) | EP2683175A1 (ja) |
| JP (1) | JP2014013569A (ja) |
| KR (1) | KR20140004515A (ja) |
| CN (1) | CN103533021A (ja) |
| BR (1) | BR112014032092A2 (ja) |
| MX (1) | MX341169B (ja) |
| RU (1) | RU2583445C1 (ja) |
| WO (1) | WO2014007502A1 (ja) |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPWO2016157662A1 (ja) * | 2015-03-31 | 2018-01-25 | ソニー株式会社 | 情報処理装置、制御方法、およびプログラム |
| JP2021503107A (ja) * | 2017-11-15 | 2021-02-04 | サムスン エレクトロニクス カンパニー リミテッド | ディスプレイ装置及びその制御方法 |
| JP2022169645A (ja) * | 2018-01-18 | 2022-11-09 | 株式会社ユピテル | 装置及びプログラム等 |
| JP2023081985A (ja) * | 2019-04-18 | 2023-06-13 | マクセル株式会社 | 情報処理方法 |
Families Citing this family (112)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US8677377B2 (en) | 2005-09-08 | 2014-03-18 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
| US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
| US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
| US8676904B2 (en) | 2008-10-02 | 2014-03-18 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
| US20120311585A1 (en) | 2011-06-03 | 2012-12-06 | Apple Inc. | Organizing task items that represent tasks to perform |
| US10276170B2 (en) | 2010-01-18 | 2019-04-30 | Apple Inc. | Intelligent automated assistant |
| US8682667B2 (en) | 2010-02-25 | 2014-03-25 | Apple Inc. | User profiling for selecting user specific voice input processing information |
| US8917913B2 (en) * | 2011-09-22 | 2014-12-23 | International Business Machines Corporation | Searching with face recognition and social networking profiles |
| US10417037B2 (en) | 2012-05-15 | 2019-09-17 | Apple Inc. | Systems and methods for integrating third party services with a digital assistant |
| JP2016508007A (ja) | 2013-02-07 | 2016-03-10 | アップル インコーポレイテッド | デジタルアシスタントのためのボイストリガ |
| US10652394B2 (en) | 2013-03-14 | 2020-05-12 | Apple Inc. | System and method for processing voicemail |
| US10748529B1 (en) | 2013-03-15 | 2020-08-18 | Apple Inc. | Voice activated device for use with a voice-based digital assistant |
| HK1223708A1 (zh) | 2013-06-09 | 2017-08-04 | Apple Inc. | 用於实现跨数字助理的两个或更多个实例的会话持续性的设备、方法、和图形用户界面 |
| US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
| JP2015011170A (ja) * | 2013-06-28 | 2015-01-19 | 株式会社ATR−Trek | ローカルな音声認識を行なう音声認識クライアント装置 |
| US10791216B2 (en) | 2013-08-06 | 2020-09-29 | Apple Inc. | Auto-activating smart responses based on activities from remote devices |
| CN104700836B (zh) * | 2013-12-10 | 2019-01-29 | 阿里巴巴集团控股有限公司 | 一种语音识别方法和系统 |
| US9858039B2 (en) * | 2014-01-28 | 2018-01-02 | Oracle International Corporation | Voice recognition of commands extracted from user interface screen devices |
| US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
| US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
| TWI566107B (zh) | 2014-05-30 | 2017-01-11 | 蘋果公司 | 用於處理多部分語音命令之方法、非暫時性電腦可讀儲存媒體及電子裝置 |
| US9430463B2 (en) | 2014-05-30 | 2016-08-30 | Apple Inc. | Exemplar-based natural language processing |
| US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
| JP2016061970A (ja) * | 2014-09-18 | 2016-04-25 | 株式会社東芝 | 音声対話装置、方法およびプログラム |
| US10127911B2 (en) | 2014-09-30 | 2018-11-13 | Apple Inc. | Speaker identification and unsupervised speaker adaptation techniques |
| US9668121B2 (en) | 2014-09-30 | 2017-05-30 | Apple Inc. | Social reminders |
| KR102216451B1 (ko) * | 2014-10-01 | 2021-02-17 | 삼성전자주식회사 | 디스플레이 장치, 디스플레이 장치의 제어 시스템 및 제어 방법 |
| CN104505091B (zh) * | 2014-12-26 | 2018-08-21 | 湖南华凯文化创意股份有限公司 | 人机语音交互方法及系统 |
| US10152299B2 (en) | 2015-03-06 | 2018-12-11 | Apple Inc. | Reducing response latency of intelligent automated assistants |
| US9721566B2 (en) | 2015-03-08 | 2017-08-01 | Apple Inc. | Competing devices responding to voice triggers |
| US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
| CN104809159B (zh) * | 2015-03-27 | 2019-04-12 | 百度在线网络技术(北京)有限公司 | 一种用于获得服务信息的方法和装置 |
| US10257670B2 (en) * | 2015-04-16 | 2019-04-09 | Samsung Electronics Co., Ltd. | Portable device and method for providing notice information thereof |
| US10460227B2 (en) | 2015-05-15 | 2019-10-29 | Apple Inc. | Virtual assistant in a communication session |
| US10200824B2 (en) | 2015-05-27 | 2019-02-05 | Apple Inc. | Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device |
| US10083688B2 (en) | 2015-05-27 | 2018-09-25 | Apple Inc. | Device voice control for selecting a displayed affordance |
| US9578173B2 (en) | 2015-06-05 | 2017-02-21 | Apple Inc. | Virtual assistant aided communication with 3rd party service in a communication session |
| US20160378747A1 (en) | 2015-06-29 | 2016-12-29 | Apple Inc. | Virtual assistant for media playback |
| US10331312B2 (en) | 2015-09-08 | 2019-06-25 | Apple Inc. | Intelligent automated assistant in a media environment |
| US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
| US10740384B2 (en) | 2015-09-08 | 2020-08-11 | Apple Inc. | Intelligent automated assistant for media search and playback |
| US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
| US11587559B2 (en) | 2015-09-30 | 2023-02-21 | Apple Inc. | Intelligent device identification |
| US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
| US10956666B2 (en) | 2015-11-09 | 2021-03-23 | Apple Inc. | Unconventional virtual assistant interactions |
| US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
| EP3403201A4 (en) * | 2016-06-02 | 2019-01-09 | Samsung Electronics Co., Ltd. | METHOD AND ELECTRONIC DEVICE FOR PREDICTING A RESPONSE |
| US11227589B2 (en) | 2016-06-06 | 2022-01-18 | Apple Inc. | Intelligent list reading |
| US12223282B2 (en) | 2016-06-09 | 2025-02-11 | Apple Inc. | Intelligent automated assistant in a home environment |
| US10586535B2 (en) | 2016-06-10 | 2020-03-10 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
| DK179415B1 (en) | 2016-06-11 | 2018-06-14 | Apple Inc | Intelligent device arbitration and control |
| US12197817B2 (en) | 2016-06-11 | 2025-01-14 | Apple Inc. | Intelligent device arbitration and control |
| DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
| US10474703B2 (en) | 2016-08-25 | 2019-11-12 | Lakeside Software, Inc. | Method and apparatus for natural language query in a workspace analytics system |
| US10474753B2 (en) | 2016-09-07 | 2019-11-12 | Apple Inc. | Language identification using recurrent neural networks |
| KR102461890B1 (ko) * | 2016-12-07 | 2022-11-02 | 주식회사 알티미디어 | 대화형 방식의 화면을 제공하는 방법 및 장치 |
| US10521723B2 (en) | 2016-12-14 | 2019-12-31 | Samsung Electronics Co., Ltd. | Electronic apparatus, method of providing guide and non-transitory computer readable recording medium |
| US11204787B2 (en) | 2017-01-09 | 2021-12-21 | Apple Inc. | Application integration with a digital assistant |
| CN107146612B (zh) * | 2017-04-10 | 2020-05-15 | 北京猎户星空科技有限公司 | 语音引导方法、装置、智能设备及服务器 |
| KR102380717B1 (ko) * | 2017-04-30 | 2022-03-31 | 삼성전자주식회사 | 사용자 발화를 처리하는 전자 장치 및 이 전자 장치의 제어 방법 |
| DK201770383A1 (en) | 2017-05-09 | 2018-12-14 | Apple Inc. | USER INTERFACE FOR CORRECTING RECOGNITION ERRORS |
| US10726832B2 (en) | 2017-05-11 | 2020-07-28 | Apple Inc. | Maintaining privacy of personal information |
| US10395654B2 (en) | 2017-05-11 | 2019-08-27 | Apple Inc. | Text normalization based on a data-driven learning network |
| DK180048B1 (en) | 2017-05-11 | 2020-02-04 | Apple Inc. | MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION |
| DK179745B1 (en) | 2017-05-12 | 2019-05-01 | Apple Inc. | SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT |
| DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
| US11301477B2 (en) | 2017-05-12 | 2022-04-12 | Apple Inc. | Feedback analysis of a digital assistant |
| DK201770428A1 (en) | 2017-05-12 | 2019-02-18 | Apple Inc. | LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT |
| DK201770411A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | Multi-modal interfaces |
| DK179560B1 (en) | 2017-05-16 | 2019-02-18 | Apple Inc. | FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES |
| US20180336275A1 (en) | 2017-05-16 | 2018-11-22 | Apple Inc. | Intelligent automated assistant for media exploration |
| US20180336892A1 (en) | 2017-05-16 | 2018-11-22 | Apple Inc. | Detecting a trigger of a digital assistant |
| KR102146031B1 (ko) * | 2017-11-23 | 2020-08-28 | 주식회사 케이티 | 멀티 도메인 기반의 챗봇 시스템 및 챗봇 서비스 제공 방법 |
| KR102532300B1 (ko) * | 2017-12-22 | 2023-05-15 | 삼성전자주식회사 | 어플리케이션 실행 방법 및 이를 위한 장치 |
| KR102576388B1 (ko) | 2018-02-21 | 2023-09-08 | 엘지전자 주식회사 | 디스플레이 장치 및 그의 동작 방법 |
| US10592604B2 (en) | 2018-03-12 | 2020-03-17 | Apple Inc. | Inverse text normalization for automatic speech recognition |
| US10818288B2 (en) | 2018-03-26 | 2020-10-27 | Apple Inc. | Natural assistant interaction |
| US11343588B2 (en) * | 2018-03-27 | 2022-05-24 | Saturn Licensing Llc | Information processing apparatus, information processing method, transmission apparatus, and transmission method |
| US10928918B2 (en) | 2018-05-07 | 2021-02-23 | Apple Inc. | Raise to speak |
| US11145294B2 (en) | 2018-05-07 | 2021-10-12 | Apple Inc. | Intelligent automated assistant for delivering content from user experiences |
| US10892996B2 (en) | 2018-06-01 | 2021-01-12 | Apple Inc. | Variable latency device coordination |
| DK179822B1 (da) | 2018-06-01 | 2019-07-12 | Apple Inc. | Voice interaction at a primary device to access call functionality of a companion device |
| DK180639B1 (en) | 2018-06-01 | 2021-11-04 | Apple Inc | DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT |
| DK201870355A1 (en) | 2018-06-01 | 2019-12-16 | Apple Inc. | VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS |
| KR102187125B1 (ko) * | 2018-07-17 | 2020-12-04 | 김하륜 | 가상 면접 제공 방법 및 이를 이용하는 장치 |
| US11010561B2 (en) | 2018-09-27 | 2021-05-18 | Apple Inc. | Sentiment prediction from textual data |
| US11170166B2 (en) | 2018-09-28 | 2021-11-09 | Apple Inc. | Neural typographical error modeling via generative adversarial networks |
| US10839159B2 (en) | 2018-09-28 | 2020-11-17 | Apple Inc. | Named entity normalization in a spoken dialog system |
| US11462215B2 (en) | 2018-09-28 | 2022-10-04 | Apple Inc. | Multi-modal inputs for voice commands |
| US11475898B2 (en) | 2018-10-26 | 2022-10-18 | Apple Inc. | Low-latency multi-speaker speech recognition |
| US11638059B2 (en) | 2019-01-04 | 2023-04-25 | Apple Inc. | Content playback on multiple devices |
| CN109902163B (zh) * | 2019-02-28 | 2022-03-01 | 百度在线网络技术(北京)有限公司 | 一种智能应答方法、装置、设备及存储介质 |
| US11348573B2 (en) | 2019-03-18 | 2022-05-31 | Apple Inc. | Multimodality in digital assistant systems |
| US11475884B2 (en) | 2019-05-06 | 2022-10-18 | Apple Inc. | Reducing digital assistant latency when a language is incorrectly determined |
| DK201970509A1 (en) | 2019-05-06 | 2021-01-15 | Apple Inc | Spoken notifications |
| US11423908B2 (en) | 2019-05-06 | 2022-08-23 | Apple Inc. | Interpreting spoken requests |
| US11307752B2 (en) | 2019-05-06 | 2022-04-19 | Apple Inc. | User configurable task triggers |
| US11140099B2 (en) | 2019-05-21 | 2021-10-05 | Apple Inc. | Providing message response suggestions |
| DK201970510A1 (en) | 2019-05-31 | 2021-02-11 | Apple Inc | Voice identification in digital assistant systems |
| US11289073B2 (en) | 2019-05-31 | 2022-03-29 | Apple Inc. | Device text to speech |
| US11496600B2 (en) | 2019-05-31 | 2022-11-08 | Apple Inc. | Remote execution of machine-learned models |
| DK180129B1 (en) | 2019-05-31 | 2020-06-02 | Apple Inc. | User activity shortcut suggestions |
| US11227599B2 (en) | 2019-06-01 | 2022-01-18 | Apple Inc. | Methods and user interfaces for voice-based control of electronic devices |
| US11360641B2 (en) | 2019-06-01 | 2022-06-14 | Apple Inc. | Increasing the relevance of new available information |
| US11488406B2 (en) | 2019-09-25 | 2022-11-01 | Apple Inc. | Text detection using global geometry estimators |
| US11038934B1 (en) | 2020-05-11 | 2021-06-15 | Apple Inc. | Digital assistant hardware abstraction |
| US11061543B1 (en) | 2020-05-11 | 2021-07-13 | Apple Inc. | Providing relevant data items based on context |
| US12301635B2 (en) | 2020-05-11 | 2025-05-13 | Apple Inc. | Digital assistant hardware abstraction |
| US11755276B2 (en) | 2020-05-12 | 2023-09-12 | Apple Inc. | Reducing description length based on confidence |
| US11490204B2 (en) | 2020-07-20 | 2022-11-01 | Apple Inc. | Multi-device audio adjustment coordination |
| US11438683B2 (en) | 2020-07-21 | 2022-09-06 | Apple Inc. | User identification using headphones |
| US12021806B1 (en) | 2021-09-21 | 2024-06-25 | Apple Inc. | Intelligent message delivery |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2000216734A (ja) * | 1999-01-26 | 2000-08-04 | Sony Corp | 受信装置、受信装置の制御方法、送信装置及び送信方法 |
| JP2010527467A (ja) * | 2007-04-02 | 2010-08-12 | グーグル・インコーポレーテッド | 電話による要求への位置を基にした応答 |
| JP2011521520A (ja) * | 2008-04-16 | 2011-07-21 | ワイコフ, リチャード ダレル | 携帯型マルチメディア受信および送信装置 |
| JP2011199698A (ja) * | 2010-03-23 | 2011-10-06 | Yamaha Corp | Av機器 |
| JP2012123492A (ja) * | 2010-12-06 | 2012-06-28 | Fujitsu Ten Ltd | 情報提供システムおよび情報提供装置 |
Family Cites Families (18)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20020143550A1 (en) | 2001-03-27 | 2002-10-03 | Takashi Nakatsuyama | Voice recognition shopping system |
| US20020198716A1 (en) | 2001-06-25 | 2002-12-26 | Kurt Zimmerman | System and method of improved communication |
| US7548858B2 (en) | 2003-03-05 | 2009-06-16 | Microsoft Corporation | System and method for selective audible rendering of data to a user based on user input |
| US20050120391A1 (en) | 2003-12-02 | 2005-06-02 | Quadrock Communications, Inc. | System and method for generation of interactive TV content |
| US9208785B2 (en) * | 2006-05-10 | 2015-12-08 | Nuance Communications, Inc. | Synchronizing distributed speech recognition |
| US20110054900A1 (en) | 2007-03-07 | 2011-03-03 | Phillips Michael S | Hybrid command and control between resident and remote speech recognition facilities in a mobile voice-to-speech application |
| US8949266B2 (en) | 2007-03-07 | 2015-02-03 | Vlingo Corporation | Multiple web-based content category searching in mobile search application |
| US8175885B2 (en) | 2007-07-23 | 2012-05-08 | Verizon Patent And Licensing Inc. | Controlling a set-top box via remote speech recognition |
| US9628208B2 (en) | 2008-02-26 | 2017-04-18 | International Business Machines Corporation | System, method and program product for customizing presentation of television content to a specific viewer and location |
| US20110067059A1 (en) * | 2009-09-15 | 2011-03-17 | At&T Intellectual Property I, L.P. | Media control |
| JP5471274B2 (ja) | 2009-10-14 | 2014-04-16 | 日本電気株式会社 | 携帯端末装置及び情報記録方法 |
| EP4318463A3 (en) | 2009-12-23 | 2024-02-28 | Google LLC | Multi-modal input on an electronic device |
| US8626511B2 (en) | 2010-01-22 | 2014-01-07 | Google Inc. | Multi-dimensional disambiguation of voice commands |
| KR20120011945A (ko) | 2010-07-28 | 2012-02-09 | 삼성전자주식회사 | 아이피 텔레비전에서 음성 인식을 이용한 인터넷 검색 방법 및 장치 |
| JP2012085009A (ja) * | 2010-10-07 | 2012-04-26 | Sony Corp | 情報処理装置および情報処理方法 |
| JP4876198B1 (ja) | 2010-11-12 | 2012-02-15 | パイオニア株式会社 | 情報出力装置、情報出力方法、情報出力プログラム及び情報システム |
| US20120317492A1 (en) * | 2011-05-27 | 2012-12-13 | Telefon Projekt LLC | Providing Interactive and Personalized Multimedia Content from Remote Servers |
| US20120316875A1 (en) * | 2011-06-10 | 2012-12-13 | Red Shift Company, Llc | Hosted speech handling |
-
2012
- 2012-07-03 KR KR20120072448A patent/KR20140004515A/ko not_active Withdrawn
-
2013
- 2013-06-14 US US13/918,034 patent/US9412368B2/en not_active Expired - Fee Related
- 2013-07-02 EP EP20130174664 patent/EP2683175A1/en not_active Withdrawn
- 2013-07-02 RU RU2015103239/07A patent/RU2583445C1/ru not_active IP Right Cessation
- 2013-07-02 MX MX2014014794A patent/MX341169B/es active IP Right Grant
- 2013-07-02 CN CN201310275895.5A patent/CN103533021A/zh active Pending
- 2013-07-02 BR BR112014032092A patent/BR112014032092A2/pt not_active IP Right Cessation
- 2013-07-02 WO PCT/KR2013/005841 patent/WO2014007502A1/en not_active Ceased
- 2013-07-03 JP JP2013139935A patent/JP2014013569A/ja active Pending
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2000216734A (ja) * | 1999-01-26 | 2000-08-04 | Sony Corp | 受信装置、受信装置の制御方法、送信装置及び送信方法 |
| JP2010527467A (ja) * | 2007-04-02 | 2010-08-12 | グーグル・インコーポレーテッド | 電話による要求への位置を基にした応答 |
| JP2011521520A (ja) * | 2008-04-16 | 2011-07-21 | ワイコフ, リチャード ダレル | 携帯型マルチメディア受信および送信装置 |
| JP2011199698A (ja) * | 2010-03-23 | 2011-10-06 | Yamaha Corp | Av機器 |
| JP2012123492A (ja) * | 2010-12-06 | 2012-06-28 | Fujitsu Ten Ltd | 情報提供システムおよび情報提供装置 |
Cited By (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPWO2016157662A1 (ja) * | 2015-03-31 | 2018-01-25 | ソニー株式会社 | 情報処理装置、制御方法、およびプログラム |
| JP2021503107A (ja) * | 2017-11-15 | 2021-02-04 | サムスン エレクトロニクス カンパニー リミテッド | ディスプレイ装置及びその制御方法 |
| JP7332473B2 (ja) | 2017-11-15 | 2023-08-23 | サムスン エレクトロニクス カンパニー リミテッド | サーバー及びその制御方法 |
| JP2022169645A (ja) * | 2018-01-18 | 2022-11-09 | 株式会社ユピテル | 装置及びプログラム等 |
| JP7408105B2 (ja) | 2018-01-18 | 2024-01-05 | 株式会社ユピテル | 装置及びプログラム等 |
| JP2023081985A (ja) * | 2019-04-18 | 2023-06-13 | マクセル株式会社 | 情報処理方法 |
| JP7483970B2 (ja) | 2019-04-18 | 2024-05-15 | マクセル株式会社 | 情報処理方法 |
Also Published As
| Publication number | Publication date |
|---|---|
| EP2683175A1 (en) | 2014-01-08 |
| MX2014014794A (es) | 2015-02-24 |
| CN103533021A (zh) | 2014-01-22 |
| WO2014007502A1 (en) | 2014-01-09 |
| KR20140004515A (ko) | 2014-01-13 |
| BR112014032092A2 (pt) | 2017-08-01 |
| US9412368B2 (en) | 2016-08-09 |
| MX341169B (es) | 2016-08-10 |
| US20140012585A1 (en) | 2014-01-09 |
| RU2583445C1 (ru) | 2016-05-10 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2014013569A (ja) | ディスプレイ装置、対話型システム及び応答情報提供方法 | |
| JP2014003610A (ja) | ディスプレイ装置、対話型サーバ及び応答情報提供方法 | |
| KR102056461B1 (ko) | 디스플레이 장치 및 디스플레이 장치의 제어 방법 | |
| KR101914708B1 (ko) | 서버 및 서버의 제어 방법 | |
| EP2674941B1 (en) | Terminal apparatus and control method thereof | |
| EP2919472A1 (en) | Display apparatus, method for controlling display apparatus, and interactive system | |
| KR101605862B1 (ko) | 디스플레이 장치, 전자 장치, 대화형 시스템 및 이들의 제어 방법 | |
| EP2752846A1 (en) | Dialogue-type interface apparatus and method for controlling the same | |
| KR20140093303A (ko) | 디스플레이 장치 및 그의 제어 방법 | |
| CN103916686A (zh) | 显示装置及其控制方法 | |
| CN103796044A (zh) | 广播接收设备、服务器及其控制方法 | |
| KR20180014137A (ko) | 디스플레이 장치 및 그의 제어 방법 | |
| KR101859614B1 (ko) | 디스플레이 장치, 전자 장치, 대화형 시스템 및 이들의 제어 방법 | |
| KR102160756B1 (ko) | 디스플레이 장치 및 디스플레이 장치의 제어 방법 | |
| KR20140026220A (ko) | 단말 장치 및 단말 장치의 제어 방법 | |
| KR20170038772A (ko) | 디스플레이 장치 및 그의 제어 방법 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160516 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170228 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170321 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20171010 |