[go: up one dir, main page]

CN114968166A - 语音交互的方法与电子设备 - Google Patents

语音交互的方法与电子设备 Download PDF

Info

Publication number
CN114968166A
CN114968166A CN202110223033.2A CN202110223033A CN114968166A CN 114968166 A CN114968166 A CN 114968166A CN 202110223033 A CN202110223033 A CN 202110223033A CN 114968166 A CN114968166 A CN 114968166A
Authority
CN
China
Prior art keywords
electronic device
information
instruction
robot
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110223033.2A
Other languages
English (en)
Inventor
郜文美
卢恒惠
卢曰万
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huawei Technologies Co Ltd
Original Assignee
Huawei Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Technologies Co Ltd filed Critical Huawei Technologies Co Ltd
Priority to CN202110223033.2A priority Critical patent/CN114968166A/zh
Priority to PCT/CN2021/139315 priority patent/WO2022179269A1/zh
Priority to US18/278,665 priority patent/US20240127813A1/en
Priority to EP21927693.8A priority patent/EP4290362A4/en
Publication of CN114968166A publication Critical patent/CN114968166A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/48Program initiating; Program switching, e.g. by interrupt
    • G06F9/4806Task transfer initiation or dispatching
    • G06F9/4843Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/52Program synchronisation; Mutual exclusion, e.g. by means of semaphores
    • G06F9/526Mutual exclusion algorithms
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/54Interprogram communication
    • G06F9/542Event management; Broadcasting; Multicasting; Notifications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/021Services related to particular areas, e.g. point of interest [POI] services, venue services or geofences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/06Selective distribution of broadcast services, e.g. multimedia broadcast multicast service [MBMS]; Services to user groups; One-way selective calling services
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Telephone Function (AREA)

Abstract

本申请提供了一种语音交互的方法与电子设备,针对搭载相同语音助手的多个电子设备,只有一个电子设备的语音助手处于工作模式,其他电子设备的语音助手均处于静默模式,当用户发出针对该语音助手的语音时,语音助手处于静默模式的其他电子设备不会对用户语音触发的第一指令作出应答,只有语音助手处于工作模式的电子设备会根据用户语音触发的第一指令,向多个电子设备中具备执行用户请求的任务的电子设备发送第二指令,接收到第二指令的电子设备执行用户请求的任务,因此,该方法能够避免多个电子设备同时对用户语音触发的指令作出应答,同时使得最终作出应答的电子设备具备执行用户请求的任务的能力,从而提升用户的体验。

Description

语音交互的方法与电子设备
技术领域
本申请涉及终端领域,并且更具体地涉及终端领域中语音交互的方法和电子设备。
背景技术
目前,在智能家居中,语音助手已经成为用户与智能电子设备之间的核心交互入口,用户可以通过语音助手对家庭中的智能电子设备进行控制。
随着一个家庭中的智能电子设备的增多,随之也对用户体验造成了影响,例如,用户身边存在搭载了相同语音助手的多个智能电子设备,当用户发出针对该语音助手的语音时,搭载了相同语音助手的多个智能电子设备均会对用户作出应答,因此会影响用户体验。
发明内容
本申请实施例提供了一种语音交互的方法与电子设备,该方法能够避免多个电子设备同时对用户语音触发的指令作出应答,同时使得最终作出应答的电子设备具备执行用户请求的任务的能力,从而提升用户的体验。
第一方面,提供了一种语音交互的方法,所述方法由至少两个电子设备中的第一电子设备执行,所述至少两个电子设备当前位于第一区域,所述至少两个电子设备搭载的语音助手是相同的,且所述至少两个电子设备中除所述第一电子设备以外的其他电子设备的语音助手均处于静默模式,包括:接收用户语音触发的第一指令,所述第一指令请求执行第一任务;根据所述第一指令,向第二电子设备发送第二指令,所述第二指令请求所述第二电子设备执行所述第一任务,所述第二电子设备为所述其他电子设备中的一个。
基于上述技术方案,针对搭载相同语音助手的多个电子设备,只有一个电子设备的语音助手处于工作模式,其他电子设备的语音助手均处于静默模式,所谓工作模式,是指电子设备的语音助手能够接收到用户语音触发的指令,且会针对指令作出应答,所谓静默模式,是指电子设备的语音助手能够接收到指令,但不会针对指令作出应答,当用户发出针对该语音助手的语音时,语音助手处于静默模式的其他电子设备不会对用户语音触发的第一指令作出应答,只有语音助手处于工作模式的电子设备会根据用户语音触发的第一指令,向多个电子设备中具备执行用户请求的任务的电子设备发送第二指令,接收到第二指令的电子设备执行用户请求的任务,因此,该方法能够避免智能家居中的多个电子设备同时对用户语音触发的指令作出应答,同时使得最终作出应答的电子设备具备执行用户请求的任务的能力,从而提升用户的体验。
结合第一方面,在第一方面的某些实现方式中,所述方法还包括:获取参考信息,所述参考信息指示用户期望执行所述第一任务的电子设备;所述根据所述第一指令,向第二电子设备发送所述第二指令,包括:根据所述第一指令与所述参考信息,向第二电子设备发送所述第二指令。
基于上述技术方案,第一电子设备可以根据参考信息与第一指令,确定由第二电子设备执行第一任务,并向第二电子设备发送第二指令,使得第二电子设备是用户期望执行第一任务的电子设备,从而提升用户的体验。
结合第一方面和上述实现方式,在第一方面的某些实现方式中,所述参考信息包括用户的肢体动作信息和/或用户的视线信息。
结合第一方面和上述实现方式,在第一方面的某些实现方式中,所述第一指令携带有所述第二电子设备的名称。
基于上述技术方案,第一电子设备根据携带有第二电子设备的名称的第一指令,确定由第二电子设备执行第一任务,并向第二电子设备发送第二指令,使得第二电子设备是用户指定的执行第一任务的电子设备,从而提升用户的体验。
结合第一方面和上述实现方式,在第一方面的某些实现方式中,所述方法还包括:获取所述第一电子设备当前的位置信息;向所述第二电子设备发送第一广播消息,所述第一广播消息携带所述第一电子设备当前的位置信息。
基于上述技术方案,第一电子设备通过发送第一广播消息,使得包括第二电子设备在内的其他电子设备可以获取到第一电子设备当前的位置信息,进一步地,第二电子设备可以根据第一电子设备当前的位置信息与第二电子设备当前的位置信息,控制第二电子设备的语音助手进入静默模式。
结合第一方面和上述实现方式,在第一方面的某些实现方式中,所述当前的位置信息包括所述第一电子设备当前所处的区域的名称或所述第一电子设备当前所处的位置对应的坐标。
结合第一方面和上述实现方式,在第一方面的某些实现方式中,在所述当前的位置信息包括所述第一电子设备当前所处的位置对应的坐标的情况下,所述第一广播消息还携带所述第一电子设备对应的通信范围的信息。
结合第一方面和上述实现方式,在第一方面的某些实现方式中,所述获取所述第一电子设备当前的位置信息,包括:获取地图信息,所述地图信息包括所述第一区域的地图信息;根据所述地图信息,获取所述第一电子设备当前的位置信息。
结合第一方面和上述实现方式,在第一方面的某些实现方式中,所述方法还包括:向所述第二电子设备发送第二广播消息,所述第二广播消息携带所述地图信息。
结合第一方面和上述实现方式,在第一方面的某些实现方式中,所述第一电子设备是可移动的,所述方法还包括:在所述第一电子设备移动到第二区域后,根据所述地图信息,获取所述第一电子设备的移动之后的位置信息,所述地图信息包括所述第二区域的地图信息;发送第三广播消息,所述第三广播消息携带所述第一电子设备的移动之后的位置信息。
基于上述技术方案,第一电子设备通过发送第三广播消息,使得包括第二电子设备在内的其他电子设备可以获取到第一电子设备移动之后的位置信息,进一步地,第二电子设备可以根据第一电子设备当前的位置信息与第二电子设备当前的位置信息,控制自己的语音助手从静默模式进入工作模式,以便后续当包括第二电子设备在内的其他电子设备接收到用户语音触发的指令时,包括第二电子设备在内的其他电子设备可以对用户语音触发的指令进行应答。
结合第一方面和上述实现方式,在第一方面的某些实现方式中,所述移动之后的位置信息包括所述第一电子设备移动之后所处的区域的名称或所述第一电子设备移动之后所处的位置对应的坐标。
第二方面,提供了一种语音交互的方法,所述方法由至少两个电子设备中的第二电子设备执行,所述至少两个电子设备位于第一区域,所述至少两个电子设备搭载的语音助手是相同的,且所述至少两个电子设备中除第一电子设备以外的其他电子设备的语音助手均处于静默模式,包括:获取来自所述第一电子设备的第二指令,所述第二指令请求所述第二电子设备执行第一任务,其中,所述第二指令是所述第一电子设备根据第一指令发送的,所述第一指令请求执行所述第一任务;根据所述第二指令,执行所述第一任务。
基于上述技术方案,针对搭载相同语音助手的多个电子设备,只有一个电子设备的语音助手处于工作模式,其他电子设备的语音助手均处于静默模式,所谓工作模式,是指电子设备的语音助手能够接收到用户语音触发的指令,且会针对指令作出应答,所谓静默模式,是指电子设备的语音助手能够接收到指令,但不会针对指令作出应答,当用户发出针对该语音助手的语音时,语音助手处于静默模式的其他电子设备不会对用户语音触发的第一指令作出应答,只有语音助手处于工作模式的电子设备会根据用户语音触发的第一指令,向多个电子设备中具备执行用户请求的任务的电子设备发送第二指令,接收到第二指令的电子设备执行用户请求的任务,因此,该方法能够避免智能家居中的多个电子设备同时对用户语音触发的指令作出应答,同时使得最终作出应答的电子设备具备执行用户请求的任务的能力,从而提升用户的体验。
结合第二方面,在第二方面的某些实现方式中,所述方法还包括:获取所述第一电子设备当前的位置信息与所述第二电子设备当前的位置信息;根据所述第一电子设备当前的位置信息与所述第二电子设备当前的位置信息,控制所述第二电子设备的语音助手进入静默模式。
基于上述技术方案,第二电子设备获取第一电子设备当前的位置信息与第二电子设备当前的位置信息,使得第二电子设备根据第一电子设备当前的位置信息与第二电子设备当前的位置信息,控制第二电子设备的语音助手进入静默模式。
结合第二方面和上述实现方式,在第二方面的某些实现方式中,所述第一电子设备当前的位置信息包括所述第一电子设备当前所处的区域的名称,所述第二电子设备当前的位置信息包括所述第二电子设备当前所处的区域的名称,所述根据所述第一电子设备当前的位置信息与所述第二电子设备当前的位置信息,控制所述第二电子设备的语音助手进入静默模式,包括:如果所述第二电子设备处于第一区域,控制所述第二电子设备的语音助手进入静默模式。
基于上述技术方案,当第二电子设备确定其与第一电子设备处于同一区域时,第二电子设备的语音助手进入静默模式,从而使得当用户发出针对该语音助手的语音时,包括第二电子设备在内的语音助手处于静默模式的其他电子设备不会对用户语音触发的第一指令作出应答,只有语音助手处于工作模式的第一电子设备会根据用户语音触发的第一指令,向多个电子设备中具备执行用户请求的任务的电子设备发送第二指令,接收到第二指令的电子设备执行用户请求的任务,因此,该方法能够避免智能家居中的多个电子设备同时对用户语音触发的指令作出应答,同时使得最终作出应答的电子设备具备执行用户请求的任务的能力,从而提升用户的体验。
结合第二方面和上述实现方式,在第二方面的某些实现方式中,所述方法还包括:获取所述第一电子设备当前的位置信息、所述第二电子设备当前的位置信息与所述第一电子设备对应的通信范围的信息;根据所述第一电子设备当前的位置信息、所述第二电子设备当前的位置信息与所述第一电子设备对应的通信范围的信息,控制所述第二电子设备的语音助手进入静默模式。
基于上述技术方案,第二电子设备获取第一电子设备当前的位置信息、第二电子设备当前的位置信息与第一电子设备对应的通信范围的信息,使得第二电子设备根据第一电子设备当前的位置信息、第二电子设备当前的位置信息与第一电子设备对应的通信范围的信息,控制第二电子设备的语音助手进入静默模式。
结合第二方面和上述实现方式,在第二方面的某些实现方式中,所述第一电子设备当前的位置信息包括所述第一电子设备当前所处的位置对应的坐标,所述第二电子设备当前的位置信息包括所述第二电子设备当前所处的位置对应的坐标,所述根据所述第一电子设备当前的位置信息、所述第二电子设备当前的位置信息与所述第一电子设备对应的通信范围的信息,控制所述第二电子设备的语音助手进入静默模式,包括:根据所述第一电子设备当前所处的位置对应的坐标与所述第二电子设备当前所处的位置对应的坐标,确定所述第一电子设备与所述第二电子设备之间的距离;根据所述距离与所述第一电子设备当前所处的区域的范围信息,确定所述第二电子设备是否位于所述第一电子设备对应的通信范围内;如果所述第二电子设备位于所述第一电子设备能够接收到用户语音的区域内,控制所述第二电子设备的语音助手进入静默模式。
基于上述技术方案,当第二电子设备确定其位于第一电子设备能够接收到用户语音的区域内时,第二电子设备的语音助手进入静默模式,从而使得当用户发出针对该语音助手的语音时,包括第二电子设备在内的语音助手处于静默模式的其他电子设备不会对用户语音触发的第一指令作出应答,只有语音助手处于工作模式的第一电子设备会根据用户语音触发的第一指令,向多个电子设备中具备执行用户请求的任务的电子设备发送第二指令,接收到第二指令的电子设备执行用户请求的任务,因此,该方法能够避免智能家居中的多个电子设备同时对用户语音触发的指令作出应答,同时使得最终作出应答的电子设备具备执行用户请求的任务的能力,从而提升用户的体验。
结合第二方面和上述实现方式,在第二方面的某些实现方式中,所述获取第一电子设备当前所处的区域的范围信息,包括:接收来自所述第一电子设备的第一广播消息,所述第一广播消息携带所述第一电子设备当前所处的区域的范围信息;根据所述第一广播消息,获取所述第一电子设备当前所处的区域的范围信息。
结合第二方面和上述实现方式,在第二方面的某些实现方式中,所述获取所述第一电子设备当前的位置信息,包括:接收来自所述第一电子设备的第一广播消息,所述第一广播消息携带所述第一电子设备的当前的位置信息;根据所述第一广播消息,获取所述第一电子设备的当前的位置信息。
基于上述技术方案,第一电子设备通过发送第一广播消息,使得包括第二电子设备在内的其他电子设备可以获取到第一电子设备当前的位置信息,进一步地,第二电子设备可以根据第一电子设备当前的位置信息与第二电子设备当前的位置信息,控制第二电子设备的语音助手进入静默模式。
结合第二方面和上述实现方式,在第二方面的某些实现方式中,所述获取所述第二电子设备当前的位置信息,包括:获取地图信息,所述地图信息包括所述第一区域的地图信息;根据所述地图信息,获取所述第二电子设备当前的位置信息。
结合第二方面和上述实现方式,在第二方面的某些实现方式中,所述获取所述地图信息,包括:接收来自所述第一电子设备的第二广播消息,所述第二广播消息携带所述地图信息。
结合第二方面和上述实现方式,在第二方面的某些实现方式中,所述方法还包括:在所述第一电子设备移动到第二区域后,获取所述第一电子设备的移动之后的位置信息;根据所述第一电子设备的移动之后的位置信息与所述第二电子设备当前的位置信息,控制所述第二电子设备的语音助手从静默模式进入工作模式。
基于上述技术方案,第二电子设备获取第一电子设备的移动之后的位置信息与第二电子设备当前的位置信息,使得在第一电子设备移动到第二区域后的情况下,第二电子设备根据第一电子设备的移动之后的位置信息与第二电子设备当前的位置信息,确定第二电子设备与第一电子设备位于不同区域,控制自己的语音助手从静默模式进入工作模式,以便后续当第二电子设备接收到用户语音触发的指令时,第二电子设备可以对用户语音触发的指令进行应答。
结合第二方面和上述实现方式,在第二方面的某些实现方式中,所述第一电子设备移动之后的位置信息包括所述第一电子设备移动之后所处的区域的名称,所述第二电子设备当前的位置信息包括所述第二电子设备当前所处的区域的名称,所述根据所述第一电子设备的移动之后的位置信息与所述第二电子设备当前的位置信息,控制所述第二电子设备的语音助手从静默模式进入工作模式,包括:如果所述第一电子设备处于第二区域,且所述第二电子设备处于所述第一区域,控制所述第二电子设备的语音助手从静默模式进入工作模式。
结合第二方面和上述实现方式,在第二方面的某些实现方式中,所述方法还包括:在所述第一电子设备移动到第二区域后,获取所述第一电子设备的移动之后的位置信息;根据所述第一电子设备的移动之后的位置信息、所述第二电子设备当前的位置信息与所述第一电子设备对应的通信范围的信息,控制所述第二电子设备的语音助手从静默模式进入工作模式。
基于上述技术方案,第二电子设备获取第一电子设备的移动之后的位置信息,使得在第一电子设备移动到第二区域后的情况下,第二电子设备根据第一电子设备的移动之后的位置信息、第二电子设备当前的位置信息与第一电子设备对应的通信范围的信息,确定位于第一电子设备对应的通信范围之外,控制自己的语音助手从静默模式进入工作模式,以便后续当第二电子设备接收到用户语音触发的指令时,第二电子设备可以对用户语音触发的指令进行应答。
结合第二方面和上述实现方式,在第二方面的某些实现方式中,所述第一电子设备的移动之后的位置信息包括所述第一电子设备移动之后所处的位置对应的坐标,所述第二电子设备当前的位置信息包括所述第二电子设备当前所处的位置对应的坐标,所述根据所述第一电子设备的移动之后的位置信息、所述第二电子设备当前的位置信息与所述第一电子设备对应的通信范围的信息,控制所述第二电子设备的语音助手从静默模式进入工作模式,包括:根据所述第一电子设备移动之后所处的位置对应的坐标与所述第二电子设备当前所处的位置对应的坐标,确定所述第一电子设备与所述第二电子设备之间的距离;根据所述距离与所述第一电子设备对应的通信范围的信息,确定所述第二电子设备是否位于所述第一电子设备对应的通信范围内;如果所述第二电子设备位于所述第一电子设备对应的通信范围之外,控制所述第二电子设备的语音助手从静默模式进入工作模式。
结合第二方面和上述实现方式,在第二方面的某些实现方式中,所述获取所述第一电子设备的移动之后的位置信息,包括:在接收到第三广播消息的情况下,根据所述第三广播消息,获取所述第一电子设备的移动之后的位置信息,所述第三广播消息携带所述第一电子设备的移动之后的位置信息,所述地图信息包括所述第二区域的地图信息。
结合第二方面和上述实现方式,在第二方面的某些实现方式中,所述第二指令是所述第一电子设备根据所述第一指令与参考信息发送的,所述参考信息指示用户期望所述第二电子设备执行所述第一任务。
基于上述技术方案,第一电子设备可以根据参考信息与第一指令,确定由第二电子设备执行第一任务,并向第二电子设备发送第二指令,使得第二电子设备是用户期望执行第一任务的电子设备,从而提升用户的体验。
结合第二方面和上述实现方式,在第二方面的某些实现方式中,所述参考信息包括用户的肢体动作信息和/或用户的视线信息。
结合第二方面和上述实现方式,在第二方面的某些实现方式中,所述第一指令携带有所述第二电子设备的名称。
基于上述技术方案,第一电子设备根据携带有第二电子设备的名称的第一指令,确定由第二电子设备执行第一任务,并向第二电子设备发送第二指令,使得第二电子设备是用户指定的执行第一任务的电子设备,从而提升用户的体验。
第三方面,本申请提供了一种装置,该装置包含在电子设备中,该装置具有实现上述各方面及上述各方面的可能实现方式中电子设备行为的功能。功能可以通过硬件实现,也可以通过硬件执行相应的软件实现。
可选地,该装置可以是上述的第一电子设备或者是第二电子设备。
第四方面,本申请提供了一种电子设备,包括:一个或多个处理器;存储器;多个应用程序;以及一个或多个计算机程序。其中,一个或多个计算机程序被存储在存储器中,一个或多个计算机程序包括指令。当指令被电子设备执行时,使得电子设备执行上述任一方面任一项可能的实现中的语音交互的方法。
可选地,该电子设备可以是上述的第一电子设备或者是第二电子设备。
第五方面,本申请提供了一种电子设备,包括一个或多个处理器和一个或多个存储器。该一个或多个存储器与一个或多个处理器耦合,一个或多个存储器用于存储计算机程序代码,计算机程序代码包括计算机指令,当一个或多个处理器执行计算机指令时,使得电子设备执行上述任一方面任一项可能的实现中的语音交互的方法。
第六方面,提供了一种通信系统,通信系统至少包括第一电子设备和第二电子设备,第一电子设备用于执行上述第一方面任一项可能的实现中的语音交互的方法,第二电子设备用于执行上述第二方面任一项可能的实现中的语音交互的方法。
第七方面,本申请提供了一种计算机可读存储介质,包括计算机指令,当计算机指令在电子设备上运行时,使得电子设备执行上述任一方面任一项可能的语音交互的方法。
第八方面,本申请提供了一种计算机程序产品,当计算机程序产品在电子设备上运行时,使得电子设备执行上述任一方面任一项可能的语音交互的方法。
附图说明
图1是本申请实施例提供的用户与电子设备的语音助手进行语音交互时的场景示意图;
图2是本申请实施例提供的一例电子设备的结构示意图;
图3中的(a)图是本申请实施例提供的一例家庭环境的示意图;
图3中的(b)图是本申请实施例提供的又一例家庭环境的示意图;
图3中的(c)图是本申请实施例提供的再一例家庭环境的示意图;
图4是本申请实施例提供的一例语音交互的方法的示意性流程图;
图5中的(a)图是本申请实施例提供的再一例家庭环境的示意图;
图5中的(b)图是本申请实施例提供的再一例家庭环境的示意图;
图5中的(c)图是本申请实施例提供的再一例家庭环境的示意图;
图6是本申请实施例提供的又一例语音交互的方法的示意性流程图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行描述。
当用户身边存在搭载了相同语音助手的多个智能电子设备时,图1示出了当用户发出针对语音助手的语音时,各个智能电子设备针对用户语音触发的指令作出应答的场景示意图。此处假设当用户发出针对语音助手的语音时,用户身边的智能电子设备均能接收到来自用户的指令。以下为了简洁,将“智能电子设备”简称为“电子设备”。
例如,用户身边同时存在搭载有相同语音助手的智能电视,智能手机以及智能平板,当用户发出“小艺小艺”的语音后,电视、手机以及平板均会被用户唤醒,之后用户发出“今天天气怎么样”的语音,此时,智能电视、智能手机以及智能平板均会对用户作出应答,例如,电视、手机以及平板同时发出“北京市今天天气晴朗”,由于同时存在多个声音,这会对用户的听觉体验造成影响。
针对上述问题,提出如下方案:当多个电子设备上的语音助手接收到用户语音触发的指令时,多个电子设备之间相互协商,最终由协商确定的电子设备对用户作出应答,其他电子设备则不对用户作出应答。
然而,协商确定的电子设备可能并不具备执行用户所请求的任务的能力,例如,用户想通过智能电视播放一部电影,但是最终对用户作出应答的是智能冰箱,然而,智能冰箱并不具备播放电影的能力,因此,该方法会导致用户体验受到影响。
有鉴于此,本申请提出一种语音交互的方法,针对搭载相同语音助手的多个电子设备,只有一个电子设备的语音助手处于工作模式,其他电子设备的语音助手均处于静默模式,所谓工作模式,是指电子设备的语音助手能够接收到用户语音触发的指令,且会针对指令作出应答,所谓静默模式,是指电子设备的语音助手能够接收到指令,但不会针对指令作出应答,当用户发出针对该语音助手的语音时,语音助手处于静默模式的其他电子设备不会对用户语音触发的第一指令作出应答,只有语音助手处于工作模式的电子设备会根据用户语音触发的第一指令,向多个电子设备中具备执行用户请求的任务的电子设备发送第二指令,接收到第二指令的电子设备执行用户请求的任务,因此,该方法能够避免多个电子设备同时对用户语音触发的指令作出应答,同时使得最终作出应答的电子设备具备执行用户请求的任务的能力,从而提升用户的体验。
本申请实施例提供的语音交互的方法可以应用于AR/VR设备、手机、平板电脑、机器人、可穿戴设备、车载设备、笔记本电脑、超级移动个人计算机(ultra-mobile personalcomputer,UMPC)、上网本、个人数字助理(personal digital assistant,PDA)等电子设备上。本申请实施例对电子设备的具体类型不作任何限制。
上述机器人可以是扫地机器人、拖地机器人、扫拖一体机器人、空气净化机器人、管家机器人、家政机器人、娱乐机器人、教育机器人、儿童陪伴机器人、老人陪伴机器人、家庭护理机器人等具备自主移动能力的机器人中的一种。
示例性的,图2是本申请实施例提供的一例电子设备100的结构示意图,在具体实现时,电子设备100可以是本申请实施例中的第一电子设备或第二电子设备。电子设备100可以包括处理器110,内部存储器121,通用串行总线(universal serial bus,USB)接口130,充电管理模块140,电源管理模块141,电池142,音频模块170,扬声器170A,麦克风170C,耳机接口170D,传感器模块180,按键190、显示屏194等。其中传感器模块180可以包括陀螺仪传感器180B,加速度传感器180E,接近光传感器180G,温度传感器180J等。
可以理解的是,本发明实施例示意的结构并不构成对电子设备100的具体限定。在本申请另一些实施例中,电子设备100可以包括比图示更多或更少的部件,或者组合某些部件,或者拆分某些部件,或者不同的部件布置。图示的部件可以以硬件,软件或软件和硬件的组合实现。
处理器110可以包括一个或多个处理单元,例如:处理器110可以包括应用处理器(application processor,AP),调制解调处理器,图形处理器(graphics processingunit,GPU),图像信号处理器(image signal processor,ISP),控制器,视频编解码器,数字信号处理器(digital signal processor,DSP),基带处理器,和/或神经网络处理器(neural-network processing unit,NPU)等。其中,不同的处理单元可以是独立的器件,也可以集成在一个或多个处理器中。
控制器可以根据指令操作码和时序信号,产生操作控制信号,完成取指令和执行指令的控制。
处理器110中还可以设置存储器,用于存储指令和数据。在一些实施例中,处理器110中的存储器为高速缓冲存储器。该存储器可以保存处理器110刚用过或循环使用的指令或数据。如果处理器110需要再次使用该指令或数据,可从所述存储器中直接调用。避免了重复存取,减少了处理器110的等待时间,因而提高了系统的效率。
在一些实施例中,处理器110可以包括一个或多个接口。接口可以包括集成电路(inter-integrated circuit,I2C)接口,集成电路内置音频(inter-integrated circuitsound,I2S)接口,脉冲编码调制(pulse code modulation,PCM)接口,通用异步收发传输器(universal asynchronous receiver/transmitter,UART)接口,移动产业处理器接口(mobile industry processor interface,MIPI),通用输入输出(general-purposeinput/output,GPIO)接口,和/或通用串行总线(universal serial bus,USB)接口等。
MIPI接口可以被用于连接处理器110与显示屏194等外围器件。MIPI接口包括摄像头串行接口(camera serial interface,CSI),显示屏串行接口(display serialinterface,DSI)等。在一些实施例中,处理器110和显示屏194通过DSI接口通信,实现电子设备100的显示功能。
GPIO接口可以通过软件配置。GPIO接口可以被配置为控制信号,也可被配置为数据信号。在一些实施例中,GPIO接口可以用于连接处理器110与显示屏194,音频模块170,传感器模块180等。GPIO接口还可以被配置为I2C接口,I2S接口,UART接口,MIPI接口等。
USB接口130是符合USB标准规范的接口,具体可以是Mini USB接口,Micro USB接口,USB Type C接口等。USB接口130可以用于连接充电器为电子设备100充电,也可以用于电子设备100与外围设备之间传输数据。也可以用于连接耳机,通过耳机播放音频。该接口还可以用于连接其他电子设备,例如AR设备等。
可以理解的是,本发明实施例示意的各模块间的接口连接关系,只是示意性说明,并不构成对电子设备100的结构限定。在本申请另一些实施例中,电子设备100也可以采用上述实施例中不同的接口连接方式,或多种接口连接方式的组合。
充电管理模块140用于从充电器接收充电输入。其中,充电器可以是无线充电器,也可以是有线充电器。在一些有线充电的实施例中,充电管理模块140可以通过USB接口130接收有线充电器的充电输入。在一些无线充电的实施例中,充电管理模块140可以通过电子设备100的无线充电线圈接收无线充电输入。充电管理模块140为电池142充电的同时,还可以通过电源管理模块141为电子设备供电。
电源管理模块141用于连接电池142,充电管理模块140与处理器110。电源管理模块141接收电池142和/或充电管理模块140的输入,为处理器110,内部存储器121,显示屏194等供电。电源管理模块141还可以用于监测电池容量,电池循环次数,电池健康状态(漏电,阻抗)等参数。在其他一些实施例中,电源管理模块141也可以设置于处理器110中。在另一些实施例中,电源管理模块141和充电管理模块140也可以设置于同一个器件中。
电子设备100通过GPU,显示屏194,以及应用处理器等实现显示功能。GPU为图像处理的微处理器,连接显示屏194和应用处理器。GPU用于执行数学和几何计算,用于图形渲染。处理器110可包括一个或多个GPU,其执行程序指令以生成或改变显示信息。
显示屏194用于显示图像,视频等。显示屏194包括显示面板。显示面板可以采用液晶显示屏(liquid crystal display,LCD),有机发光二极管(organic light-emittingdiode,OLED),有源矩阵有机发光二极体或主动矩阵有机发光二极体(active-matrixorganic light emitting diode的,AMOLED),柔性发光二极管(flex light-emittingdiode,FLED),Miniled,MicroLed,Micro-oLed,量子点发光二极管(quantum dot lightemitting diodes,QLED)等。在一些实施例中,电子设备100可以包括1个或N个显示屏194,N为大于1的正整数。
显示屏194在显示图像视频时,由DDIC(图1中未显示)将图像、视频等对应的模拟信号输出至显示屏194内部的显示器件,使得显示屏194显示相应画面。例如,DDIC将控制电压或电流输出至OLED发光层的阴阳极,阴阳极接受控制电压或电流,完成各像素驱动,使得显示屏显示画面。
内部存储器121可以用于存储计算机可执行程序代码,所述可执行程序代码包括指令。内部存储器121可以包括存储程序区和存储数据区。其中,存储程序区可存储操作系统,至少一个功能所需的应用程序(比如声音播放功能,图像播放功能等)等。存储数据区可存储电子设备100使用过程中所构建的数据(比如音频数据,)等。此外,内部存储器121可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件,闪存器件,通用闪存存储器(universal flash storage,UFS)等。处理器110通过运行存储在内部存储器121的指令,和/或存储在设置于处理器中的存储器的指令,执行电子设备100的各种功能应用以及数据处理。
电子设备100可以通过音频模块170,扬声器170A,麦克风170C,耳机接口170D,以及应用处理器等实现音频功能。例如音乐播放等。
音频模块170用于将数字音频信息转换成模拟音频信号输出,也用于将模拟音频输入转换为数字音频信号。音频模块170还可以用于对音频信号编码和解码。在一些实施例中,音频模块170可以设置于处理器110中,或将音频模块170的部分功能模块设置于处理器110中。
扬声器170A,也称“喇叭”,用于将音频电信号转换为声音信号。电子设备100可以通过扬声器170A收听音乐。
麦克风170C,也称“话筒”,“传声器”,用于将声音信号转换为电信号。用户可以通过人嘴靠近麦克风170C发声,将声音信号输入到麦克风170C。电子设备100可以设置至少一个麦克风170C。在另一些实施例中,电子设备100可以设置两个麦克风170C,除了采集声音信号,还可以实现降噪功能。在另一些实施例中,电子设备100还可以设置三个,四个或更多麦克风170C,实现采集声音信号,降噪,还可以识别声音来源,实现定向录音功能等。
耳机接口170D用于连接有线耳机。耳机接口170D可以是USB接口130,也可以是3.5mm的开放移动电子设备平台(open mobile terminal platform,OMTP)标准接口,美国蜂窝电信工业协会(cellular telecommunications industry association of the USA,CTIA)标准接口。
陀螺仪传感器180B可以用于确定电子设备100的运动姿态。在一些实施例中,可以通过陀螺仪传感器180B确定电子设备100围绕三个轴(即,x,y和z轴)的角速度。陀螺仪传感器180B可以用于导航,体感游戏场景。
加速度传感器180E可检测电子设备100在各个方向上(一般为三轴)加速度的大小。当电子设备100静止时可检测出重力的大小及方向。还可以用于识别电子设备姿态,应用于计步器等应用。
接近光传感器180G可以包括例如发光二极管(LED)和光检测器,例如光电二极管。发光二极管可以是红外发光二极管。电子设备100通过发光二极管向外发射红外光。电子设备100使用光电二极管检测来自附近物体的红外反射光。当检测到充分的反射光时,可以确定电子设备100附近有物体。当检测到不充分的反射光时,电子设备100可以确定电子设备100附近没有物体。
温度传感器180J用于检测温度。在一些实施例中,电子设备100利用温度传感器180J检测的温度,执行温度处理策略。例如,当温度传感器180J上报的温度超过阈值,电子设备100执行降低位于温度传感器180J附近的处理器的性能,以便降低功耗实施热保护。在另一些实施例中,当温度低于另一阈值时,电子设备100对电池142加热,以避免低温导致电子设备100异常关机。在其他一些实施例中,当温度低于又一阈值时,电子设备100对电池142的输出电压执行升压,以避免低温导致的异常关机。
按键190包括开机键,音量键等。按键190可以是机械按键。也可以是触摸式按键。电子设备100可以接收按键输入,产生与电子设备100的用户设置以及功能控制有关的键信号输入。
应理解,除了图2中列举的各种部件或者模块之外,本申请实施例对电子设备100的结构不做具体限定。在本申请另一些实施例中,电子设备100还可以包括比图示更多或更少的部件,或者组合某些部件,或者拆分某些部件,或者不同的部件布置。图示的部件可以以硬件,软件或软件和硬件的组合实现。
下面结合图3中的场景,以第一电子设备为机器人为例,对本申请提供的语音交互的方法的一个实施例进行介绍,图4示出了语音交互的方法400的示例性交互流程图。
步骤401,机器人构建地图。
例如,机器人在首次启动后,可以构建关于所处的环境的地图,例如,机器人所处的环境为家庭环境,家庭中除了机器人以外还存在其他电子设备,在以下描述中,将家庭中除去机器人以外的电子设备称为家庭中的电子设备。机器人在首次启动后,可以利用同步定位和地图构建(simultaneous localization and mapping,SLAM)技术构建家庭环境的地图。
例如,机器人通过基于激光雷达的同步定位和地图构建(LiDAR simultaneouslocalization and mapping,LiDAR SLAM)技术构建家庭环境的地图,在构建家庭环境的地图之后,可以对地图进行标定。
在一种实现方式中,可以对构建的地图进行人工标定,例如,可以由用户手动输入地图中的各个电子设备以及各个区域的名称,使得经过人工标定的地图中能够显示家庭中的各个电子设备以及各个区域的名称。值得一提的是,家庭中的各个区域可以是家庭中的卧室、客厅、厨房等各个区域。
在另一种实现方式中,机器人可以通过图像语义理解的方式对地图进行标定,例如,机器人可以通过机器人上的摄像头获取关于家庭环境的多帧图像,对获取的多帧图像通过图像语义理解的方式识别出各个电子设备的名称以及各个区域的名称,最终对地图进行标定,使得经过标定的地图中能够显示各个电子设备以及区域的名称。在本申请中,将机器人通过图像语义理解的方式对地图进行标定的方式称为自动标定的方式。
例如,家庭环境如图3中的(a)图所示,家庭中包括手机、平板、电视、音箱等电子设备,其中,手机、平板放置在客厅,电视、音箱安装在卧室,经过人工标定或自动标定后的地图中会显示家庭环境中各个区域的名称以及各个电子设备名称,例如,在地图上,卧室对应的区域中会出现卧室字样,客厅对应的区域中会出现客厅字样,手机处会出现手机字样,电视处会出现电视字样。
步骤402,机器人发送第二广播消息,第二广播消息携带地图信息。
机器人在对构建的地图进行标定后,可以将地图信息携带在第二广播消息中发送至家庭中的电子设备上,当机器人发送第二广播消息后,上述手机、平板、电视、音箱等电子设备可以接收到第二广播消息,根据第二广播消息,上述手机、平板、电视、音箱等电子设备可以获取家庭环境的地图信息。
除此之外,机器人还可以将地图信息上传至云端服务器,假设家庭中的电子设备与机器人共用同一个云账号,在这种情况下,家庭中的电子设备可以从云端服务器将地图信息同步至本地。
步骤403,机器人发送第一广播消息,第一广播消息携带机器人当前在家庭中所处的区域的名称。
除了向家庭中的电子设备通知家庭环境的地图信息外,机器人还可以通过室内定位技术周期性的确定自己当前在家庭中所处的区域,并将自己当前在家庭环境中所处的区域的名称通知给家庭中的电子设备。室内定位技术例如可以包括基于蓝牙的室内定位技术、基于无线保真(wireless-fidelity,Wi-Fi)的室内定位技术、基于ZigBee的室内定位技术以及基于超宽带(ultra wide band,UWB)的室内定位技术等。
例如,机器人通过室内定位技术确定出自己在家庭中所处的位置在家庭环境的地图中所对应的坐标,进一步地,机器人可以根据在家庭环境的地图中所对应的坐标确定自己当前在家庭中所处的区域。
在确定了当前在家庭中所处的区域后,机器人可以发送第一广播消息,第一广播消息携带机器人当前在家庭中所处的区域的名称。
当机器人发送第一广播消息后,上述手机、平板、电视、音箱等电子设备可以接收到第一广播消息,根据第一广播消息,上述手机、平板、电视、音箱等电子设备可以获取机器人当前在家庭中所处的区域的名称。
除此之外,机器人还可以将机器人当前在家庭中所处的区域的名称上传至云端服务器,假设家庭中的电子设备与机器人共用同一个云账号,在这种情况下,家庭中的电子设备可以从云端服务器将机器人当前在家庭中所处的区域的名称同步至本地。
步骤404,家庭中的电子设备确定自己在家庭中所处的区域的名称。
家庭中的电子设备可以通过室内定位技术确定自己当前在家庭中所处的区域,例如,电子设备通过室内定位技术确定出自己在家庭中所处的位置,并确定该位置在家庭环境的地图中所对应的坐标,进一步地,电子设备可以根据在家庭环境的地图中所对应的坐标确定自己当前在家庭中所处的区域。
步骤405,家庭中的电子设备根据自己在家庭中所处的区域的名称与机器人在家庭中所处的区域的名称,控制自己的语音助手进入静默模式。
家庭中的电子设备可以根据自己在家庭中所处的区域的名称以及机器人当前在家庭中所处的区域的名称,确定自己是否与机器人位于同一区域,如果确定自己与机器人位于同一区域,则可以控制自己的语音助手进入静默模式。由于机器人与家庭中的电子设备搭载了相同的语音助手,例如,机器人与家庭中的电子设备搭载了同一厂家的语音助手,因此,当家庭中与机器人位于同一区域的电子设备语音助手处于静默模式时,如果用户在机器人所处的区域内发出“针对语音助手的语音”,则机器人所处的区域内的家庭中的电子设备不会对该指令作出应答。值得一提的是,在本申请实施例中,当用户在机器人所处的区域内发出“针对语音助手的语音”时,与机器人处于同一区域的家庭中的电子设备与机器人的语音助手可以接收到用户语音触发的指令,除此之外,位于该区域以外的家庭中的电子设备的语音助手也可能会接收到用户语音触发的指令,本申请对此不作限定。
例如,如图3中的(b)图所示,机器人当前位于客厅,手机、平板当前位于客厅,电视、音箱当前位于卧室,因此,手机、平板根据自己在家庭中所处的区域的名称与机器人在家庭中所处的区域的名称,确定其与机器人位于同一区域,此处的客厅与第一区域对应。
对于手机、平板,由于其与机器人位于同一区域,在这种情况下,手机、平板可以控制各自的语音助手进入静默模式。
步骤406,机器人接收到用户语音触发的第一指令,第一指令请求执行第一任务。
步骤407,机器人根据用户语音触发的第一指令,向家庭中的电子设备中的第二电子设备发送第二指令,第二指令请求第二电子设备执行第一任务。相应的,第二电子设备接收来自机器人的第二指令。
步骤408,第二电子设备根据第二指令,执行第一任务。
在步骤407中,假设用户在客厅发出“针对语音助手的语音”,机器人的语音助手在获取到由用户语音触发的第一指令后,根据第一指令确定由客厅中的第二电子设备执行第一任务,并向第二电子设备发送第二指令。下面对机器人的语音助手确定执行第一任务的第二电子设备的几种方式分别进行说明。
方式1,机器人的语音助手根据第一指令,确定执行第一任务的第二电子设备。
例如,用户在客厅发出“请播放歌曲1”,在这种情况下,机器人的语音助手根据用户语音触发的第一指令,可以确定第一任务应该由具备音频播放能力的电子设备来执行,进一步的,机器人的语音助手可以判断当前客厅里是否存在具有音频播放能力的电子设备。
例如,机器人的语音助手可以在构建的家庭环境的地图中对客厅中的电子设备进行查看,从图3中的(b)图中可以看出,客厅中当前有手机和平板,因此,机器人的语音助手可以通过家庭环境的地图确定客厅里存在具备音频播放能力的电子设备,且分别为手机与平板,机器人的语音助手可以从二者中选出一个作为播放歌曲的电子设备。
例如,机器人的语音助手认为手机的音质更优,确定由手机执行第一任务,即由手机播放歌曲1,在这种情况下,第二电子设备为手机。
除此之外,机器人的语音助手也可以从手机和平板中任选一个电子设备作为执行第一任务的第二电子设备,本申请对此不作限定。例如,机器人的语音助手确定由平板执行第一任务,在这种情况下,第二电子设备为平板。
值得一提的是,如果机器人的语音助手在地图中没有找到具备音频播放能力的电子设备,机器人的语音助手可以提示用户目前客厅里没有具备音频播放能力的电子设备,之后机器人的语音助手可以根据用户的进一步指示执行相应操作。
方式2,机器人的语音助手根据第一指令中携带的第二电子设备的名称,确定执行第一任务的第二电子设备。
例如,用户在客厅发出“请在平板上播放动画片1”,在这种情况下,机器人的语音助手根据用户语音触发的第一指令,可以确定第一任务应该由平板来执行,进一步的,机器人的语音助手可以判断当前客厅里是否存在平板。
例如,机器人的语音助手可以在构建的家庭环境的地图中对客厅中的电子设备进行查看,从图3中的(b)图中可以看出,平板放置在客厅中,因此,机器人的语音助手可以通过家庭环境的地图确定平板放置在客厅,此时,机器人的语音助手可以将平板作为播放动画片1的电子设备,在这种情况下,第二电子设备为平板。
值得一提的是,如果机器人的语音助手在地图中没有找到平板,机器人的语音助手可以提示用户目前客厅里不存在平板,之后机器人的语音助手可以根据用户的进一步指示执行相应操作。
方式3,机器人的语音助手根据参考消息与第一指令,确定执行第一任务的第二电子设备。
例如,用户在客厅发出“去世园会怎么走”,机器人的语音助手在接收到第一指令后,可以根据用户语音触发的第一指令确定第一任务应该由具备显示功能的电子设备执行,进一步的,机器人的语音助手可以判断当前客厅里是否存在具备显示功能的电子设备。
例如,机器人的语音助手可以在构建的家庭环境的地图中对客厅中的电子设备进行查看,从图3中的(b)图中可以看出,手机、平板放置在客厅中,因此,机器人的语音助手可以通过家庭环境的地图确定客厅里存在具备显示功能的电子设备,且分别为手机与平板,机器人的语音助手可以从二者中选出一个作为执行第一任务的第二电子设备。
在确定执行第一任务的第二电子设备时,机器人的语音助手可以获取参考信息,根据参考信息确定执行第一任务的第二电子设备,其中,参考信息可以包括用户的肢体动作信息和/或用户的视线信息。
例如,在一种实现方式中,机器人的语音助手通过摄像头获取关于家庭环境的至少一帧图像,在对获取的图像进行分析后,假设机器人的语音助手确定用户的手指当前处于指向手机的状态,此时,机器人的语音助手获取的参考信息为用户的肢体动作信息,根据用户的肢体动作信息,机器人的语音助手可以确定由手机执行第一任务,即由手机向用户显示相应的路线,在这种情况下,第二电子设备为手机。
在另一种实现方式中,机器人的语音助手通过摄像头获取关于家庭环境的至少一帧图像,在对获取的图像进行分析后,假设机器人的语音助手确定用户的视线当前落在平板上,此时,机器人的语音助手获取的参考信息为用户的视线信息,根据用户的视线信息,机器人的语音助手可以确定由平板执行第一任务,即由平板向用户显示相应的路线,在这种情况下,第二电子设备为平板。
在再一种实现方式中,机器人的语音助手通过摄像头获取关于家庭环境的至少一帧图像,在对获取的图像进行分析后,假设机器人的语音助手确定用户的视线当前落在平板上,且确定用户的手指当前处于指向平板的状态,此时,机器人的语音助手获取的参考信息为用户的视线信息与用户的肢体动作信息,根据用户的视线信息与用户的肢体动作信息,机器人的语音助手可以确定由平板执行第一任务,即由平板向用户显示相应的路线,在这种情况下,第二电子设备为平板。
值得一提的是,如果机器人的语音助手在地图中没有找到具备显示功能的电子设备,机器人的语音助手可以提示用户目前客厅里没有具备显示功能的电子设备,之后机器人的语音助手可以根据用户的进一步指示执行相应操作。
步骤S407中,在确定出执行第一任务的第二电子设备之后,机器人的语音助手可以向第二电子设备的语音助手发送第二指令,例如,机器人的语音助手可以通过以下方式向第二电子设备的语音助手发送第二指令:
机器人的语音助手可以将第二指令携带在第四广播消息中,并发送第四广播消息,其中,第四广播消息中携带有第二电子设备的标识,此外,由于第二电子设备的语音助手当前处于静默模式,根据前述对静默模式的描述可知,当语音助手处于静默模式时,语音助手不会对接收到的指令作出应答,为了使第二电子设备的语音助手在静默模式下能够执行第二指令,可以在第四广播消息中携带指示对第二指令作出应答的标识,以使第二电子设备的语音助手在静默模式下能够执行第二指令。
例如,机器人的语音助手确定由手机执行第一任务,机器人的语音助手将第二指令、手机的标识以及指示手机对第二指令作出应答的标识携带在第四广播消息中,并发送第四广播消息。
上述第二电子设备的标识可以是机器人的语音助手从云端服务器获取的,例如,家庭中的电子设备可以预先将各自的设备标识上传至云端服务器,假设家庭中的电子设备与机器人共用同一个云账号,在这种情况下,机器人的语音助手可以从云端服务器将家庭中的电子设备的设备标识同步至本地。
上述第二电子设备的标识例如可以是第二电子设备的设备ID。
此外,机器人还可以通过以下方式发送第二指令:
例如,机器人可以先与第二电子设备建立蓝牙连接或进行无线保真(Wireless-Fidelity,Wi-Fi)直连等连接,在建立连接后,机器人的语音助手向第二电子设备的语音助手发送包含有第二指令与指示对第二指令作出应答的标识的报文。
在步骤408中,第二电子设备在获取到第二指令后,执行第二指令请求的第一任务。例如,手机的语音助手在获取到第四广播消息时,根据第四广播消息中携带的手机的标识,确定第四广播消息是发给自己的,进一步手机的语音助手根据第四广播消息中携带的指示对第二指令作出应答的标识,执行第二指令所请求的第一任务。例如,第二指令请求播放歌曲1,手机在接收到第四广播消息后,播放歌曲1。
在本申请中,机器人在家庭中可以自由移动或者跟随用户进行移动,在这种情况下,方法400还可以包括:
步骤409,机器人发送第三广播消息,第三广播消息携带机器人移动之后在家庭中所处的区域的名称。
当机器人在家庭中发生移动之后,机器人可以通过室内定位技术确定自己移动之后在家庭中所处的区域,并将自己移动之后在家庭环境中所处的区域的名称通知给家庭中的电子设备。关于机器人确定自己移动之后在家庭环境中所处的区域的名称的方法请参考步骤403中的相关描述,为了简洁,此处不再赘述。
在确定了移动之后在家庭中所处的区域后,机器人可以发送第三广播消息,第三广播消息携带机器人移动之后在家庭中所处的区域的名称。
当机器人发送第三广播消息后,上述手机、平板、电视、音箱等电子设备可以接收到第三广播消息,根据第三广播消息,上述手机、平板、电视、音箱等电子设备可以获取机器人移动之后在家庭中所处的区域的名称。
除此之外,机器人还可以将机器人移动之后在家庭中所处的区域的名称上传至云端服务器,假设家庭中的电子设备与机器人共用同一个云账号,在这种情况下,家庭中的电子设备可以从云端服务器将机器人移动之后在家庭中所处的区域的名称同步至本地。
步骤410,家庭中的电子设备根据自己在家庭中所处的区域的名称与机器人移动之后在家庭中所处的区域的名称,控制自己的语音助手从静默模式进入工作模式。
例如,如图3中的(c)图所示,机器人跟随用户从客厅移动到了卧室,在这种情况下,当机器人通过室内定位技术确定自己移动之后位于家庭中的卧室后,机器人在发送的第三广播消息中会携带机器人移动之后在家庭中所处的区域(即,卧室)的名称,此处的卧室与第二区域对应。
家庭中的电子设备可以根据自己在家庭中所处的区域的名称以及机器人移动之后在家庭中所处的区域的名称,确定自己是否与机器人位于同一区域,如果确定自己与机器人位于不同区域,则可以使自己的语音助手进入工作模式。
例如,如图3中的(c)图所示,机器人移动之后位于卧室,手机、平板当前位于客厅,因此,手机、平板根据自己在家庭中所处的区域的名称与机器人在家庭中所处的区域的名称,确定其与机器人位于不同区域,在这种情况下,手机、平板可以控制各自的语音助手从静默模式进入工作模式,以便后续当客厅内的电子设备接收到用户语音触发的指令时,客厅内的电子设备可以对用户语音触发的指令进行应答。
下面结合图5中的场景,以第一电子设备为机器人为例,对本申请提供的语音交互的方法的另一个实施例进行介绍,图6示出了语音交互的方法500的示例性交互流程图。
步骤501,机器人构建地图。其中,步骤501中的家庭环境如图5中的(a)图所示,关于步骤501的机器人构建地图的方法请参考步骤401中的相关描述,为了简洁,此处不再赘述。
步骤502,机器人发送第二广播消息,第二广播消息携带地图信息。关于步骤502的具体细节请参考步骤402中的相关描述,为了简洁,此处不再赘述。
步骤503,机器人发送第一广播消息,第一广播消息携带机器人当前在家庭中所处的位置对应的坐标与通信范围的信息,通信范围是机器人能够与家庭中的电子设备进行正常通信的范围。
除了向家庭中的电子设备通知家庭环境的地图信息外,机器人还可以通过室内定位技术周期性的确定自己当前在家庭中所处的位置在地图中对应的坐标,并将自己当前在家庭环境中所处的位置在地图中对应的坐标以及通信范围的信息通知给家庭中的电子设备。
例如,机器人通过室内定位技术确定出自己在家庭中所处的位置在地图中所对应的坐标,在确定了当前在家庭中所处的位置在地图中所对应的坐标后,机器人可以发送第一广播消息,第一广播消息携带机器人当前在家庭中所处的位置在地图中所对应的坐标。
当机器人发送第一广播消息后,上述手机、平板、电视、音箱等电子设备可以接收到第一广播消息,根据第一广播消息,上述手机、平板、电视、音箱等电子设备可以获取机器人当前在家庭中所处的位置在地图中所对应的坐标。
机器人还可以在第一广播消息中携带通信范围的信息,例如,通信范围的信息可以指示通信范围是以机器人为圆心,预设半径的圆对应的区域。
除此之外,机器人还可以将机器人当前在家庭中所处的位置在地图中所对应的坐标上传至云端服务器,假设家庭中的电子设备与机器人共用同一个云账号,在这种情况下,家庭中的电子设备可以从云端服务器将机器人当前在家庭中所处的位置在地图中所对应的坐标同步至本地。
类似的,机器人还可以将通信范围的信息上传至云端服务器,假设家庭中的电子设备与机器人共用同一个云账号,在这种情况下,家庭中的电子设备可以从云端服务器将通信范围的信息同步至本地。
步骤504,家庭中的电子设备确定自己在家庭中所处的位置对应的坐标。
家庭中的电子设备可以通过室内定位技术确定自己当前在家庭中所处的位置在地图中对应的坐标,例如,电子设备通过室内定位技术确定出自己在家庭中所处的位置在地图中所对应的坐标。
步骤505,家庭中的电子设备根据自己在家庭中所处的位置在地图中对应的坐标、机器人在家庭中所处的位置在地图中对应的坐标以及通信范围的信息,控制自己的语音助手进入静默模式。
家庭中的电子设备可以根据自己在家庭中所处的位置在地图中对应的坐标以及机器人当前在家庭中所处的位置在地图中所对应的坐标,确定自己与机器人之间的距离,再结合通信范围的信息,家庭中的电子设备可以确定自己当前是否位于通信范围内,如果确定自己位于通信范围内,则可以控制自己的语音助手进入静默模式。由于机器人与家庭中的电子设备搭载了相同的语音助手,例如,机器人与家庭中的电子设备搭载了同一厂家的语音助手,因此,当家庭中位于通信范围内的电子设备语音助手处于静默模式时,如果用户在通信范围内发出“针对语音助手的语音”,则通信范围内的家庭中的电子设备不会对该指令作出应答。值得一提的是,在本申请实施例中,假设当用户在通信范围内发出“针对语音助手的语音”时,位于该通信范围内的电子设备与机器人的语音助手可以接收到用户语音触发的指令,除此之外,位于通信范围以外的家庭中的电子设备也可能会接收到用户语音触发的指令,本申请对此不作限定。
例如,通信范围的信息指示通信范围是以机器人为圆心,半径为5米的圆内的区域,如图5中的(b)图所示,机器人当前位于客厅,此处的客厅与第一区域对应,在这种情况下,通信范围如图5中的(b)图所示,从图中可以看出,电视、平板当前位于通信范围内,手机、音箱当前位于通信范围外,因此,电视、平板根据自己在家庭中所处的位置对应的坐标、机器人当前在家庭中所处的位置在地图中所对应的坐标以及通信范围的信息,可以确定各自位于通信范围内,在这种情况下,电视、平板可以控制各自的语音助手进入静默模式。
步骤506,机器人接收到用户语音触发的第一指令,第一指令请求执行第一任务。
步骤507,机器人根据用户语音触发的第二指令,向家庭中的电子设备中的第二电子设备发送第二指令,第二指令请求第二电子设备执行第一任务。相应的,第二电子设备接收来自机器人的第二指令。
步骤508,第二电子设备根据第二指令,执行第一任务。关于步骤508的具体细节请参考方法400中步骤408的相关描述,为了简洁,此处不再赘述。
在步骤507中,假设用户在通信范围内发出“针对语音助手的语音”,机器人的语音助手在获取到由用户语音触发的第一指令后,根据第一指令确定由通信范围内的第二电子设备执行第一任务,并向第二电子设备发送第二指令。下面对机器人的语音助手确定执行第一任务的第二电子设备的几种方式分别进行说明。
方式1,机器人的语音助手根据第一指令,确定执行第一任务的第二电子设备。
例如,用户在通信范围发出“请播放歌曲1”,在这种情况下,机器人的语音助手根据用户语音触发的第一指令,可以确定第一任务应该由具备音频播放能力的电子设备来执行,进一步的,机器人的语音助手可以判断当前通信范围内是否存在具有音频播放能力的电子设备。
例如,机器人的语音助手可以在构建的家庭环境的地图中对通信范围内的电子设备进行查看,从图5中的(b)图中可以看出,通信范围内当前有手机和平板,因此,机器人的语音助手可以通过家庭环境的地图确定通信范围内存在具备音频播放能力的电子设备,且分别为手机与平板,机器人的语音助手可以从二者中选出一个作为播放歌曲的电子设备。
例如,机器人的语音助手认为手机的音质更优,确定由手机执行第一任务,即由手机播放歌曲1,在这种情况下,第二电子设备为手机。
除此之外,机器人的语音助手也可以从手机和平板中任选一个电子设备作为执行第一任务的第二电子设备,本申请对此不作限定。例如,机器人的语音助手确定由平板执行第一任务,在这种情况下,第二电子设备为平板。
值得一提的是,如果机器人的语音助手在地图中没有找到具备音频播放能力的电子设备,机器人的语音助手可以提示用户目前通信范围内没有具备音频播放能力的电子设备,之后机器人的语音助手可以根据用户的进一步指示执行相应操作。
方式2,机器人的语音助手根据第一指令中携带的第二电子设备的名称,确定执行第一任务的第二电子设备。
例如,用户在通信范围发出“请在平板上播放动画片1”,在这种情况下,机器人的语音助手根据用户语音触发的第一指令,可以确定第一任务应该由平板来执行,进一步的,机器人的语音助手可以判断当前通信范围内是否存在平板。
例如,机器人的语音助手可以在构建的家庭环境的地图中对通信范围内的电子设备进行查看,从图5中的(b)图中可以看出,平板放置在通信范围内,因此,机器人的语音助手可以通过家庭环境的地图确定平板放置在通信范围,此时,机器人的语音助手可以将平板作为播放动画片1的电子设备,在这种情况下,第二电子设备为平板。
值得一提的是,如果机器人的语音助手在地图中没有找到平板,机器人的语音助手可以提示用户目前通信范围内不存在平板,之后机器人的语音助手可以根据用户的进一步指示执行相应操作。
方式3,机器人的语音助手根据参考消息与第一指令,确定执行第一任务的第二电子设备。
例如,用户在通信范围发出“去世园会怎么走”,机器人的语音助手在接收到第一指令后,可以根据用户语音触发的第一指令确定第一任务应该由具备显示功能的电子设备执行,进一步的,机器人的语音助手可以判断当前通信范围内是否存在具备显示功能的电子设备。
例如,机器人的语音助手可以在构建的家庭环境的地图中对通信范围内的电子设备进行查看,从图5中的(b)图中可以看出,手机、平板放置在通信范围内,因此,机器人的语音助手可以通过家庭环境的地图确定通信范围内存在具备显示功能的电子设备,且分别为手机与平板,机器人的语音助手可以从二者中选出一个作为执行第一任务的第二电子设备。
在确定执行第一任务的第二电子设备时,机器人的语音助手可以获取参考信息,根据参考信息确定执行第一任务的第二电子设备其中,参考信息可以包括用户的肢体动作信息和/或用户的视线信息。
例如,在一种实现方式中,机器人的语音助手通过摄像头获取关于家庭环境的至少一帧图像,在对获取的图像进行分析后,假设机器人的语音助手确定用户的手指当前处于指向手机的状态,此时,机器人的语音助手获取的参考信息为用户的肢体动作信息,根据用户的肢体动作信息,机器人的语音助手可以确定由手机执行第一任务,即由手机向用户显示相应的路线,在这种情况下,第二电子设备为手机。
在另一种实现方式中,机器人的语音助手通过摄像头获取关于家庭环境的至少一帧图像,在对获取的图像进行分析后,假设机器人的语音助手确定用户的视线当前落在平板上,此时,机器人的语音助手获取的参考信息为用户的视线信息,根据用户的视线信息,机器人的语音助手可以确定由平板执行第一任务,即由平板向用户显示相应的路线,在这种情况下,第二电子设备为平板。
在再一种实现方式中,机器人的语音助手通过摄像头获取关于家庭环境的至少一帧图像,在对获取的图像进行分析后,假设机器人的语音助手确定用户的视线当前落在平板上,且确定用户的手指当前处于指向平板的状态,此时,机器人的语音助手获取的参考信息为用户的视线信息与用户的肢体动作信息,根据用户的视线信息与用户的肢体动作信息,机器人的语音助手可以确定由平板执行第一任务,即由平板向用户显示相应的路线,在这种情况下,第二电子设备为平板。
值得一提的是,如果机器人的语音助手在地图中没有找到具备显示功能的电子设备,机器人的语音助手可以提示用户目前通信范围内没有具备显示功能的电子设备,之后机器人的语音助手可以根据用户的进一步指示执行相应操作。
在确定出执行第一任务的第二电子设备之后,机器人的语音助手可以向第二电子设备发送第二指令,关于机器人的语音助手向第二电子设备发送第二指令的具体描述请参考方法400中步骤407的相关描述,为了简洁,此处不再赘述。
在本申请中,机器人在家庭中可以自由移动或者跟随用户进行移动,在这种情况下,方法500还可以包括:
步骤509,机器人发送第三广播消息,第三广播消息携带机器人移动之后在家庭中所处的位置对应的坐标。
当机器人在家庭中发生移动之后,机器人可以通过室内定位技术确定自己移动之后在家庭中所处的位置在地图中对应的坐标,并将自己移动之后在家庭环境中所处的位置在地图中对应的坐标通知给家庭中的电子设备。关于机器人确定自己移动之后在家庭环境中所处的位置对应的坐标的方法请参考步骤503中的相关描述,为了简洁,此处不再赘述。
在确定了移动之后在家庭中所处的位置在地图中对应的坐标后,机器人可以发送第三广播消息,第三广播消息携带机器人移动之后在家庭中所处的位置在地图中对应的坐标。
当机器人发送第三广播消息后,上述手机、平板、电视、音箱等电子设备可以接收到第三广播消息,根据第三广播消息,上述手机、平板、电视、音箱等电子设备可以获取机器人移动之后在家庭中所处的位置在地图中对应的坐标。
除此之外,机器人还可以将机器人移动之后在家庭中所处的位置在地图中对应的坐标上传至云端服务器,假设家庭中的电子设备与机器人共用同一个云账号,在这种情况下,家庭中的电子设备可以从云端服务器将机器人移动之后在家庭中所处的位置在地图中对应的坐标同步至本地。
步骤510,家庭中的电子设备根据自己在家庭中所处的位置在地图中对应的坐标、机器人移动之后在家庭中所处的位置在地图中对应的坐标与通信范围的信息,控制自己的语音助手从静默模式进入工作模式。
家庭中的电子设备可以根据自己在家庭中所处的位置在地图中对应的坐标以及机器人移动之后在家庭中所处的位置在地图中对应的坐标,确定自己与机器人之间的距离,再结合通信范围的信息,家庭中的电子设备可以确定自己当前是否位于通信范围内,如果确定自己位于通信范围外,则可以控制自己的语音助手从静默模式进入工作模式。
例如,通信范围的信息指示通信范围是以机器人为圆心,半径为5米的圆内的区域,如图5中的(c)图所示,机器人移动到了卧室,此处的卧室与第二区域对应,在这种情况下,通信范围如图5中的(c)图所示,从图中可以看出,电视、平板当前位于通信范围外,因此,电视、平板根据自己在家庭中所处的位置在地图中对应的坐标、机器人移动之后在家庭中所处的位置在地图中所对应的坐标以及通信范围的信息,可以确定各自位于通信范围外,在这种情况下,电视、平板可以控制各自的语音助手从静默模式进入工作模式,以便后续当通信范围以外的电子设备接收到用户语音触发的指令时,通信范围以外的电子设备可以对用户语音触发的指令进行应答。
需要说明的是,上述方法400与方法500仅作为示例性描述,并不对本申请构成限定,例如,在具体实现时,家庭中的电子设备的语音助手的工作模式可以由用户进行手动设置,换句话说,用户可以根据实际需求将家庭中的电子设备的语音助手的工作模式设置在静默模式或工作模式,在这种情况下,方法400中的步骤401至步骤405可以不是必须执行的步骤,同样的,方法500中的步骤501至步骤505也可以不是必须执行的步骤。
此外,在本申请实施例中,机器人还可以基于视觉的同步定位和地图构建(visualsimultaneous localization and mapping,vSLAM)技术构建家庭环境的地图,在这种情况下,机器人上可以配置有摄像头,机器人可以在构建地图的过程中通过图像语义理解的方式对地图进行标定。
本实施例可以根据上述方法示例对电子设备进行功能模块的划分,例如,可以对应各个功能划分各个功能模块,也可以将两个或两个以上的功能集成在一个处理模块中。上述集成的模块可以采用硬件的形式实现。需要说明的是,本实施例中对模块的划分是示意性的,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
需要说明的是,上述方法实施例涉及的各步骤的所有相关内容均可以援引到对应功能模块的功能描述,在此不再赘述。
本实施例提供的电子设备,用于执行上述语音交互的方法,因此可以达到与上述实现方法相同的效果。在采用集成的单元的情况下,电子设备可以包括处理模块、存储模块和通信模块。其中,处理模块可以用于对电子设备的动作进行控制管理,例如,可以用于支持电子设备执行处理单元执行的步骤。存储模块可以用于支持电子设备执行存储程序代码和数据等。通信模块,可以用于支持电子设备与其他设备的通信。
其中,处理模块可以是处理器或控制器。其可以实现或执行结合本申请公开内容所描述的各种示例性的逻辑方框,模块和电路。处理器也可以是实现计算功能的组合,例如包含一个或多个微处理器组合,数字信号处理(digital signal processing,DSP)和微处理器的组合等等。存储模块可以是存储器。通信模块具体可以为射频电路、蓝牙芯片、Wi-Fi芯片等与其他电子设备交互的设备。
在一个实施例中,当处理模块为处理器,存储模块为存储器时,本实施例所涉及的电子设备可以为具有图2所示结构的设备。
本实施例还提供一种计算机可读存储介质,该计算机可读存储介质中存储有计算机指令,当该计算机指令在电子设备上运行时,使得电子设备执行上述相关方法步骤实现上述实施例中的语音交互的方法。
本实施例还提供了一种计算机程序产品,当该计算机程序产品在计算机上运行时,使得计算机执行上述相关步骤,以实现上述实施例中的语音交互的方法。
另外,本申请的实施例还提供一种装置,这个装置具体可以是芯片,组件或模块,该装置可包括相连的处理器和存储器;其中,存储器用于存储计算机执行指令,当装置运行时,处理器可执行存储器存储的计算机执行指令,以使芯片执行上述各方法实施例中的语音交互的方法。
其中,本实施例提供的电子设备、计算机存储介质、计算机程序产品或芯片均用于执行上文所提供的对应的方法,因此,其所能达到的有益效果可参考上文所提供的对应的方法中的有益效果,此处不再赘述。
通过以上实施方式的描述,所属领域的技术人员可以了解到,为描述的方便和简洁,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个装置,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是一个物理单元或多个物理单元,即可以位于一个地方,或者也可以分布到多个不同地方。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个可读取存储介质中。基于这样的理解,本申请实施例的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该软件产品存储在一个存储介质中,包括若干指令用以使得一个设备(可以是单片机,芯片等)或处理器(processor)执行本申请各个实施例方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(read only memory,ROM)、随机存取存储器(random access memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上内容,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以权利要求的保护范围为准。

Claims (32)

1.一种语音交互的方法,其特征在于,所述方法由至少两个电子设备中的第一电子设备执行,所述至少两个电子设备当前位于第一区域,所述至少两个电子设备搭载的语音助手是相同的,且所述至少两个电子设备中除所述第一电子设备以外的其他电子设备的语音助手均处于静默模式,包括:
接收用户语音触发的第一指令,所述第一指令请求执行第一任务;
根据所述第一指令,向第二电子设备发送第二指令,所述第二指令请求所述第二电子设备执行所述第一任务,所述第二电子设备为所述其他电子设备中的一个。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
获取参考信息,所述参考信息指示用户期望所述第二电子设备执行所述第一任务;
所述根据所述第一指令,向所述第二电子设备发送所述第二指令,包括:
根据所述第一指令与所述参考信息,向所述第二电子设备发送所述第二指令。
3.根据权利要求2所述的方法,其特征在于,所述参考信息包括用户的肢体动作信息和/或用户的视线信息。
4.根据权利要求1所述的方法,其特征在于,所述第一指令携带有所述第二电子设备的名称。
5.根据权利要求1至4中任一项所述的方法,其特征在于,所述方法还包括:
获取所述第一电子设备当前的位置信息;
向所述第二电子设备发送第一广播消息,所述第一广播消息携带所述第一电子设备当前的位置信息。
6.根据权利要求5所述的方法,其特征在于,所述当前的位置信息包括所述第一电子设备当前所处的区域的名称或所述第一电子设备当前所处的位置对应的坐标。
7.根据权利要求6所述的方法,其特征在于,在所述当前的位置信息包括所述第一电子设备当前所处的位置对应的坐标的情况下,所述第一广播消息还携带所述第一电子设备对应的通信范围的信息。
8.根据权利要求7所述的方法,其特征在于,所述获取所述第一电子设备当前的位置信息,包括:
获取地图信息,所述地图信息包括所述第一区域的地图信息;
根据所述地图信息,获取所述第一电子设备当前的位置信息。
9.根据权利要求8所述的方法,其特征在于,所述方法还包括:
向所述第二电子设备发送第二广播消息,所述第二广播消息携带所述地图信息。
10.根据权利要求8或9所述的方法,其特征在于,所述第一电子设备是可移动的,所述方法还包括:
在所述第一电子设备移动到第二区域后,根据所述地图信息,获取所述第一电子设备的移动之后的位置信息,所述地图信息包括所述第二区域的地图信息;
发送第三广播消息,所述第三广播消息携带所述第一电子设备的移动之后的位置信息。
11.根据权利要求10所述的方法,其特征在于,所述移动之后的位置信息包括所述第一电子设备移动之后所处的区域的名称或所述第一电子设备移动之后所处的位置对应的坐标。
12.一种语音交互的方法,其特征在于,所述方法由至少两个电子设备中的第二电子设备执行,所述至少两个电子设备位于第一区域,所述至少两个电子设备搭载的语音助手是相同的,且所述至少两个电子设备中除第一电子设备以外的其他电子设备的语音助手均处于静默模式,包括:
获取来自所述第一电子设备的第二指令,所述第二指令请求所述第二电子设备执行第一任务,其中,所述第二指令是所述第一电子设备根据第一指令发送的,所述第一指令请求执行所述第一任务;
根据所述第二指令,执行所述第一任务。
13.根据权利要求12所述的方法,其特征在于,所述方法还包括:
获取所述第一电子设备当前的位置信息与所述第二电子设备当前的位置信息;
根据所述第一电子设备当前的位置信息与所述第二电子设备当前的位置信息,控制所述第二电子设备的语音助手进入静默模式。
14.根据权利要求13所述的方法,其特征在于,所述第一电子设备当前的位置信息包括所述第一电子设备当前所处的区域的名称,所述第二电子设备当前的位置信息包括所述第二电子设备当前所处的区域的名称,
所述根据所述第一电子设备当前的位置信息与所述第二电子设备当前的位置信息,控制所述第二电子设备的语音助手进入静默模式,包括:
如果所述第二电子设备处于所述第一区域,控制所述第二电子设备的语音助手进入静默模式。
15.根据权利要求12所述的方法,其特征在于,所述方法还包括:
获取所述第一电子设备当前的位置信息、所述第二电子设备当前的位置信息与所述第一电子设备对应的通信范围的信息;
根据所述第一电子设备当前的位置信息、所述第二电子设备当前的位置信息与所述第一电子设备对应的通信范围的信息,控制所述第二电子设备的语音助手进入静默模式。
16.根据权利要求15所述的方法,其特征在于,所述第一电子设备当前的位置信息包括所述第一电子设备当前所处的位置对应的坐标,所述第二电子设备当前的位置信息包括所述第二电子设备当前所处的位置对应的坐标,
所述根据所述第一电子设备当前的位置信息、所述第二电子设备当前的位置信息与所述第一电子设备对应的通信范围的信息,控制所述第二电子设备的语音助手进入静默模式,包括:
根据所述第一电子设备当前所处的位置对应的坐标与所述第二电子设备当前所处的位置对应的坐标,确定所述第一电子设备与所述第二电子设备之间的距离;
根据所述距离与所述第一电子设备对应的通信范围的信息,确定所述第二电子设备是否位于所述第一电子设备对应的通信范围内;
如果所述第二电子设备位于所述第一电子设备对应的通信范围内,控制所述第二电子设备的语音助手进入静默模式。
17.根据权利要求15或16所述的方法,其特征在于,所述获取第一电子设备对应的通信范围的信息,包括:
接收来自所述第一电子设备的第一广播消息,所述第一广播消息携带所述第一电子设备对应的通信范围的信息;
根据所述第一广播消息,获取所述第一电子设备对应的通信范围的信息。
18.根据权利要求13至17中任一项所述的方法,其特征在于,所述获取所述第一电子设备当前的位置信息,包括:
接收来自所述第一电子设备的第一广播消息,所述第一广播消息携带所述第一电子设备的当前的位置信息;
根据所述第一广播消息,获取所述第一电子设备的当前的位置信息。
19.根据权利要求13至18中任一项所述的方法,其特征在于,所述获取所述第二电子设备当前的位置信息,包括:
获取地图信息,所述地图信息包括所述第一区域的地图信息;
根据所述地图信息,获取所述第二电子设备当前的位置信息。
20.根据权利要求19所述的方法,其特征在于,所述获取所述地图信息,包括:
接收来自所述第一电子设备的第二广播消息,所述第二广播消息携带所述地图信息。
21.根据权利要求13至20中任一项所述的方法,其特征在于,所述方法还包括:
在所述第一电子设备移动到第二区域后,获取所述第一电子设备的移动之后的位置信息;
根据所述第一电子设备的移动之后的位置信息与所述第二电子设备当前的位置信息,控制所述第二电子设备的语音助手从静默模式进入工作模式。
22.根据权利要求21所述的方法,其特征在于,所述第一电子设备移动之后的位置信息包括所述第一电子设备移动之后所处的区域的名称,所述第二电子设备当前的位置信息包括所述第二电子设备当前所处的区域的名称,
所述根据所述第一电子设备的移动之后的位置信息与所述第二电子设备当前的位置信息,控制所述第二电子设备的语音助手从静默模式进入工作模式,包括:
如果所述第一电子设备处于第二区域,且所述第二电子设备处于所述第一区域,控制所述第二电子设备的语音助手从静默模式进入工作模式。
23.根据权利要求15至20中任一项所述的方法,其特征在于,所述方法还包括:
在所述第一电子设备移动到第二区域后,获取所述第一电子设备的移动之后的位置信息;
根据所述第一电子设备的移动之后的位置信息、所述第二电子设备当前的位置信息与所述第一电子设备对应的通信范围的信息,控制所述第二电子设备的语音助手从静默模式进入工作模式。
24.根据权利要求23所述的方法,其特征在于,所述第一电子设备的移动之后的位置信息包括所述第一电子设备移动之后所处的位置对应的坐标,所述第二电子设备当前的位置信息包括所述第二电子设备当前所处的位置对应的坐标,
所述根据所述第一电子设备的移动之后的位置信息、所述第二电子设备当前的位置信息与所述第一电子设备对应的通信范围的信息,控制所述第二电子设备的语音助手从静默模式进入工作模式,包括:
根据所述第一电子设备移动之后所处的位置对应的坐标与所述第二电子设备当前所处的位置对应的坐标,确定所述第一电子设备与所述第二电子设备之间的距离;
根据所述距离与所述第一电子设备对应的通信范围的信息,确定所述第二电子设备是否位于所述第一电子设备对应的通信范围内;
如果所述第二电子设备位于所述第一电子设备对应的通信范围之外,控制所述第二电子设备的语音助手从静默模式进入工作模式。
25.根据权利要求21至24中任一项所述的方法,其特征在于,所述获取所述第一电子设备的移动之后的位置信息,包括:
在接收到第三广播消息的情况下,根据所述第三广播消息,获取所述第一电子设备的移动之后的位置信息,所述第三广播消息携带所述第一电子设备的移动之后的位置信息,所述地图信息包括所述第二区域的地图信息。
26.根据权利要求12至25中任一项所述的方法,其特征在于,所述第二指令是所述第一电子设备根据所述第一指令与参考信息发送的,所述参考信息指示用户期望所述第二电子设备执行所述第一任务。
27.根据权利要求26所述的方法,其特征在于,所述参考信息包括用户的肢体动作信息和/或用户的视线信息。
28.根据权利要求12至25中任一项所述的方法,其特征在于,所述第一指令携带有所述第二电子设备的名称。
29.一种电子设备,其特征在于,包括:一个或多个处理器;存储器;安装有多个应用程序的模块;以及一个或多个程序,其中所述一个或多个程序被存储在所述存储器中,当所述一个或者多个程序被所述处理器执行时,使得所述电子设备执行如权利要求1至11中任一项所述的方法,或,使得所述电子设备执行如权利要求12至28中任一项所述的方法。
30.一种通信系统,所述通信系统至少包括第一电子设备和第二电子设备,所述第一电子设备用于执行权利要求1至11中任一项所述的方法,所述第二电子设备用于执行权利要求12至28中任一项所述的方法。
31.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机指令,当所述计算机指令在电子设备上运行时,使得所述电子设备执行如权利要求1至11中任一项所述的方法,或,使得所述电子设备执行如权利要求12至28中任一项所述的方法。
32.一种计算机程序产品,其特征在于,当所述计算机程序产品在计算机上运行时,使得所述计算机执行如权利要求1至11中任一项所述的方法,或,使得所述电子设备执行如权利要求12至28中任一项所述的方法。
CN202110223033.2A 2021-02-26 2021-02-26 语音交互的方法与电子设备 Pending CN114968166A (zh)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN202110223033.2A CN114968166A (zh) 2021-02-26 2021-02-26 语音交互的方法与电子设备
PCT/CN2021/139315 WO2022179269A1 (zh) 2021-02-26 2021-12-17 语音交互的方法与电子设备
US18/278,665 US20240127813A1 (en) 2021-02-26 2021-12-17 Voice interaction method and electronic device
EP21927693.8A EP4290362A4 (en) 2021-02-26 2021-12-17 VOICE INTERACTION METHOD AND ELECTRONIC DEVICE

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110223033.2A CN114968166A (zh) 2021-02-26 2021-02-26 语音交互的方法与电子设备

Publications (1)

Publication Number Publication Date
CN114968166A true CN114968166A (zh) 2022-08-30

Family

ID=82973045

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110223033.2A Pending CN114968166A (zh) 2021-02-26 2021-02-26 语音交互的方法与电子设备

Country Status (4)

Country Link
US (1) US20240127813A1 (zh)
EP (1) EP4290362A4 (zh)
CN (1) CN114968166A (zh)
WO (1) WO2022179269A1 (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12462789B2 (en) * 2023-10-23 2025-11-04 GM Global Technology Operations LLC Language detection system for a vehicle

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1423228A (zh) * 2002-10-17 2003-06-11 南开大学 识别人眼注视方向的装置和方法及其应用
CN110910880A (zh) * 2019-11-29 2020-03-24 广东美的厨房电器制造有限公司 语音控制方法、系统、设备及存储介质
CN111968641A (zh) * 2020-08-20 2020-11-20 Oppo(重庆)智能科技有限公司 语音助手唤醒控制方法及装置、存储介质和电子设备
WO2020241906A1 (ko) * 2019-05-24 2020-12-03 엘지전자 주식회사 음성인식을 이용하여 장치를 제어하는 방법 및 이를 구현하는 장치
CN112037789A (zh) * 2020-08-07 2020-12-04 海尔优家智能科技(北京)有限公司 设备唤醒方法、装置、存储介质及电子装置
WO2020246824A1 (en) * 2019-06-05 2020-12-10 Lg Electronics Inc. Method of controlling electronic devices

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170086814A (ko) * 2016-01-19 2017-07-27 삼성전자주식회사 음성 인식 기능을 제공하는 전자 장치 및 그 동작 방법
US11164570B2 (en) * 2017-01-17 2021-11-02 Ford Global Technologies, Llc Voice assistant tracking and activation
DK179560B1 (en) * 2017-05-16 2019-02-18 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES
US10573171B2 (en) * 2017-05-23 2020-02-25 Lenovo (Singapore) Pte. Ltd. Method of associating user input with a device
CN107452386B (zh) * 2017-08-16 2020-03-24 联想(北京)有限公司 一种语音数据处理方法和系统
KR20190102509A (ko) * 2018-02-26 2019-09-04 삼성전자주식회사 음성 명령을 수행하는 방법 및 시스템
US12406665B2 (en) * 2022-05-13 2025-09-02 Adeia Guides Inc. Processing voice input in integrated environment

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1423228A (zh) * 2002-10-17 2003-06-11 南开大学 识别人眼注视方向的装置和方法及其应用
WO2020241906A1 (ko) * 2019-05-24 2020-12-03 엘지전자 주식회사 음성인식을 이용하여 장치를 제어하는 방법 및 이를 구현하는 장치
WO2020246824A1 (en) * 2019-06-05 2020-12-10 Lg Electronics Inc. Method of controlling electronic devices
CN110910880A (zh) * 2019-11-29 2020-03-24 广东美的厨房电器制造有限公司 语音控制方法、系统、设备及存储介质
CN112037789A (zh) * 2020-08-07 2020-12-04 海尔优家智能科技(北京)有限公司 设备唤醒方法、装置、存储介质及电子装置
CN111968641A (zh) * 2020-08-20 2020-11-20 Oppo(重庆)智能科技有限公司 语音助手唤醒控制方法及装置、存储介质和电子设备

Also Published As

Publication number Publication date
WO2022179269A1 (zh) 2022-09-01
EP4290362A4 (en) 2024-07-17
EP4290362A1 (en) 2023-12-13
US20240127813A1 (en) 2024-04-18

Similar Documents

Publication Publication Date Title
US10390140B2 (en) Output device outputting audio signal and control method thereof
US10362438B2 (en) Portable apparatus and method of controlling location information of portable apparatus
CN110495819B (zh) 机器人的控制方法、机器人、终端、服务器及控制系统
EP3663903A1 (en) Display method and device
CN110971930A (zh) 虚拟形象直播的方法、装置、终端及存储介质
WO2021077923A1 (zh) 控制显示设备的方法及便携设备
WO2020029974A1 (zh) 数据传输方法、芯片、控制器及显示装置
WO2022007944A1 (zh) 一种设备控制方法及相关装置
CN113573122B (zh) 音视频播放方法及装置
CN110659127A (zh) 一种处理任务的方法、装置及系统
CN110649719A (zh) 一种无线充电方法及电子设备
CN110399113A (zh) 数据传输方法、装置及显示装置
WO2021000817A1 (zh) 环境音处理方法及相关装置
CN113843814A (zh) 机械臂设备的控制系统、方法、装置和存储介质
WO2024021736A1 (zh) 蓝牙多媒体包的传输方法、装置、设备和系统
CN113728295A (zh) 控屏方法、装置、设备及存储介质
CN114384466B (zh) 声源方向确定方法、装置、电子设备及存储介质
CN110708582B (zh) 同步播放的方法、装置、电子设备及介质
CN114780029B (zh) 器件识别方法和相关装置
CN114968166A (zh) 语音交互的方法与电子设备
US20240205577A1 (en) Control method and electronic device
CN111294626A (zh) 歌词显示的方法和装置
CN115035187A (zh) 声源方向确定方法、装置、终端、存储介质及产品
CN112990421B (zh) 优化深度学习网络的运行过程的方法、装置及存储介质
CN115562514A (zh) 触控显示方法、图形界面及相关装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination