[go: up one dir, main page]

CN108903521B - 一种应用于智能画框的人机交互方法、智能画框 - Google Patents

一种应用于智能画框的人机交互方法、智能画框 Download PDF

Info

Publication number
CN108903521B
CN108903521B CN201810721447.6A CN201810721447A CN108903521B CN 108903521 B CN108903521 B CN 108903521B CN 201810721447 A CN201810721447 A CN 201810721447A CN 108903521 B CN108903521 B CN 108903521B
Authority
CN
China
Prior art keywords
voice
picture frame
user
real
prompt
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810721447.6A
Other languages
English (en)
Other versions
CN108903521A (zh
Inventor
李彦孚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BOE Technology Group Co Ltd
Original Assignee
BOE Technology Group Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BOE Technology Group Co Ltd filed Critical BOE Technology Group Co Ltd
Priority to CN201810721447.6A priority Critical patent/CN108903521B/zh
Publication of CN108903521A publication Critical patent/CN108903521A/zh
Priority to US16/502,708 priority patent/US11232790B2/en
Application granted granted Critical
Publication of CN108903521B publication Critical patent/CN108903521B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47GHOUSEHOLD OR TABLE EQUIPMENT
    • A47G1/00Mirrors; Picture frames or the like, e.g. provided with heating, lighting or ventilating means
    • A47G1/06Picture frames
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/167Detection; Localisation; Normalisation using comparisons between temporally consecutive images
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/175Static expression
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Computer Security & Cryptography (AREA)
  • Geometry (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明公开了一种应用于智能画框的人机交互方法、智能画框;所述方法包括:采集当前用户输入的第一语音,从所述第一语音中提取语音关键字;确定与所述语音关键字对应的目标用户;确定所述目标用户的所处城市,获取所述所处城市的天气数据;获取与所述天气数据关联的反馈内容;输出所述天气数据和所述反馈内容。本发明通过采集的当前用户语音中的语音关键字确定目标用户,并进一步通过智能画框输出与目标用户所处城市的天气关联的反馈内容,为不同关系的用户提供了基于智能画框的互动方式,有效的拓展了智能画框的使用功能,实现了更佳的人机交互效果。

Description

一种应用于智能画框的人机交互方法、智能画框
技术领域
本发明涉及显示技术和人机交互技术领域,特别是指一种应用于智能画框的人机交互方法、智能画框。
背景技术
智能画框已经越来越多的出现在人们的日常生活之中,但对于现有的智能画框的使用普遍还停留在基本的显示功能上,即通过其显示屏显示本地或网络侧的图像内容。虽然现有的智能画框设置有摄像头、麦克风、扬声器等输入输出设备,但其仅仅是用于图像信息采集、语音信息采集,并将上述采集的信息简单的用于选择显示内容或是播放特定的声音,这造成了现有的智能画框存在功能单一、人机交互效果差的问题。
发明内容
有鉴于此,本发明的目的在于提出一种应用于智能画框的人机交互方法、智能画框,有效拓展智能画框的使用功能,实现更佳的人机交互效果。
基于上述目的,本发明提供了一种应用于智能画框的人机交互方法,包括:
采集当前用户输入的第一语音,从所述第一语音中提取语音关键字;
确定与所述语音关键字对应的目标用户;
确定所述目标用户的所处城市,获取所述所处城市的天气数据;
获取与所述天气数据关联的反馈内容;
输出所述天气数据和所述反馈内容。
在一些实施方式中,所述输出所述天气数据和所述反馈内容,包括:
根据所述天气数据,生成天气播报语音,播放所述天气播报语音。
在一些实施方式中,所述输出所述天气数据和所述反馈内容之后,还包括:
输出语音采集提示:
采集所述当前用户输入的第二语音,将所述第二语音发送至与所述目标用户绑定的目标终端。
在一些实施方式中,所述将所述第二语音发送至与所述目标用户绑定的目标终端,包括:
将所述第二语音转化为文本数据,将所述文本数据以文本短消息的方式发送至所述目标终端。
在一些实施方式中,所述方法还包括:
采集所述当前用户的实时图像,使用所述实时图像对所述当前用户进行身份认证;
若认证成功,则实时记录所述当前用户处于智能画框前的持续时间;
当所述持续时间超过预设的时间阈值时,生成并输出超时提示。
在一些实施方式中,所述使用所述实时图像对所述当前用户进行身份认证,包括:
确定所述实时图像中的人脸部分;
根据所述实时图像中的人脸部分,与至少一副模版图像进行匹配;
若存在匹配的所述模版图像,则判定所述当前用户认证成功。
在一些实施方式中,所述实时记录所述当前用户处于智能画框前的持续时间,包括:
确定匹配的所述模版图像中的人像部分,获取第一用户位置坐标;
确定所述实时图像中的人像部分,获取第二用户位置坐标;
对比所述第一用户位置坐标与所述第二用户位置坐标,获得用户位置坐标差值,若所述用户位置坐标差值小于预设的坐标阈值,则进一步确定匹配的所述模版图像中的人脸部分,获取第一人眼位置坐标;
根据所述实时图像中的人脸部分,获取第二人眼位置坐标;
对比所述第一人眼位置坐标和所述第二人眼位置坐标,若所述第二人眼位置坐标中的纵坐标数值大于等于所述第一人眼位置坐标中的纵坐标数值,则开始记录所述持续时间。
在一些实施方式中,所述生成并输出超时提示,包括:
向与所述目标终端发送超时告警;
接收所述目标终端返回的超时提示;
输出所述超时提示。
在一些实施方式中,所述超时提示包括:超时提示文本;
所述输出所述超时提示,包括:
使用预设的声音模版,将所述超时提示文本转化为超时提示语音;
输出所述超时提示语音,或输出所述超时提示语音和所述超时提示文本。
另一方面,本发明还提供了一种智能画框,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如上任意一项所述的方法。
从上面所述可以看出,本发明提供的应用于智能画框的人机交互方法、智能画框,通过采集的当前用户语音中的语音关键字确定目标用户,并进一步通过智能画框输出与目标用户所处城市的天气关联的反馈内容,为不同关系的用户提供了基于智能画框的互动方式,有效的拓展了智能画框的使用功能,实现了更佳的人机交互效果。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例的应用于智能画框的人机交互方法流程图;
图2为本发明实施例中主动发送语音的方法流程图;
图3为本发明实施例中超时提示方法流程图;
图4为本发明实施例中的身份认证方法流程图;
图5为本发明实施例中的确定开始记录持续时间方法流程图;
图6为本发明实施例中的生成并输出超时提示方法流程图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明进一步详细说明。
需要说明的是,本发明实施例中所有使用“第一”和“第二”的表述均是为了区分两个相同名称非相同的实体或者非相同的参量,可见“第一”“第二”仅为了表述的方便,不应理解为对本发明实施例的限定,后续实施例对此不再一一说明。
参考图1,为本发明实施例的应用于智能画框的人机交互方法流程图。智能画框一般会设置在用户的居室中,其一般会更多的与家庭中的不停成员进行互动,本发明实施例中,将以家庭成员身份的用户来介绍本发明的具体实施方式。显然,本发明实施例中,用户的身份和不同用户间的关系,并不对本发明的应用场景构成限定。
所述应用于智能画框的人机交互方法,包括以下步骤:
步骤101、采集当前用户输入的第一语音,从所述第一语音中提取语音关键字。
本实施例中,所述的当前用户为当前处于智能画框前正在关注的智能画框的用户。具体的,通过用户的预先设置,智能画框会存储若干的用户信息,该用户信息可以是用户的图像信息、声音信息;通过预先设置的用户信息可以令智能画框采集用户的图像或声音并与上述用户信息对比判断来确认用户的身份。
本步骤中,经过身份认证,确认了当前用户后,开始通过智能画框的麦克风实时采集当前用户的语音,当采集到当前用户输入的第一语音时,通过预设的关键词提取策略,对第一语音进行关键词提取,若第一语音包含有与关键词提取策略对应的语音内容,则成功提取语音关键字。该语音关键字被预设为与一个用户对应。
步骤102、确定与所述语音关键字对应的目标用户。
本步骤中,根据预设的语音关键字与用户的对应关系,通过前述步骤提取到的提取语音关键字确定一个目标用户。
基于步骤101至102,在一个具体的应用场景中,当前用户与目标用户为具有亲属关系的两个用户(如父母和子女),且当前用户与目标用户所处在不同的城市。当前用户处在家中的智能画框前,可能会有意或无意的说出带有目标用户名字的话语,其中,目标用户的名字即设置为语音关键字。如采集到的当前用户输入的第一语音为“不知道小明那边怎么样”;则通过关键字提取后,提取到语音关键字为“小明”,进一步即可根据语音关键字“小明”确定所述的目标用户。
步骤103、确定所述目标用户的所处城市,获取所述所处城市的天气数据。
本步骤中,在确定目标用户后,根据预存的数据,进一步确定目标用户的所处城市,然后由网络侧的数据源获取目标用户所处城市的天气数据。该天气数据一般可以包括:天气类型、温度、湿度、风力、空气质量等。
步骤104、获取与所述天气数据关联的反馈内容。
本步骤中,根据天气数据,获取与该天气数据关联的反馈内容;该反馈内容用于通过智能画框进行输出。其中,所述的反馈内容包括:图片、视频、音频中的一种或多种;且反馈内容所呈现的内容与天气数据相关联。
如在前述的应用场景中,目标用户“小明”的所处城市为北京,获取到的北京的天气数据中的天气类型为下雨,则获取的反馈内容为雨天的图片、视频,或者是下雨的音效。又如,取到的北京的天气数据中的风力较大,则获取的反馈内容为表现大风的图片、视频,或者是刮风的音效。
步骤105、输出所述天气数据和所述反馈内容。
本步骤中,将前述步骤中获取到的反馈内容通过智能画框输出。具体的,若反馈内容包括图片、视频,则通过智能画框的显示屏进行显示;若反馈内容包括音频,则通过智能画框的扬声器进行播放。对于所述的天气数据,则直接通过智能画框的显示屏进行显示。
可见,通过智能画框输出天气数据和反馈内容,使当前用户能够形象、准确的获知目标用户所处成的天气情况,实现了基于智能画框的出色的人机互动效果,也更加充分的利用的智能画框的既有部件,有效扩展了智能画框的使用功能。
进一步的,输出所述天气数据时,还可以通过以下步骤实现:根据所述天气数据,生成天气播报语音,播放所述天气播报语音。本步骤中,为进一步提升天气数据输出的效果,使用天气数据生成天气播报语音,将天气数据包含的内容通过语音的形式通过智能画框的扬声器播放,使当前用户能够更加清晰准确的获知目标用户所处成的天气情况。
参考图2,作为一个可选的实施例,在前述实施例的基础上,于步骤104之后,还为当前用户提供了主动向目标用户发送语音的方法,该方法包括以下步骤:
步骤201、输出语音采集提示。
本步骤中,通过智能画框输出了目标用户所处城市的天气数据和反馈内容后,进一步迦输出语音采集提示,该语音采集提示用于提示当前用户可以进行语音输入。语音采集提示可以为通过智能画框的显示屏显现提示文字,或者是通过智能画框的扬声器播放提示语音。
步骤202、采集所述当前用户输入的第二语音,将所述第二语音发送至与所述目标用户绑定的目标终端。
本步骤中,通过智能画框的麦克风采集当前用户接收到语音采集提示后输入的第二语音,并将该第二语音发送至与所述目标用户绑定的目标终端。该与所述目标用户绑定的目标终端一般是目标用户随时的移动智能终端,如手机、智能手环等。具体的,可直接将第二语音以语音短消息或其他通讯APP内的语音消息的形式发送给目标终端。此外,在向目标终端发送第二语音时,还可以通过语音识别技术,将第二语音转化为文本数据,然后将文本数据以文本短消息的方式发送至目标终端。
基于步骤201至202的方法,当前用户在获知目标用户所处成的天气情况后,若天气情况不佳,则能够主动的通过智能画框向目标用户的目标终端发送用作关心提示的第二语音。
参考图3,作为一个可选的实施例,在前述实施例的基础上,本发明的应用于智能画框的人机交互方法,还包括以下步骤:
步骤301、采集所述当前用户的实时图像,使用所述实时图像对所述当前用户进行身份认证;
步骤302、若认证成功,则实时记录所述当前用户处于智能画框前的持续时间;
步骤303、当所述持续时间超过预设的时间阈值时,生成并输出超时提示。
本实施例中,通过当前用户的实时图像,对当前用户进行准确的身份认证,在认证成功时,开始记录当前用户处于智能画框前、保持观看智能画框的持续时间,当持续时间过长(如超过15分钟)时,对其进行超时提示。在一个具体的应用场景中,当前用户为家中年龄较长的父母,而目标用户年龄较轻的子女。年龄较长的父母并不适合长时间的处于智能画框前,特别是长时间站立于智能画框前,故本实施例可以通过智能画框判断父母是否长时间处于智能画框前,若是则对其进行提示。
进一步的,于步骤301中,需要对当前用户进行准确的身份认证,参考图4,认证过程包括以下步骤:
步骤3011、确定所述实时图像中的人脸部分。
步骤3012、根据所述实时图像中的人脸部分,与至少一副模版图像进行匹配;
步骤3013、若存在匹配的所述模版图像,则判定所述当前用户认证成功。
本实施例中,通过图像分割提取技术,从实时图像中的人脸部分。然后使用人脸部分,通过人脸识别匹配技术,将实时图像中的人脸部分与至少一副存储在本地或是网络侧的模版图像进行匹配。若存在匹配的模版图像,则判定当前用户认证成功。其中,模版图像为用户预先通过智能画框的摄像头采集的标准图像,在模版图像中,用户站立于距离智能画框一定距离的位置处,本实施例中称之为标准位置,其中所述的距离优选为1米;人们在观看智能画框时,根据观看的清晰、舒适度的考虑,一般会需要较为类似的观看位置,故所述的标准位置具有一定的一般性。
进一步的,参考图5,于步骤302中,需要记录当前用户处于智能画框前的持续时间,具体的需要确定开始记录的时点,则确定开始记录持续时间的方法包括以下步骤:
步骤3021、确定匹配的所述模版图像中的人像部分,获取第一用户位置坐标;
步骤3022、确定所述实时图像中的人像部分,获取第二用户位置坐标;
步骤3023、对比所述第一用户位置坐标与所述第二用户位置坐标,获得用户位置坐标差值,若所述用户位置坐标差值小于预设的坐标阈值,则进一步确定匹配的所述模版图像中的人脸部分,获取第一人眼位置坐标;
在步骤3021至3023中,首先对当前用户的位置进行判定,由于在模版图像为用户处于智能画框前的所述标准位置采集得到,则需要才采集实时图像时,使当前用户也处于标准位置或近似的位置上。而采集的图像中的人像位置可以较佳的反应用户处于智能画框前的位置,故本实施例中,将对应于匹配的所述模版图像中的人像部分的第一用户位置坐标与对应于实时图像中的人像部分的第二用户位置坐标进行对比,若二者的用户位置坐标差值小于预设的坐标阈值,则认为当前用户处于了标准位置。
步骤3024、根据所述实时图像中的人脸部分,获取第二人眼位置坐标;
步骤3025、对比所述第一人眼位置坐标和所述第二人眼位置坐标,若所述第二人眼位置坐标中的纵坐标数值大于等于所述第一人眼位置坐标中的纵坐标数值,则开始记录所述持续时间。
在步骤3024至3025中,确认当前用户处于标准位置后,则进一步判断当前用户是否为站立状态。则相应的,将匹配的所述模版图像的人脸部分中获取的第一人眼位置坐标与实时图像的人脸部分中获取的第二人眼位置坐标进行对比,而人眼位置坐标中的纵坐标对应人眼的高度位置,其能够反应当前用户的站立状态,即若第二人眼位置坐标中的纵坐标数值大于等于第一人眼位置坐标中的纵坐标数值,则判定当前用户正处于站立状态,相应的开始记录所述持续时间。
进一步的,参考图6,于步骤303中,生成并输出超时提示包括以下步骤:
步骤3031、向与所述目标终端发送超时告警;
步骤3032、接收所述目标终端返回的超时提示;
步骤3033、输出所述超时提示。
本实施例中,当记录的持续时间超过预设的时间阈值时,认为作为父母的当前用户已经站立于智能画框前的时间过长,则向作为子女的目标用户的目标终端发送超时告警,用于提示目标用户;该超时告警可以语音或文本形式发送至目标终端。目标用户通过目标终端接收到该超时告警,可以编辑生成一用于提醒当前用户的超时提示并返回给智能画框。智能画框接收到该超时提示后将其输出,用以提示当前用户不要长时间站立于智能画框前。具体的,超时提示可以通过文本显示或是语音播报。
作为可选的,目标用户通过目标终端返回所述的超时提示仅为文本的形式,即超时提示文本。为进一步提升提示效果,智能画框在接收到超时提示文本后,使用预设的声音模版,将超时提示文本转化为超时提示语音。其中,预设的声音模版可以为根据目标用户的声纹特征设置,这样在播放超时提示语音时,将会以目标用户的语气口吻播放,能够显著增加当前用户的情切感,有效提升超时提升的效果。
基于同一发明构思,本发明实施例还提供一种智能画框,该智能画框包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如上任意实施例所述的应用于智能画框的人机交互方法。
具体的,本实施例所述的智能画框包括:MIC阵列板、SOC主板、摄像头、电源板、TCON板、WIFI天线、扬声器。其中,MIC阵列板作为声音采集部件,用于接收语音信息和主板的唤醒;SOC主板用作前述的处理器,用于进行数据处理、执行上述的计算机程序,并通过WIFI天线与云端服务器进行数据通信;摄像头作为图像采集部件;扬声器用于播放语音;TCON板用于驱动智能画框的显示屏;电源板用于为各个部件供电。
上述实施例的智能画框用于实现前述实施例中相应的方法,并且具有相应的方法实施例的有益效果,在此不再赘述。
所属领域的普通技术人员应当理解:以上任何实施例的讨论仅为示例性的,并非旨在暗示本公开的范围(包括权利要求)被限于这些例子;在本发明的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,步骤可以以任意顺序实现,并存在如上所述的本发明的不同方面的许多其它变化,为了简明它们没有在细节中提供。
另外,为简化说明和讨论,并且为了不会使本发明难以理解,在所提供的附图中可以示出或可以不示出与集成电路(IC)芯片和其它部件的公知的电源/接地连接。此外,可以以框图的形式示出装置,以便避免使本发明难以理解,并且这也考虑了以下事实,即关于这些框图装置的实施方式的细节是高度取决于将要实施本发明的平台的(即,这些细节应当完全处于本领域技术人员的理解范围内)。在阐述了具体细节(例如,电路)以描述本发明的示例性实施例的情况下,对本领域技术人员来说显而易见的是,可以在没有这些具体细节的情况下或者这些具体细节有变化的情况下实施本发明。因此,这些描述应被认为是说明性的而不是限制性的。
尽管已经结合了本发明的具体实施例对本发明进行了描述,但是根据前面的描述,这些实施例的很多替换、修改和变型对本领域普通技术人员来说将是显而易见的。例如,其它存储器架构(例如,动态RAM(DRAM))可以使用所讨论的实施例。
本发明的实施例旨在涵盖落入所附权利要求的宽泛范围之内的所有这样的替换、修改和变型。因此,凡在本发明的精神和原则之内,所做的任何省略、修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (7)

1.一种应用于智能画框的人机交互方法,其特征在于,包括:
采集当前用户输入的第一语音,从所述第一语音中提取语音关键字;
确定与所述语音关键字对应的目标用户;
确定所述目标用户的所处城市,获取所述所处城市的天气数据;
获取与所述天气数据关联的反馈内容;其中,所述的反馈内容包括:图片、视频、音频中的一种或多种,且反馈内容所呈现的内容与天气数据相关联;
输出所述天气数据和所述反馈内容;
采集所述当前用户的实时图像,使用所述实时图像对所述当前用户进行身份认证;
若认证成功,则实时记录所述当前用户处于智能画框前的持续时间;
当所述持续时间超过预设的时间阈值时,生成并输出超时提示;
其中,所述使用所述实时图像对所述当前用户进行身份认证,包括:确定所述实时图像中的人脸部分;根据所述实时图像中的人脸部分,与至少一副模版图像进行匹配;若存在匹配的所述模版图像,则判定所述当前用户认证成功;
所述实时记录所述当前用户处于智能画框前的持续时间,包括:确定匹配的所述模版图像中的人像部分,获取第一用户位置坐标;确定所述实时图像中的人像部分,获取第二用户位置坐标;对比所述第一用户位置坐标与所述第二用户位置坐标,获得用户位置坐标差值,若所述用户位置坐标差值小于预设的坐标阈值,则进一步确定匹配的所述模版图像中的人脸部分,获取第一人眼位置坐标;根据所述实时图像中的人脸部分,获取第二人眼位置坐标;对比所述第一人眼位置坐标和所述第二人眼位置坐标,若所述第二人眼位置坐标中的纵坐标数值大于等于所述第一人眼位置坐标中的纵坐标数值,则开始记录所述持续时间。
2.根据权利要求1所述的应用于智能画框的人机交互方法,其特征在于,所述输出所述天气数据和所述反馈内容,包括:
根据所述天气数据,生成天气播报语音,播放所述天气播报语音。
3.根据权利要求1所述的应用于智能画框的人机交互方法,其特征在于,所述输出所述天气数据和所述反馈内容之后,还包括:
输出语音采集提示:
采集所述当前用户输入的第二语音,将所述第二语音发送至与所述目标用户绑定的目标终端。
4.根据权利要求3所述的应用于智能画框的人机交互方法,其特征在于,所述将所述第二语音发送至与所述目标用户绑定的目标终端,包括:
将所述第二语音转化为文本数据,将所述文本数据以文本短消息的方式发送至所述目标终端。
5.根据权利要求3所述的应用于智能画框的人机交互方法,其特征在于,所述生成并输出超时提示,包括:
向所述目标终端发送超时告警;
接收所述目标终端返回的超时提示;
输出所述超时提示。
6.根据权利要求5所述的应用于智能画框的人机交互方法,其特征在于,所述超时提示包括:超时提示文本;
所述输出所述超时提示,包括:
使用预设的声音模版,将所述超时提示文本转化为超时提示语音;
输出所述超时提示语音,或输出所述超时提示语音和所述超时提示文本。
7.一种智能画框,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1至6任意一项所述的方法。
CN201810721447.6A 2018-07-03 2018-07-03 一种应用于智能画框的人机交互方法、智能画框 Active CN108903521B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201810721447.6A CN108903521B (zh) 2018-07-03 2018-07-03 一种应用于智能画框的人机交互方法、智能画框
US16/502,708 US11232790B2 (en) 2018-07-03 2019-07-03 Control method for human-computer interaction device, human-computer interaction device and human-computer interaction system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810721447.6A CN108903521B (zh) 2018-07-03 2018-07-03 一种应用于智能画框的人机交互方法、智能画框

Publications (2)

Publication Number Publication Date
CN108903521A CN108903521A (zh) 2018-11-30
CN108903521B true CN108903521B (zh) 2020-11-06

Family

ID=64425379

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810721447.6A Active CN108903521B (zh) 2018-07-03 2018-07-03 一种应用于智能画框的人机交互方法、智能画框

Country Status (2)

Country Link
US (1) US11232790B2 (zh)
CN (1) CN108903521B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109979463B (zh) * 2019-03-31 2022-04-22 联想(北京)有限公司 一种处理方法和电子设备
CN110730330B (zh) * 2019-09-27 2021-11-09 深圳市海雀科技有限公司 声音处理方法与装置、门铃和计算机可读存储介质
CN111309283B (zh) * 2020-03-25 2023-12-05 北京百度网讯科技有限公司 用户界面的语音控制方法、装置、电子设备及存储介质
CN111273594A (zh) * 2020-04-03 2020-06-12 福州大学 一种具有语音交互和场景控制的家用智能配电箱控制系统
CN113470634B (zh) * 2020-04-28 2024-05-17 海信集团有限公司 语音交互设备的控制方法、服务器及语音交互设备
CN118250488A (zh) * 2024-04-11 2024-06-25 天翼爱音乐文化科技有限公司 基于语音交互的视频换脸方法、系统、电子设备及介质

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7242988B1 (en) * 1991-12-23 2007-07-10 Linda Irene Hoffberg Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
WO2001052503A2 (en) * 2000-01-07 2001-07-19 Informio, Inc. Methods and apparatus for forwarding audio content using an audio web retrieval telephone system
US7899915B2 (en) * 2002-05-10 2011-03-01 Richard Reisman Method and apparatus for browsing using multiple coordinated device sets
US8458028B2 (en) * 2002-10-16 2013-06-04 Barbaro Technologies System and method for integrating business-related content into an electronic game
US8281339B1 (en) * 2004-01-12 2012-10-02 United Video Properties, Inc. Customizable flip and browse overlays in an interactive television system
EP2407947B8 (en) * 2006-10-13 2014-04-23 Toyota Jidosha Kabushiki Kaisha On-board warning apparatus and warning method
CN102006566A (zh) * 2010-11-15 2011-04-06 宇龙计算机通信科技(深圳)有限公司 更新天气预报城市列表的方法、服务器及终端
CN102625261A (zh) * 2011-06-14 2012-08-01 北京小米科技有限责任公司 一种天气信息提醒方法和系统
CN103164315B (zh) * 2011-12-15 2015-09-16 无锡中星微电子有限公司 基于智能视频分析的电脑使用时间提示方法及系统
BR112015012303A2 (pt) * 2012-11-30 2017-07-11 Koninklijke Philips Nv método e aparelho para identificar transições entre uma postura em pé e uma postura sentada nas medições do movimento de um usuário, método para determinar o tempoapoiado-nas-pernas e um risco de queda de um usuário, produto de programa de computador, dispositivo que é configurado para ser usado junto ao corpo de um usuário, e, sistema
US9398250B2 (en) * 2014-01-06 2016-07-19 Arun Sobti & Associates, Llc System and apparatus for smart devices based conferencing
US9712741B2 (en) * 2014-09-19 2017-07-18 Be Topnotch, Llc Smart vehicle sun visor
US10379808B1 (en) * 2015-09-29 2019-08-13 Amazon Technologies, Inc. Audio associating of computing devices
US20170319148A1 (en) * 2016-05-04 2017-11-09 Mimitec Limited Smart mirror and platform
US10810912B2 (en) * 2017-03-15 2020-10-20 Aether Inc. Face recognition triggered digital assistant and LED light ring for a smart mirror
CN107766482B (zh) * 2017-10-13 2021-12-14 北京猎户星空科技有限公司 信息推送及发送方法、装置、电子设备、存储介质

Also Published As

Publication number Publication date
US20200013406A1 (en) 2020-01-09
US11232790B2 (en) 2022-01-25
CN108903521A (zh) 2018-11-30

Similar Documents

Publication Publication Date Title
CN108903521B (zh) 一种应用于智能画框的人机交互方法、智能画框
CN110085244B (zh) 直播互动方法、装置、电子设备及可读存储介质
CN112653902B (zh) 说话人识别方法、装置及电子设备
JPWO2014192552A1 (ja) 表示制御装置、表示制御方法及びコンピュータプログラム
CN114157920B (zh) 一种展示手语的播放方法、装置、智能电视及存储介质
RU2500081C2 (ru) Устройство обработки информации, способ обработки информации и носитель записи, на котором сохранена компьютерная программа
WO2020192222A1 (zh) 用户场景智能分析方法、装置和存储介质
CN107131610A (zh) 一种留言方法、装置、存储设备、移动终端及电器
CN110505332A (zh) 一种降噪方法、装置、移动终端及存储介质
CN114727120B (zh) 直播音频流的获取方法、装置、电子设备及存储介质
CN110335590B (zh) 语音识别测试方法、装置及系统
US20240144948A1 (en) Sound signal processing method and electronic device
CN112601120B (zh) 字幕显示方法及装置
CN113301372A (zh) 直播方法、装置、终端及存储介质
CN110427099A (zh) 信息记录方法、装置、系统、电子设备以及信息获取方法
CN103945140B (zh) 视频字幕的生成方法及系统
CN113676668A (zh) 视频拍摄方法、装置、电子设备和可读存储介质
CN111524518B (zh) 增强现实处理方法及装置、存储介质和电子设备
CN105450970A (zh) 一种信息处理方法及电子设备
CN109215688A (zh) 同场景音频处理方法、装置、计算机可读存储介质及系统
CN104754261A (zh) 一种投影设备及投影方法
CN113542466A (zh) 音频处理方法、电子设备及存储介质
JP2013239991A (ja) テレビ制御装置、テレビ制御方法及びテレビ制御プログラム
US11184184B2 (en) Computer system, method for assisting in web conference speech, and program
CN112333531A (zh) 音频数据播放方法、设备及可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant