[go: up one dir, main page]

CN120886276A - 一种陪伴机器人交互方法、陪伴机器人及计算机程序产品 - Google Patents

一种陪伴机器人交互方法、陪伴机器人及计算机程序产品

Info

Publication number
CN120886276A
CN120886276A CN202510625545.XA CN202510625545A CN120886276A CN 120886276 A CN120886276 A CN 120886276A CN 202510625545 A CN202510625545 A CN 202510625545A CN 120886276 A CN120886276 A CN 120886276A
Authority
CN
China
Prior art keywords
interaction
user
users
feedback
location
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202510625545.XA
Other languages
English (en)
Inventor
黄伟崇
李志晨
潘阳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wocao Technology Shenzhen Co ltd
Original Assignee
Wocao Technology Shenzhen Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wocao Technology Shenzhen Co ltd filed Critical Wocao Technology Shenzhen Co ltd
Priority to CN202510625545.XA priority Critical patent/CN120886276A/zh
Publication of CN120886276A publication Critical patent/CN120886276A/zh
Pending legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)

Abstract

一种陪伴机器人交互方法、陪伴机器人及计算机程序产品,应用于机器人技术领域,陪伴机器人交互方法包括:识别用户的交互请求,并识别交互请求对应的用户;其中,当识别到多个用户的交互请求时,分别识别各个交互请求对应的用户;获取第一交互策略,第一交互策略用于确定用户的各个位置场景之间的优先级;分别获取多个用户的位置场景,基于第一交互策略确定多个用户对应的多个位置场景中优先级最高的位置场景;对优先级最高的位置场景所对应的用户作出交互反馈。由于基于第一交互策略确定用户的各个位置场景之间的优先级,使得在多个用户时,能够对可以对优先级最高的位置场景所对应的用户作出交互反馈,从而满足多个用户的交互反馈需求。

Description

一种陪伴机器人交互方法、陪伴机器人及计算机程序产品
技术领域
本申请涉及机器人技术领域,具体涉及一种陪伴机器人交互方法、陪伴机器人及计算机程序产品。
背景技术
目前机器人的类型越来越多,机器人的应用在家庭环境中也越来越广泛。其中,陪伴机器人则是人们生活中较常使用的一种机器人,它能够对用户的交互进行反馈,例如对用户的交互动作和交互声音进行交互反馈,例如能够根据用户的指令作出对应的行为,从而起到陪伴用户的作用。
目前的技术方案中,一般家庭环境中通常会有多个用户,因此当多个用户需要陪伴机器人进行反馈时,陪伴机器人不知道对具体的哪个用户作出反应,从而无法满足用户的需求。对此,还需要提出新的技术方案。
发明内容
本申请主要解决的技术问题是陪伴机器人不能满足多个用户的交互反馈需求。
根据第一方面,一种实施例中提供一种陪伴机器人交互方法,包括:
识别用户的交互请求,并识别所述交互请求对应的用户;其中,当识别到多个用户的所述交互请求时,分别识别各个所述交互请求对应的用户;
获取第一交互策略,所述第一交互策略用于确定用户的各个位置场景之间的优先级;
分别获取所述多个用户的所述位置场景,基于所述第一交互策略确定所述多个用户对应的多个所述位置场景中优先级最高的位置场景;
对所述优先级最高的位置场景所对应的用户作出交互反馈。
一些实施例中,所述分别获取所述多个用户的所述位置场景,包括:
分别获取所述多个用户的位置信息和/或获取包括用户所处场景的场景图像,基于所述位置信息和/或所述场景图像确定对应用户的位置场景;其中,所述位置场景包括客厅、卧室、书房、玄关、餐厅、厨房、阳台和卫生间中的至少一者。
一些实施例中,所述获取第一交互策略,包括:
获取各个所述位置场景的场景类型,所述场景类型包括第一场景类型和第二场景类型,所述第一场景类型用于表征适合陪伴机器人交互的位置场景,所述第二场景类型用于表征不适合陪伴机器人交互的位置场景;
配置所述第一场景类型和所述第二场景类型之间的优先级;
和/或,
配置属于所述第一场景类型的各个所述位置场景之间的优先级;
和/或,
配置属于所述第二场景类型的各个所述位置场景之间的优先级。
一些实施例中,所述对所述优先级最高的位置场景所对应的用户作出交互反馈,包括:
若所述优先级最高的位置场景所对应的用户为一个,则对该用户作出交互反馈;
若所述优先级最高的位置场景所对应的用户为多个,则获取第二交互策略,所述第二交互策略用于确定用户的各个交互级别之间的优先级;
分别获取多个用户的所述交互级别,基于所述第二交互策略确定多个用户对应的多个所述交互级别中优先级最高的交互级别;
对所述优先级最高的交互级别所对应的用户作出交互反馈。
一些实施例中,所述分别获取所述多个用户的所述交互级别,包括:
分别获取所存储的所述多个用户的亲密值,基于各个用户对应的所述亲密值分别确定所述多个用户的交互级别。
一些实施例中,对所述优先级最高的交互级别所对应的用户作出交互反馈,包括:
若所述优先级最高的交互级别所对应的用户为一个,则对该用户作出交互反馈;
若所述优先级最高的交互级别所对应的用户为多个,则获取第三交互策略,所述第三交互策略用于确定用户的各个交互行为之间的优先级;
分别获取多个用户的所述交互行为,基于所述第三交互策略确定多个用户对应的多个所述交互行为中优先级最高的交互行为;
对所述优先级最高的交互行为所对应的用户作出交互反馈。
一些实施例中,所述分别获取所述多个用户的所述交互行为,包括:
基于传感模块分别获取所述多个用户的交互行为;所述交互行为包括触摸互动行为、肢体互动行为和语音互动行为中的至少一者。
一些实施例中,陪伴机器人交互方法还包括:
若基于所述第一交互策略对所述优先级最高的位置场景所对应的用户作出交互反馈,则优先向所对应的用户作出位置移动反馈;所述位置移动反馈包括向用户进行靠近移动和/或在用户附近进行移动;
若基于所述第二交互策略对所述优先级最高的交互级别所对应的用户作出交互反馈,则优先向所对应的用户作出图像显示反馈、动作姿态反馈和语音反馈中的一者;
若基于所述第三交互策略对所述优先级最高的交互行为所对应的用户作出交互反馈,则优先向所对应的用户作出动作姿态反馈和语音反馈中的一者。
一些实施例中,所述交互反馈包括位置移动反馈、图像显示反馈、动作姿态反馈、语音反馈中的至少一者。
根据第二方面,一种实施例中提供一种陪伴机器人,包括:
本体机构,用于实现陪伴机器人的动作姿态;
传感模块,用于至少获取图像信号和/或声音信号;
移动机构,用于实现陪伴机器人的位置移动;
处理器,用于在执行计算机程序和/或指令时实现第一方面所述的方法。
根据第三方面,一种实施例中提供一种计算机程序产品,包括计算机程序和/或指令,所述计算机程序和/或指令被处理器执行时实现第一方面所述的方法。
根据上述实施例的陪伴机器人交互方法、陪伴机器人及计算机程序产品,当获取到多个用户的交互请求时,获取第一交互策略,以及分别获取多个用户的位置场景,从而基于第一交互策略确定多个用户对应的多个位置场景中优先级最高的位置场景,并对优先级最高的位置场景所对应的用户作出交互反馈。由于基于第一交互策略确定用户的各个位置场景之间的优先级,使得在多个用户时,能够对可以对优先级最高的位置场景所对应的用户作出交互反馈,从而满足多个用户的交互反馈需求。
附图说明
图1为一种实施例的陪伴机器人的组成结构示意图;
图2为另一种实施例的陪伴机器人的结构示意图;
图3为一种实施例的环境地图的示意图;
图4为一种实施例的陪伴机器人交互方法的流程示意图;
图5为另一种实施例的陪伴机器人交互方法的流程示意图;
图6为又一种实施例的陪伴机器人交互方法的流程示意图。
具体实施方式
下面通过具体实施方式结合附图对本申请作进一步详细说明。其中不同实施方式中类似元件采用了相关联的类似的元件标号。在以下的实施方式中,很多细节描述是为了使得本申请能被更好的理解。然而,本领域技术人员可以毫不费力的认识到,其中部分特征在不同情况下是可以省略的,或者可以由其他元件、材料、方法所替代。在某些情况下,本申请相关的一些操作并没有在说明书中显示或者描述,这是为了避免本申请的核心部分被过多的描述所淹没,而对于本领域技术人员而言,详细描述这些相关操作并不是必要的,根据说明书中的描述以及本领域的一般技术知识即可完整了解相关操作。
另外,说明书中所描述的特点、操作或者特征可以以任意适当的方式结合形成各种实施方式。同时,方法描述中的各步骤或者动作也可以按照本领域技术人员所能显而易见的方式进行顺序调换或调整。因此,说明书和附图中的各种顺序只是为了清楚描述某一个实施例,并不意味着是必须的顺序,除非另有说明其中某个顺序是必须遵循的。
本文中为部件所编序号本身,例如“第一”、“第二”等,仅用于区分所描述的对象,不具有任何顺序或技术含义。而本申请所说“连接”、“联接”,如无特别说明,均包括直接和间接连接(联接)。
一些实施例中提供一种陪伴机器人。请参考图1,陪伴机器人包括本体机构10、传感模块20、移动机构30和处理器40,以下对其分别进行具体的说明。
本体机构10用于实现机器人的动作姿态。请参考图2,一些实施例中,陪伴机器人的结构包括本体机构10和移动机构30。本体机构10可以包括陪伴机器人的上肢11,陪伴机器人可以基于上肢11实现比耶、招手、握手、拥抱等相应的动作姿态。一些实施例中,本体机构10可以包括陪伴机器人的头部13,陪伴机器人可以基于头部13实现摇头、点头、转头等相应的动作姿态。一些实施例中,本体机构10还可以包括陪伴机器人的躯干12,头部13承载于躯干12上。移动机构30用于带动机器人进行位置移动。一些实施例中,移动机构30可以是基于轮子的转动来带动陪伴机器人进行移动。一些实施例中,移动机构30也可以是陪伴机器人的下肢,从而基于下肢的行走来实现陪伴机器人的移动。
一些实施例中,陪伴机器人还可以包括显示模块,显示模块可以用于显示各种可视化信息,例如显示模块配置于陪伴机器人的头部时,显示模块可以显示陪伴机器人的眼睛图像,例如显示各种眼神,也可以显示陪伴机器人的表情,例如显示喜怒哀乐等各种表情。一些实施例中,显示模块还可以配置于陪伴机器人的其他位置,并显示其他的各种图像或者动画,在此对显示模块的配置位置和显示内容不作具体的限定。
一些实施例中,陪伴机器人还可以包括语音模块。语音模块用于实现各种语音输出,例如向用户发出问候的语音,例如发出与用户对话的语音,例如输出各种音乐、音效等。
传感模块20用于至少获取图像信号和/或声音信号。
一些实施例中,传感模块20可以包括各种摄像头,例如可以包括红外摄像头、深度摄像头等。摄像头用于获取各种图像,例如获取包括用户人脸的图像,以用于人脸识别、表情识别、情绪识别等,例如获取包括用户四肢的图像,以用于识别用户的动作、行为等。例如获取包括用户所在场景的图像,用于识别用户所在的具体场景。
一些实施例中,传感模块20可以包括麦克风,麦克风用于获取外界的声音信号,例如获取用户发出的语音,以用于对用户的语音进行识别,例如基于用户的语音识别用户的身份,例如基于用户的语音识别对应的内容,从而能够配合语音模块实现与用户的对话,例如还可以识别用户语音的声源方向,从而对用户的位置方向进行判断。
一些实施例中,传感模块20可以包括触摸传感器,触摸传感器用于对用户的触摸进行识别,从而识别用户的抚摸等行为。
处理器40用于基于传感模块20获取各种信号,并基于各种信号控制本体机构10和移动机构30,例如在识别到用户的交互请求后控制本体机构10向用户进行交互反馈,例如控制移动机构30向用户的位置进行移动。
处理器40还可用于在执行计算机程序和/或指令时实现陪伴机器人交互方法。
以上是对陪伴机器人的一些说明,以下对陪伴机器人的交互过程进行具体的说明。请参考图4,陪伴机器人交互方法可以包括以下步骤:
步骤100:识别用户的交互请求,并识别交互请求对应的用户。
一些实施例中,用户的交互请求可以是用户做出请求相关的动作,也可以是用户发出请求相关的声音,例如陪伴机器人具有预设的唤醒词,当用户说出唤醒词后,陪伴机器人识别到是对应的唤醒词,才会做出反应,如果是宠物或是电视发出的声音,则陪伴机器人不会进行响应,从而一定程度上规避了背景噪音中无效和多余的声音信息。
一些实施例中,在具体识别用户时,陪伴机器人可以基于用户的人脸来识别具体的用户,也可以基于用户的声音来识别具体的用户,也可以结合两者来识别,例如当基于声音识别到用户的交互请求时,还会基于声源判断用户的位置方向,并朝该方向获取包括用户人脸的图像,从而识别具体的用户。
一些实施例中,当识别到一个用户的交互请求时,则直接对该用户作出交互反馈。一些实施例中,当识别到多个用户的交互请求时,则分别识别各个交互请求对应的用户,并需要从多个用户中选择一个来作出交互反馈。
步骤110:获取第一交互策略,第一交互策略用于确定用户的各个位置场景之间的优先级。
一些实施例中,获取第一交互策略,包括:获取各个位置场景的场景类型,场景类型包括第一场景类型和第二场景类型,第一场景类型用于表征适合陪伴机器人交互的位置场景,第二场景类型用于表征不适合陪伴机器人交互的位置场景;配置第一场景类型和第二场景类型之间的优先级;和/或,配置属于第一场景类型的各个位置场景之间的优先级;和/或,配置属于第二场景类型的各个位置场景之间的优先级。
例如,适合陪伴机器人交互的位置场景可以包括客厅、卧室、书房、玄关、餐厅等,其通常具有较宽阔的空间,比较适合用户与陪伴机器人进行互动,而不适合陪伴机器人交互的位置场景可以包括厨房、阳台、卫生间等,其通常空间相对偏小,或者环境中可能有水,不利于机器人活动,或者可能存在阳光直射,干扰到机器人的摄像头。一些实施例中,各个位置场景的场景类型可以是用户手动设置的,也可以是陪伴机器人基于识别到的环境特征进行自动分类,在此不再赘述。
例如,对于用户A和用户B,若确定两者的位置场景的场景类型不同,则第一交互策略用于确定第一场景类型和第二场景类型之间的优先级,第一场景类型的优先级高于第二场景类型的优先级,根据用户A和用户B分别位于第一场景类型和第二场景类型,就可以确定用户A的优先级高于用户B的优先级,若确定两者的位置场景的场景类型相同且为第一场景类型,则第一交互策略用于确定第一场景类型的各个位置场景之间的优先级(例如:优先级关系:客厅=卧室>书房>玄关>餐厅),当用户A和用户B分别位于卧室和玄关,就可以确定用户A的优先级高于用户B的优先级,若确定两者的位置场景的场景类型相同且为第二场景类型,则第一交互策略用于确定第二场景类型的各个位置场景之间的优先级(例如:优先级关系:厨房>阳台>卫生间),当用户A和用户B分别位于厨房和卫生间,就可以确定用户A的优先级高于用户B的优先级。因此可以根据多个用户的场景类型的情况,来基于第一交互策略确定多个用户之间的优先级。
步骤120:分别获取多个用户的位置场景,并基于第一交互策略确定多个用户对应的多个位置场景中优先级最高的位置场景。
一些实施例中,分别获取多个用户的位置场景,包括:分别获取多个用户的位置信息和/或获取包括用户所处场景的场景图像,基于位置信息和/或场景图像确定对应用户的位置场景;其中,位置场景包括客厅、卧室、书房、玄关、餐厅、厨房、阳台和卫生间中的至少一者。
一些实施例中,陪伴机器人可以基于现有技术对用户的位置场景进行分类识别,从而获取用户的位置场景,其中位置场景包括客厅、卧室、玄关、餐厅、厨房、阳台和卫生间中的至少一者。例如,可以基于SLAM(Simultaneous Localization and Mapping)方案结合人工智能对用户的家庭场景进行智能识别。其中,基于SLAM方案可以对用户的家庭场景构建相应的环境地图,而基于环境地图可确定各个位置场景所在的地图位置。请参考图3,例如客厅位于环境地图的位置3,卧室位于环境地图的位置1,当获取用户的位置信息并确定用户的位置在位置3时,则可以判断用户的位置场景为客厅。而基于人工智能则可以对用户所在的场景特征进行识别,以确定用户所处的位置场景,例如客厅的场景特征包括沙发,例如卧室的场景特征包括床,当获取用户所处场景的场景图像并识别到沙发时,则可以判断位置场景为客厅。因此,可以基于环境地图确定用户的位置场景,也可以基于场景特征的人工智能识别确定用户的位置场景,也可以结合两者一起来识别,在此不再赘述。
例如,一个具体的位置场景识别过程为:用户通过唤醒词对陪伴机器人进行交互请求,陪伴机器人通过麦克风进行声源定位,并确定用户所在的声源方向,然后结合摄像头去获取相应的图像,基于图像可以确定的用户的位置,也可以确定用户所处场景的场景特征,从而确定用户所在的具体位置场景。
步骤130:对优先级最高的位置场景所对应的用户作出交互反馈。
通过第一交互策略配置各个位置场景之间的优先级,使得陪伴机器人在与多个用户进行交互时,能够对优先级最高的位置场景所对应的用户优先进行交互反馈,从而满足多个用户的交互反馈。
一些实施例中,当陪伴机器人自身处于优先级相对较低的场景(例如厨房),这时候优先级程度较高的客厅中的用户和优先级程度较低的厨房中的用户同时向陪伴机器人发出交互请求,在硬件条件允许的情况时,陪伴机器人会优先回馈客厅的用户,除非陪伴机器人没能及时准确的听到客厅的人在喊他,或者客厅的人距离陪伴机器人比较远,陪伴机器人的摄像头没能准确的看到客厅的用户。这种被硬件限制的情况下,陪伴机器人可能就忽略掉客厅的用户,继续和厨房的近距离用户互动。
请参考图5,一些实施例中,对优先级最高的位置场景所对应的用户作出交互反馈,包括以下步骤:
步骤131:若优先级最高的位置场景所对应的用户为一个,则对该用户作出交互反馈。
例如多个用户的场景位置均不同,此时多个用户的位置场景的优先级均不相同,且只会有一个用户的位置场景是最高优先级的,此时陪伴机器人可直接对该用户做出交互反馈。
步骤132:若优先级最高的位置场景所对应的用户为多个,则获取第二交互策略,第二交互策略用于确定用户的各个交互级别之间的优先级。
例如多个用户的场景位置均相同,此时该相同的位置场景即为优先级最高的位置场景,例如第一交互策略中优先级最高的位置场景对应的用户有多个。此时,则需要基于第二交互策略继续从多个用户中确定优先级最高的用户,从而对该用户做出交互反馈。
一些实施例中,第二交互策略用于确定用户的各个交互级别之间的优先级。其中,交互级别用于表征陪伴机器人与用户的交互关系,其中用户的交互级别越高,则陪伴机器人与该用户越亲密,反之则越不亲密。一些实施例,第二交互策略可以基于交互级别的高低顺序确定各个交互级别的优先级,例如交互级别越高,则优先级也高。
步骤133:分别获取多个用户的交互级别,基于第二交互策略确定多个用户对应的多个交互级别中优先级最高的交互级别。
一些实施例中,分别获取多个用户的交互级别,包括:分别获取所存储的多个用户的亲密值,基于各个用户对应的亲密值分别确定多个用户的交互级别。例如直接将用户的亲密值作为用户的交互级别,例如不同的亲密值区间对应不同的交互级别,然后基于用户的亲密度所在的亲密值区间确定对应的交互级别,亲密值越高,用户的交互级别越高,亲密值越低,用户的交互级别越低,在此不再赘述。
一些实施例中,用户的亲密值可以用户设置的,例如用户直接在陪伴机器人的交互界面上录入各个用户的亲密度值,例如用户根据提示引导在陪伴机器人对应的App录入各个用户的亲密度值,例如各个用户的亲密度值关系为:家人>亲属>熟悉朋友>普通朋友。当陪伴机器人通过传感模块识别到对应用户为家人,则该用户的亲密度值较高,用户的交互级别也较高。一些实施例中,陪伴机器人也可以根据与用户的互动情况来获取与用户的亲密度值,例如用户和陪伴机器人的互动不同,对应增加的亲密度值,例如不同的互动频次、互动时长、互动时的表情呈现可增加不同的亲密度值,例如与陪伴机器人说话、触摸陪伴机器人等互动动作等可以增加相应的亲密度值,然后存储给每个用户的亲密值。因此,用户与陪伴机器人互动的越多,亲密度就越增加,并通过这种方式累加亲密度值。一些实施例中,累加亲密度值可以是从零开始,也可以是从用户录入的亲密度值开始,在此不再赘述。当陪伴机器人通过传感模块识别到对应用户互动的较多,则该用户的亲密度值较高,用户的交互级别也较高。
步骤134:对优先级最高的交互级别所对应的用户作出交互反馈。
在优先级最高的位置场景所对应的用户具有多个时,进一步的基于第二交互策略配置各个交互级别之间的优先级,使得陪伴机器人进一步的能够对优先级最高的交互级别所对应的用户优先进行交互反馈。
请参考图6,一些实施例中,对优先级最高的交互级别所对应的用户作出交互反馈,包括以下步骤:
步骤135:若优先级最高的交互级别所对应的用户为一个,则对该用户作出交互反馈。
例如多个用户的交互级别均不同,此时多个用户的交互级别的优先级均不相同,且只会有一个用户的交互级别是最高优先级的,此时可直接对该用户做出交互反馈。
步骤136:若优先级最高的交互级别所对应的用户为多个,则获取第三交互策略,第三交互策略用于确定用户的各个交互行为之间的优先级。
例如多个用户的交互级别均相同,此时该相同的交互级别即为优先级最高的交互级别,例如第二交互策略中优先级最高的交互级别对应的用户有多个。此时,则还需要基于第三交互策略继续从多个用户中确定优先级最高的用户,从而对该用户做出交互反馈。
步骤137:分别获取多个用户的交互行为,基于第三交互策略确定多个用户对应的多个交互行为中优先级最高的交互行为。
一些实施例中,第三交互策略用于确定用户的各个交互行为之间的优先级。其中,用户的交互行为包括触摸互动行为(例如抚摸行为)、肢体互动行为(例如比耶行为、招手行为)和语音互动行为中的至少一者。例如交互行为包括抚摸行为、招手行为、比耶行为等其他行为,例如优先级顺序为:抚摸行为=比耶行为>招手行为>其他行为,例如抚摸行为=比耶行为>招手行为>语音互动行为。其中,若用户没有相应的交互行为,则其交互行为的优先级为最低。
一些实施例中,分别获取多个用户的交互行为,包括:基于传感模块20分别获取多个用户的交互行为。其中,例如基于摄像头可以获取包括用户的图像,从而识别用户的肢体互动行为,例如基于触摸传感器可以识别用户的触摸互动行为,例如基于麦克风可以识别用户的语音互动行为。
步骤138:对优先级最高的交互行为所对应的用户作出交互反馈。
在优先级最高的交互级别所对应的用户具有多个时,进一步的基于第三交互策略配置各个交互行为之间的优先级,使得陪伴机器人进一步的能够对优先级最高的交互行为所对应的用户优先进行交互反馈。
一些实施例中,若优先级最高的交互行为所对应的用户为一个,此时对该用户作出交互反馈即可。
一些实施例中,若优先级最高的交互行为所对应的用户为多个,则陪伴机器人可以在原地等一等,并等待看看哪些用户会继续作出交互行为,并按照上述实施例对优先级最高的交互行为对应的一个用户作出交互反馈,或者等待看看哪些用户会继续作出第二次作出交互请求,并按照上述实施例再次确定优先级最高的用户,并对其作出交互反馈。上述实施例中,陪伴机器人在确定优先级最高的一个用户后,对该用户作出交互反馈。其中,交互反馈包括位置移动反馈、图像显示反馈、动作姿态反馈、语音反馈中的至少一者。其中,位置移动反馈包括向用户进行靠近移动和/或在用户附近进行移动,例如移动至用户所在的场景,例如在用户的附近进行转圈圈。图像显示反馈包括显示眼睛图像、各种眼神和各种表情。动作姿态反馈包括求握手、求拥抱、招手等。
一些实施例中,对于优先级最高的一个用户,基于确定该用户的交互策略,陪伴机器人可以优先作出相匹配的交互反馈。例如,若是基于第一交互策略对优先级最高的位置场景所对应的一个用户作出交互反馈,则优先向所对应的用户作出位置移动反馈。若是基于第二交互策略对优先级最高的交互级别所对应的一个用户作出交互反馈,则优先向所对应的用户作出图像显示反馈、动作姿态反馈和语音反馈中的一者。若是基于第三交互策略对优先级最高的交互行为所对应的用户作出交互反馈,则优先向所对应的用户作出动作姿态反馈和语音反馈中的一者。
一些实施例中,如果用户在对应的场景中发出声音进行交互请求,并且声音中断了,若在声音中断前,陪伴机器人已经判断出用户在哪个场景,则直接去对应的场景与用户做交互。若声音中断前,陪伴机器人没有判断出用户在哪个场景,陪伴机器人则会在原地自己晃悠,等待用户重新发出声音和动作进行交互请求。
上述实施例中,当有多个用户需要陪伴机器人进行交互反馈时,可以基于上述不同的交互策略从多个用户中确定一个用户来进行交互反馈,从而满足多个用户的交互反馈需求。
上述是对陪伴机器人的相关说明。
一些实施例中提供一种计算机可读存储介质,该介质上存储有程序,该程序能够被处理器执行以实现上述的陪伴机器人交互方法。
一些实施例中提供一种计算机程序产品,包括计算机程序和/或指令,计算机程序和/或指令被处理器执行时实现上述的陪伴机器人交互方法。
本领域技术人员可以理解,上述实施方式中各种方法的全部或部分功能可以通过硬件的方式实现,也可以通过计算机程序的方式实现。当上述实施方式中全部或部分功能通过计算机程序的方式实现时,该程序可以存储于一计算机可读存储介质中,存储介质可以包括:只读存储器、随机存储器、磁盘、光盘、硬盘等,通过计算机执行该程序以实现上述功能。例如,将程序存储在设备的存储器中,当通过处理器执行存储器中程序,即可实现上述全部或部分功能。另外,当上述实施方式中全部或部分功能通过计算机程序的方式实现时,该程序也可以存储在服务器、另一计算机、磁盘、光盘、闪存盘或移动硬盘等存储介质中,通过下载或复制保存到本地设备的存储器中,或对本地设备的系统进行版本更新,当通过处理器执行存储器中的程序时,即可实现上述实施方式中全部或部分功能。
以上应用了具体个例对本申请进行阐述,只是用于帮助理解本申请,并不用以限制本申请。对于本申请所属技术领域的技术人员,依据本申请的思想,还可以做出若干简单推演、变形或替换。

Claims (11)

1.一种陪伴机器人交互方法,其特征在于,包括:
识别用户的交互请求,并识别所述交互请求对应的用户;其中,当识别到多个用户的所述交互请求时,分别识别各个所述交互请求对应的用户;
获取第一交互策略,所述第一交互策略用于确定用户的各个位置场景之间的优先级;
分别获取所述多个用户的所述位置场景,基于所述第一交互策略确定所述多个用户对应的多个所述位置场景中优先级最高的位置场景;
对所述优先级最高的位置场景所对应的用户作出交互反馈。
2.如权利要求1所述的陪伴机器人交互方法,其特征在于,所述分别获取所述多个用户的所述位置场景,包括:
分别获取所述多个用户的位置信息和/或获取包括用户所处场景的场景图像,基于所述位置信息和/或所述场景图像确定对应用户的位置场景;其中,所述位置场景包括客厅、卧室、书房、玄关、餐厅、厨房、阳台和卫生间中的至少一者。
3.如权利要求1所述的陪伴机器人交互方法,其特征在于,所述获取第一交互策略,包括:
获取各个所述位置场景的场景类型,所述场景类型包括第一场景类型和第二场景类型,所述第一场景类型用于表征适合陪伴机器人交互的位置场景,所述第二场景类型用于表征不适合陪伴机器人交互的位置场景;
配置所述第一场景类型和所述第二场景类型之间的优先级;
和/或,
配置属于所述第一场景类型的各个所述位置场景之间的优先级;
和/或,
配置属于所述第二场景类型的各个所述位置场景之间的优先级。
4.如权利要求1所述的陪伴机器人交互方法,其特征在于,所述对所述优先级最高的位置场景所对应的用户作出交互反馈,包括:
若所述优先级最高的位置场景所对应的用户为一个,则对该用户作出交互反馈;
若所述优先级最高的位置场景所对应的用户为多个,则获取第二交互策略,所述第二交互策略用于确定用户的各个交互级别之间的优先级;
分别获取多个用户的所述交互级别,基于所述第二交互策略确定多个用户对应的多个所述交互级别中优先级最高的交互级别;
对所述优先级最高的交互级别所对应的用户作出交互反馈。
5.如权利要求4所述的陪伴机器人交互方法,其特征在于,所述分别获取所述多个用户的所述交互级别,包括:
分别获取所存储的所述多个用户的亲密值,基于各个用户对应的所述亲密值分别确定所述多个用户的交互级别。
6.如权利要求4所述的陪伴机器人交互方法,其特征在于,对所述优先级最高的交互级别所对应的用户作出交互反馈,包括:
若所述优先级最高的交互级别所对应的用户为一个,则对该用户作出交互反馈;
若所述优先级最高的交互级别所对应的用户为多个,则获取第三交互策略,所述第三交互策略用于确定用户的各个交互行为之间的优先级;
分别获取多个用户的所述交互行为,基于所述第三交互策略确定多个用户对应的多个所述交互行为中优先级最高的交互行为;
对所述优先级最高的交互行为所对应的用户作出交互反馈。
7.如权利要求6所述的陪伴机器人交互方法,其特征在于,所述分别获取所述多个用户的所述交互行为,包括:
基于传感模块分别获取所述多个用户的交互行为;所述交互行为包括触摸互动行为、肢体互动行为和语音互动行为中的至少一者。
8.如权利要求6所述的陪伴机器人交互方法,其特征在于,还包括:
若基于所述第一交互策略对所述优先级最高的位置场景所对应的用户作出交互反馈,则优先向所对应的用户作出位置移动反馈;所述位置移动反馈包括向用户进行靠近移动和/或在用户附近进行移动;
若基于所述第二交互策略对所述优先级最高的交互级别所对应的用户作出交互反馈,则优先向所对应的用户作出图像显示反馈、动作姿态反馈和语音反馈中的一者;
若基于所述第三交互策略对所述优先级最高的交互行为所对应的用户作出交互反馈,则优先向所对应的用户作出动作姿态反馈和语音反馈中的一者。
9.如权利要求1所述的陪伴机器人交互方法,其特征在于,所述交互反馈包括位置移动反馈、图像显示反馈、动作姿态反馈、语音反馈中的至少一者。
10.一种陪伴机器人,其特征在于,包括:
本体机构,用于实现陪伴机器人的动作姿态;
传感模块,用于至少获取图像信号和/或声音信号;
移动机构,用于实现陪伴机器人的位置移动;
处理器,用于在执行计算机程序和/或指令时实现权利要求1-9中任一项所述的方法。
11.一种计算机程序产品,包括计算机程序和/或指令,其特征在于,所述计算机程序和/或指令被处理器执行时实现权利要求1-9中任一项所述的方法。
CN202510625545.XA 2025-05-14 2025-05-14 一种陪伴机器人交互方法、陪伴机器人及计算机程序产品 Pending CN120886276A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202510625545.XA CN120886276A (zh) 2025-05-14 2025-05-14 一种陪伴机器人交互方法、陪伴机器人及计算机程序产品

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202510625545.XA CN120886276A (zh) 2025-05-14 2025-05-14 一种陪伴机器人交互方法、陪伴机器人及计算机程序产品

Publications (1)

Publication Number Publication Date
CN120886276A true CN120886276A (zh) 2025-11-04

Family

ID=97505210

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202510625545.XA Pending CN120886276A (zh) 2025-05-14 2025-05-14 一种陪伴机器人交互方法、陪伴机器人及计算机程序产品

Country Status (1)

Country Link
CN (1) CN120886276A (zh)

Similar Documents

Publication Publication Date Title
US10628714B2 (en) Entity-tracking computing system
US12537005B2 (en) Electronic device and controlling method thereof
US11010601B2 (en) Intelligent assistant device communicating non-verbal cues
CN111163906B (zh) 能够移动的电子设备及其操作方法
CN106297781B (zh) 控制方法和控制器
CN107077847B (zh) 关键短语用户识别的增强
JPWO2016157650A1 (ja) 情報処理装置、制御方法、およびプログラム
JP7416295B2 (ja) ロボット、対話システム、情報処理方法及びプログラム
EP3523709B1 (en) Electronic device and controlling method thereof
JP6891601B2 (ja) ロボットの制御プログラム、ロボット装置、及びロボットの制御方法
JP2023101501A (ja) 装置、方法、及びプログラム
CN115461811A (zh) 用于多方交互的多模态波束成形和注意力过滤
CN116403576A (zh) 车辆智能座舱的交互方法、装置、设备及存储介质
CN120886276A (zh) 一种陪伴机器人交互方法、陪伴机器人及计算机程序产品
CN111919250B (zh) 传达非语言提示的智能助理设备
CN111278611A (zh) 信息处理设备、信息处理方法和程序
KR102760778B1 (ko) 사용자 상태에 기초하여 반응을 제공하는 전자 장치 및 그의 동작 방법
JP7425681B2 (ja) 社会的能力生成装置、社会的能力生成方法、およびコミュニケーションロボット
WO2023017753A1 (ja) 学習装置、学習方法、およびプログラム
JP2023544649A (ja) 人間型特徴を有する仮想的かつ物理的ソーシャルロボット
JP7651077B2 (ja) 制御モデル生成装置、ロボット制御装置、制御システム、制御モデル生成方法およびプログラム
US20230289404A1 (en) Information processing apparatus and information processing method
WO2024190616A1 (ja) 行動制御システム及びプログラム
JP2024173035A (ja) 行動制御システム及びプログラム
KR20250085374A (ko) 인체 감지에 따른 시각 맞춤형 디스플레이를 구비한 에이전트 로봇 및 그의 제어 방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination