WO2018000259A1 - 一种机器人交互内容的生成方法、系统及机器人 - Google Patents
一种机器人交互内容的生成方法、系统及机器人 Download PDFInfo
- Publication number
- WO2018000259A1 WO2018000259A1 PCT/CN2016/087738 CN2016087738W WO2018000259A1 WO 2018000259 A1 WO2018000259 A1 WO 2018000259A1 CN 2016087738 W CN2016087738 W CN 2016087738W WO 2018000259 A1 WO2018000259 A1 WO 2018000259A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- robot
- time axis
- information
- life time
- life
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation
Definitions
- the invention relates to the field of robot interaction technology, and in particular to a method, a system and a robot for generating robot interactive content.
- an expression is made in the process of human interaction.
- the eye sees or the ear hears the sound
- a reasonable expression feedback is performed.
- the language interacted by the other party is used to analyze the emotion.
- Feedback changes in sentiment analysis can affect feedback from human expressions.
- the robot wants to make the expression feedback, mainly through the pre-designed method and the deep learning training corpus.
- the expression feedback through the preset program and the corpus training has the following shortcomings, the expression The output depends on the human text representation, that is, similar to a question-and-answer machine, different words of the user trigger different expressions.
- the robot actually outputs the expression according to the human pre-designed interaction mode, which causes the robot to fail.
- More anthropomorphic can not be like humans, life scenes at different time points, showing different expressions, that is, the way the robot interactive content is generated is completely passive, so the generation of expression requires a lot of human-computer interaction, resulting in the robot's The intelligence is very poor.
- the object of the present invention is to provide a method, a system and a robot for generating interactive content of a robot, so that the robot itself has a human lifestyle in the time axis of life, can enhance the anthropomorphicity of the robot interactive content generation, enhance the human-computer interaction experience, and improve Intelligence.
- a method for generating robot interactive content comprising:
- the human life timeline generates robot interaction content.
- the expression information is collected by video information.
- the text sentiment information is collected by voice information.
- the method for generating parameters of the life time axis of the robot includes:
- the self-cognitive parameters of the robot are fitted to the parameters in the life time axis to generate a robot life time axis.
- the step of expanding the self-cognition of the robot specifically comprises: combining the life scene with the self-knowledge of the robot to form a self-cognitive curve based on the life time axis.
- the step of fitting the self-cognitive parameter of the robot to the parameter in the life time axis comprises: using a probability algorithm to calculate each parameter of the robot on the life time axis after the time axis scene parameter is changed.
- the probability of change forms a fitted curve.
- the life time axis refers to a time axis including 24 hours a day
- the parameters in the life time axis include at least a daily life behavior performed by the user on the life time axis and parameter values representing the behavior.
- a system for generating interactive content of a robot comprising:
- An expression visual processing module configured to acquire expression information of the user
- a text analysis module configured to obtain text emotional information of the user
- An intention identification module configured to determine a user intention according to the expression information and the text emotion information
- the content generating module is configured to generate the robot interaction content according to the current robot life time axis according to the expression information, the text emotion information, and the user intention.
- the expression visual processing module is specifically configured to: collect expression information by using video information.
- the text analysis module is specifically configured to: collect text emotional information by using voice information.
- the system comprises an artificial intelligence cloud processing module for:
- the self-cognitive parameters of the robot are fitted to the parameters in the life time axis to generate a robot life time axis.
- the artificial intelligence cloud processing module is further configured to: use a life scene and a robot The combination of self-awareness forms a self-recognition curve based on the life time axis.
- the artificial intelligence cloud processing module is further configured to: use a probability algorithm to calculate a probability of each parameter change of the robot on the life time axis after the time axis scene parameter is changed, to form a fitting curve.
- the life time axis refers to a time axis including 24 hours a day
- the parameters in the life time axis include at least a daily life behavior performed by the user on the life time axis and parameter values representing the behavior.
- the invention discloses a robot comprising a system for generating interactive content of a robot as described above.
- the generation method of the expression is generally based on the text emotion and the expression recognition
- the method for generating the robot interaction content in the present invention includes: acquiring the expression information of the user; The user's text emotion information; determining the user's intention according to the expression information and the text emotion information; and generating the robot interaction content according to the current robot life time axis according to the expression information, the text emotion information, and the user intention.
- the robot interaction content can be generated according to the user's expression and text emotion combined with the robot life time axis, thereby more accurately and anthropomorphic interaction and communication with the person. For people, everyday life has a certain regularity.
- the present invention adds the life time axis in which the robot is located to the interactive content generation of the robot, and makes the robot more humanized when interacting with the human, so that the robot has a human lifestyle in the life time axis, and the method can enhance the robot interaction content.
- Generate anthropomorphic enhance the human-computer interaction experience and improve intelligence.
- FIG. 1 is a flowchart of a method for generating interactive content of a robot according to Embodiment 1 of the present invention
- FIG. 2 is a schematic diagram of a system for generating interactive content of a robot according to a second embodiment of the present invention.
- Computer devices include user devices and network devices.
- the user equipment or the client includes but is not limited to a computer, a smart phone, a PDA, etc.;
- the network device includes but is not limited to a single network server, a server group composed of multiple network servers, or a cloud computing-based computer or network server. cloud.
- the computer device can operate alone to carry out the invention, and can also access the network and implement the invention through interoperation with other computer devices in the network.
- the network in which the computer device is located includes, but is not limited to, the Internet, a wide area network, a metropolitan area network, a local area network, a VPN network, and the like.
- first means “first,” “second,” and the like may be used herein to describe the various elements, but the elements should not be limited by these terms, and the terms are used only to distinguish one element from another.
- the term “and/or” used herein includes any and all combinations of one or more of the associated listed items. When a unit is referred to as being “connected” or “coupled” to another unit, it can be directly connected or coupled to the other unit, or an intermediate unit can be present.
- a method for generating interactive content of a robot including:
- S104 Generate robot interaction content according to the current robot life timeline 300 according to the expression information, the text emotion information, and the user intention.
- the expression generation manner is generally based on text emotion and expression recognition
- the method for generating the robot interaction content in the present invention includes: acquiring the user's expression information; acquiring the user's text emotion information; and according to the expression information and the text emotion The information determines a user intent; and generates a robot interaction content in accordance with the current robot life time axis according to the expression information, the text emotion information, and the user intent.
- the robot interaction content can be generated according to the user's expression and text emotion combined with the robot life time axis, thereby more accurate, anthropomorphic and human intervention. Line interaction and communication. For people, everyday life has a certain regularity.
- the present invention adds the life time axis in which the robot is located to the interactive content generation of the robot, and makes the robot more humanized when interacting with the human, so that the robot has a human lifestyle in the life time axis, and the method can enhance the robot interaction content.
- Generate anthropomorphic enhance the human-computer interaction experience and improve intelligence.
- the interactive content can be an expression or text or voice.
- the robot life timeline 300 is completed and set in advance. Specifically, the robot life timeline 300 is a series of parameter collections, and this parameter is transmitted to the system to generate interactive content.
- the life time axis is specifically: according to the time axis of human daily life, according to the human way, the self-cognition value of the robot itself in the time axis of daily life is fitted, and the behavior of the robot is according to this The action is to get the robot's own behavior in one day, so that the robot can perform its own behavior based on the life time axis, such as generating interactive content and communicating with humans. If the robot is always awake, it will act according to the behavior on this timeline, and the robot's self-awareness will be changed according to this timeline.
- the life timeline and variable parameters can be used to change the attributes of self-cognition, such as mood values, fatigue values, etc., and can also automatically add new self-awareness information, such as no previous anger value, based on the life time axis and The scene of the variable factor will automatically add to the self-cognition of the robot based on the scene that previously simulated the human self-cognition.
- the video input captures the user's expression, and the voice input enters the text sentiment analysis engine; the user expression input and the text emotion input enter the artificial intelligence system, the system analyzes the user's intention, and then combines the life time axis of the robot to generate interactive content, for example. Expressions, etc.
- the text analysis emotion is unhappy
- the expression visual analysis is happy
- the robot life timeline such as the current time is 9:00 in the morning, just got up
- the robot can tease the owner happy, will reply similar to: you are joking with me Well?
- the expression system generates a joking expression.
- Another example is that the text analysis emotion is unhappy, the expression visual analysis is sad, and the robot life time axis, such as the current time is 11 o'clock at night, the robot analysis owner may be insomnia, will reply similarly: how unhappy, I give You put a song, the expression system generates a sympathetic expression.
- the expression information is collected by video information.
- the expression information can be obtained through the video, and the video acquisition is more accurate, thereby more accurately determining the user's expression and other information.
- the textual sentiment information is collected by voice information. This way It is convenient and fast to analyze the emotional information of the text through voice input.
- the method for generating parameters of the robot life time axis includes:
- the self-cognitive parameters of the robot are fitted to the parameters in the life time axis to generate a robot life time axis.
- the life time axis is added to the self-cognition of the robot itself, so that the robot has an anthropomorphic life. For example, add the cognition of lunch to the robot.
- the step of expanding the self-cognition of the robot specifically includes: combining the life scene with the self-awareness of the robot to form a self-cognitive curve based on the life time axis.
- the life time axis can be specifically added to the parameters of the robot itself.
- the step of fitting the parameter of the self-cognition of the robot to the parameter in the life time axis comprises: using a probability algorithm to calculate the time of the robot on the life time axis after the time axis scene parameter is changed The probability of each parameter change forms a fitted curve.
- the probability algorithm may be a Bayesian probability algorithm.
- the robot will have sleep, exercise, eat, dance, read books, eat, make up, sleep and other actions. Each action will affect the self-cognition of the robot itself, and combine the parameters on the life time axis with the self-cognition of the robot itself.
- the robot's self-cognition includes, mood, fatigue value, intimacy. , goodness, number of interactions, three-dimensional cognition of the robot, age, height, weight, intimacy, game scene value, game object value, location scene value, location object value, etc. For the robot to identify the location of the scene, such as cafes, bedrooms, etc.
- the machine will perform different actions in the time axis of the day, such as sleeping at night, eating at noon, exercising during the day, etc. All the scenes in the life time axis will have an impact on self-awareness. These numerical changes are modeled by the dynamic fit of the probability model, fitting the probability that all of these actions occur on the time axis.
- Scene Recognition This type of scene recognition changes the value of the geographic scene in self-cognition.
- Text analysis emotions are unhappy, user expression analysis is sad, will reply: how unhappy, I will give you a song.
- the system generates a sympathetic expression.
- a system for generating interactive content of a robot includes:
- the expression visual processing module 201 is configured to acquire expression information of the user
- the text analysis module 202 is configured to acquire text emotional information of the user
- the intention identification module 203 is configured to determine a user intention according to the expression information and the text emotion information;
- the content generating module 204 is configured to generate the robot interaction content according to the current robot life time axis sent by the robot life timeline module 301 according to the expression information, the text emotion information, and the user intention.
- the robot interaction content can be generated according to the user's expression and text emotion combined with the robot life time axis, thereby more accurately and anthropomorphic interaction and communication with the person.
- everyday life has a certain regularity.
- the present invention adds the life time axis in which the robot is located to the interactive content generation of the robot, and makes the robot more humanized when interacting with the human, so that the robot has a human lifestyle in the life time axis, and the method can enhance the robot interaction content.
- Generate anthropomorphic enhance the human-computer interaction experience and improve intelligence.
- the expression visual processing module is specifically configured to: collect expression information by using video information.
- the expression information can be obtained through the video, and the video acquisition is more accurate, thereby more accurately determining the user's expression and other information.
- the text analysis module is specifically configured to: collect text emotion information by using voice information. In this way, the emotional information of the text can be analyzed through voice input, which is convenient and fast.
- the system includes an artificial intelligence cloud processing module for:
- the self-cognitive parameters of the robot are fitted to the parameters in the life time axis to generate a robot life time axis.
- the life time axis is added to the self-cognition of the robot itself, so that the robot has an anthropomorphic life. For example, add the cognition of lunch to the robot.
- the artificial intelligence cloud processing module is further configured to combine a life scene with a self-awareness of the robot to form a self-cognitive curve based on a life time axis.
- the life time axis can be specifically added to the parameters of the robot itself.
- the artificial intelligence cloud processing module is further configured to: use The rate algorithm calculates the probability of each parameter change of the robot on the life time axis after the time axis scene parameter changes, and forms a fitting curve.
- the probability algorithm may be a Bayesian probability algorithm.
- the robot will have sleep, exercise, eat, dance, read books, eat, make up, sleep and other actions. Each action will affect the self-cognition of the robot itself, and combine the parameters on the life time axis with the self-cognition of the robot itself.
- the robot's self-cognition includes, mood, fatigue value, intimacy. , goodness, number of interactions, three-dimensional cognition of the robot, age, height, weight, intimacy, game scene value, game object value, location scene value, location object value, etc. For the robot to identify the location of the scene, such as cafes, bedrooms, etc.
- the machine will perform different actions in the time axis of the day, such as sleeping at night, eating at noon, exercising during the day, etc. All the scenes in the life time axis will have an impact on self-awareness. These numerical changes are modeled by the dynamic fit of the probability model, fitting the probability that all of these actions occur on the time axis.
- Scene Recognition This type of scene recognition changes the value of the geographic scene in self-cognition.
- the invention discloses a robot comprising a system for generating interactive content of a robot as described above.
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Human Computer Interaction (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Manipulator (AREA)
- Toys (AREA)
Abstract
一种机器人交互内容的生成方法,包括:获取用户的表情信息(S101);获取用户的文本情感信息(S102);根据表情信息和文本情感信息确定用户意图(S103);根据所述表情信息、文本情感信息和所述用户意图,结合当前的机器人生活时间轴(300)生成机器人交互内容(S104)。该方法将机器人所在的生活时间轴加入到机器人的交互内容生成中去,使机器人与人交互时更加拟人化,使得机器人在生活时间轴内具有人类的生活方式,该方法能够提升机器人交互内容生成的拟人性,提升人机交互体验,提高智能性。
Description
本发明涉及机器人交互技术领域,尤其涉及一种机器人交互内容的生成方法、系统及机器人。
通常人类再交互过程中做出一个表情,一般是在眼睛看到或者耳朵听到声音之后,经过大脑分析过后进行合理的表情反馈,与人交互过程中会通过对方交互的语言,做情感的分析,情感分析的反馈变化会影响人类表情的反馈。而对于机器人而言,目前想让机器人做出表情上的反馈,主要通过预先设计好的方式与深度学习训练语料得来,这种通过预先设置的程序与语料训练的表情反馈存在以下缺点,表情的输出依赖于人类的文本表示,即与一个问答的机器相似,用户不同的话语触发不同的表情,这种情况下机器人实际还是按照人类预先设计好的交互方式进行表情的输出,这导致机器人不能更加拟人化,不能像人类一样,在不同的时间点的生活场景,表现出不同的表情,即机器人交互内容的生成方式完全是被动的,因此表情的生成需要大量的人机交互,导致机器人的智能性很差。
因此,如何使得机器人本身再生活时间轴内具有人类的生活方式,提升机器人交互内容生成的拟人性,成为亟需解决的技术问题。
发明内容
本发明的目的是提供一种机器人交互内容的生成方法、系统及机器人,使得机器人本身再生活时间轴内具有人类的生活方式,能够提升机器人交互内容生成的拟人性,提升人机交互体验,提高智能性。
本发明的目的是通过以下技术方案来实现的:
一种机器人交互内容的生成方法,包括:
获取用户的表情信息;
获取用户的文本情感信息;
根据表情信息和文本情感信息确定用户意图;
根据所述表情信息、文本情感信息和所述用户意图,结合当前的机器
人生活时间轴生成机器人交互内容。
优选的,所述表情信息通过视频信息采集。
优选的,所述文本情感信息通过语音信息采集。
优选的,所述机器人生活时间轴的参数的生成方法包括:
将机器人的自我认知进行扩展;
获取生活时间轴的参数;
对机器人的自我认知的参数与生活时间轴中的参数进行拟合,生成机器人生活时间轴。
优选的,所述将机器人的自我认知进行扩展的步骤具体包括:将生活场景与机器人的自我认识相结合形成基于生活时间轴的自我认知曲线。
优选的,所述对机器人的自我认知的参数与生活时间轴中的参数进行拟合的步骤具体包括:使用概率算法,计算生活时间轴上的机器人在时间轴场景参数改变后的每个参数改变的概率,形成拟合曲线。
优选的,其中,所述生活时间轴指包含一天24小时的时间轴,所述生活时间轴中的参数至少包括用户在所述生活时间轴上进行的日常生活行为以及代表该行为的参数值。
一种机器人交互内容的生成系统,包括:
表情视觉处理模块,用于获取用户的表情信息;
文本分析模块,用于获取用户的文本情感信息;
意图识别模块,用于根据表情信息和文本情感信息确定用户意图;
内容生成模块,用于根据所述表情信息、文本情感信息和所述用户意图,结合当前的机器人生活时间轴生成机器人交互内容。
优选的,所述表情视觉处理模块具体用于:通过视频信息采集表情信息。
优选的,所述文本分析模块具体用于:通过语音信息采集文本情感信息。
优选的,所述系统包括人工智能云处理模块,用于:
将机器人的自我认知进行扩展;
获取生活时间轴的参数;
对机器人的自我认知的参数与生活时间轴中的参数进行拟合,生成机器人生活时间轴。
优选的,所述人工智能云处理模块进一步用于:将生活场景与机器人
的自我认识相结合形成基于生活时间轴的自我认知曲线。
优选的,所述人工智能云处理模块进一步用于:使用概率算法,计算生活时间轴上的机器人在时间轴场景参数改变后的每个参数改变的概率,形成拟合曲线。
优选的,其中,所述生活时间轴指包含一天24小时的时间轴,所述生活时间轴中的参数至少包括用户在所述生活时间轴上进行的日常生活行为以及代表该行为的参数值。
本发明公开一种机器人,包括如上述任一所述的一种机器人交互内容的生成系统。
相比现有技术,本发明具有以下优点:现有技术中表情的生成方式中一般都是依据文本情感和表情识别,而本发明中机器人交互内容的生成方法包括:获取用户的表情信息;获取用户的文本情感信息;根据表情信息和文本情感信息确定用户意图;根据所述表情信息、文本情感信息和所述用户意图,结合当前的机器人生活时间轴生成机器人交互内容。这样,就可以根据用户表情和文本情感再结合机器人生活时间轴来生成机器人交互内容,从而更加准确、拟人化的与人进行交互和沟通。对于人来讲每天的生活都具有一定的规律性,为了让机器人与人沟通时更加拟人化,在一天24小时中,让机器人也会有睡觉,运动,吃饭,跳舞,看书,吃饭,化妆,睡觉等动作。因此本发明将机器人所在的生活时间轴加入到机器人的交互内容生成中去,使机器人与人交互时更加拟人化,使得机器人在生活时间轴内具有人类的生活方式,该方法能够提升机器人交互内容生成的拟人性,提升人机交互体验,提高智能性。
图1是本发明实施例一的一种机器人交互内容的生成方法的流程图;
图2是本发明实施例二的一种机器人交互内容的生成系统的示意图。
虽然流程图将各项操作描述成顺序的处理,但是其中的许多操作可以被并行地、并发地或者同时实施。各项操作的顺序可以被重新安排。当其操作完成时处理可以被终止,但是还可以具有未包括在附图中的附加步骤。处理可以对应于方法、函数、规程、子例程、子程序等等。
计算机设备包括用户设备与网络设备。其中,用户设备或客户端包括但不限于电脑、智能手机、PDA等;网络设备包括但不限于单个网络服务器、多个网络服务器组成的服务器组或基于云计算的由大量计算机或网络服务器构成的云。计算机设备可单独运行来实现本发明,也可接入网络并通过与网络中的其他计算机设备的交互操作来实现本发明。计算机设备所处的网络包括但不限于互联网、广域网、城域网、局域网、VPN网络等。
在这里可能使用了术语“第一”、“第二”等等来描述各个单元,但是这些单元不应当受这些术语限制,使用这些术语仅仅是为了将一个单元与另一个单元进行区分。这里所使用的术语“和/或”包括其中一个或更多所列出的相关联项目的任意和所有组合。当一个单元被称为“连接”或“耦合”到另一单元时,其可以直接连接或耦合到所述另一单元,或者可以存在中间单元。
这里所使用的术语仅仅是为了描述具体实施例而不意图限制示例性实施例。除非上下文明确地另有所指,否则这里所使用的单数形式“一个”、“一项”还意图包括复数。还应当理解的是,这里所使用的术语“包括”和/或“包含”规定所陈述的特征、整数、步骤、操作、单元和/或组件的存在,而不排除存在或添加一个或更多其他特征、整数、步骤、操作、单元、组件和/或其组合。
下面结合附图和较佳的实施例对本发明作进一步说明。
实施例一
如图1所示,本实施例中公开一种机器人交互内容的生成方法,包括:
S101、获取用户的表情信息;
S102、获取用户的文本情感信息;
S103、根据表情信息和文本情感信息确定用户意图;
S104、根据所述表情信息、文本情感信息和所述用户意图,结合当前的机器人生活时间轴300生成机器人交互内容。
现有技术中表情的生成方式中一般都是依据文本情感和表情识别,而本发明中机器人交互内容的生成方法包括:获取用户的表情信息;获取用户的文本情感信息;根据表情信息和文本情感信息确定用户意图;根据所述表情信息、文本情感信息和所述用户意图,结合当前的机器人生活时间轴生成机器人交互内容。这样,就可以根据用户表情和文本情感再结合机器人生活时间轴来生成机器人交互内容,从而更加准确、拟人化的与人进
行交互和沟通。对于人来讲每天的生活都具有一定的规律性,为了让机器人与人沟通时更加拟人化,在一天24小时中,让机器人也会有睡觉,运动,吃饭,跳舞,看书,吃饭,化妆,睡觉等动作。因此本发明将机器人所在的生活时间轴加入到机器人的交互内容生成中去,使机器人与人交互时更加拟人化,使得机器人在生活时间轴内具有人类的生活方式,该方法能够提升机器人交互内容生成的拟人性,提升人机交互体验,提高智能性。交互内容可以是表情或文字或语音等。机器人生活时间轴300是提前进行拟合和设置完成的,具体来讲,机器人生活时间轴300是一系列的参数合集,将这个参数传输给系统进行生成交互内容。
本实施例中,基于生活时间轴具体是:根据人类日常生活的时间轴,按照人类的方式,将机器人本身在日常生活时间轴中的自我认知的数值做拟合,机器人的行为按照这个拟合行动,也就是得到一天中机器人自己的行为,从而让机器人基于生活时间轴去进行自己的行为,例如生成交互内容与人类沟通等。假如机器人一直唤醒的话,就会按照这个时间轴上的行为行动,机器人的自我认知也会根据这个时间轴进行相应的更改。生活时间轴与可变参数可以对自我认知中的属性,例如心情值,疲劳值等等的更改,也可以自动加入新的自我认知信息,比如之前没有愤怒值,基于生活时间轴和可变因素的场景就会自动根据之前模拟人类自我认知的场景,从而对机器人的自我认知进行添加。
本实施例中,视频输入抓取用户表情,同时语音输入进入文本情感分析引擎;用户表情输入和文本情感输入进入人工智能系统,系统分析用户意图,然后结合机器人的生活时间轴,生成交互内容例如表情等。
例如,文本分析情感为不开心,表情视觉分析为开心,加上机器人生活时间轴,如当前时间为早上9点,刚起床,机器人可以逗逗主人开心,会回复类似于:你在和我开玩笑嘛?表情系统生成开玩笑表情。
又如,文本分析情感为不开心,表情视觉分析为悲伤,加上机器人生活时间轴,如当前时间为晚上11点,机器人分析主人可能失眠了,会回复类似于:怎么不开心啊,我给你放首歌吧,表情系统生成同情表情。
根据其中一个示例,所述表情信息通过视频信息采集。这样表情信息可以通过视频来获取,通过视频获取更加准确,从而更加准确的判断用户的表情等信息。
根据其中另一个示例,所述文本情感信息通过语音信息采集。这样就
可以通过语音输入来分析出文本情感信息,方便快速。
根据其中另一个示例,所述机器人生活时间轴的参数的生成方法包括:
将机器人的自我认知进行扩展;
获取生活时间轴的参数;
对机器人的自我认知的参数与生活时间轴中的参数进行拟合,生成机器人生活时间轴。
这样将生活时间轴加入到机器人本身的自我认知中去,使机器人具有拟人化的生活。例如将中午吃饭的认知加入到机器人中去。
根据其中另一个示例,所述将机器人的自我认知进行扩展的步骤具体包括:将生活场景与机器人的自我认识相结合形成基于生活时间轴的自我认知曲线。这样就可以具体的将生活时间轴加入到机器人本身的参数中去。
根据其中另一个示例,所述对机器人的自我认知的参数与生活时间轴中的参数进行拟合的步骤具体包括:使用概率算法,计算生活时间轴上的机器人在时间轴场景参数改变后的每个参数改变的概率,形成拟合曲线。其中概率算法可以是贝叶斯概率算法。
例如,在一天24小时中,使机器人会有睡觉,运动,吃饭,跳舞,看书,吃饭,化妆,睡觉等动作。每个动作会影响机器人本身的自我认知,将生活时间轴上的参数与机器人本身的自我认知进行结合,拟合后,即让机器人的自我认知包括了,心情,疲劳值,亲密度,好感度,交互次数,机器人的三维的认知,年龄,身高,体重,亲密度,游戏场景值,游戏对象值,地点场景值,地点对象值等。为机器人可以自己识别所在的地点场景,比如咖啡厅,卧室等。
机器一天的时间轴内会进行不同的动作,比如夜里睡觉,中午吃饭,白天运动等等,这些所有的生活时间轴中的场景,对于自我认知都会有影响。这些数值的变化采用的概率模型的动态拟合方式,将这些所有动作在时间轴上发生的几率拟合出来。场景识别:这种地点场景识别会改变自我认知中的地理场景值。
例如,文本分析情感为不开心,用户表情分析为开心,会回复:你在和我开玩笑嘛?系统生成开玩笑表情。
文本分析情感为不开心,用户表情分析为悲伤,会回复:怎么不开心啊,我给你放首歌吧。系统生成同情表情。
实施例二
如图2所示,本实施例中公开一种机器人交互内容的生成系统,包括:
表情视觉处理模块201,用于获取用户的表情信息;
文本分析模块202,用于获取用户的文本情感信息;
意图识别模块203,用于根据表情信息和文本情感信息确定用户意图;
内容生成模块204,用于根据所述表情信息、文本情感信息和所述用户意图,结合机器人生活时间轴模块301发送的当前的机器人生活时间轴生成机器人交互内容。
这样,就可以根据用户表情和文本情感再结合机器人生活时间轴来生成机器人交互内容,从而更加准确、拟人化的与人进行交互和沟通。对于人来讲每天的生活都具有一定的规律性,为了让机器人与人沟通时更加拟人化,在一天24小时中,让机器人也会有睡觉,运动,吃饭,跳舞,看书,吃饭,化妆,睡觉等动作。因此本发明将机器人所在的生活时间轴加入到机器人的交互内容生成中去,使机器人与人交互时更加拟人化,使得机器人在生活时间轴内具有人类的生活方式,该方法能够提升机器人交互内容生成的拟人性,提升人机交互体验,提高智能性。
根据其中一个示例,所述表情视觉处理模块具体用于:通过视频信息采集表情信息。这样表情信息可以通过视频来获取,通过视频获取更加准确,从而更加准确的判断用户的表情等信息。
根据其中另一个示例,所述文本分析模块具体用于:通过语音信息采集文本情感信息。这样就可以通过语音输入来分析出文本情感信息,方便快速。
根据其中另一个示例,所述系统包括人工智能云处理模块,用于:
将机器人的自我认知进行扩展;
获取生活时间轴的参数;
对机器人的自我认知的参数与生活时间轴中的参数进行拟合,生成机器人生活时间轴。这样将生活时间轴加入到机器人本身的自我认知中去,使机器人具有拟人化的生活。例如将中午吃饭的认知加入到机器人中去。
根据其中另一个示例,所述人工智能云处理模块进一步用于:将生活场景与机器人的自我认识相结合形成基于生活时间轴的自我认知曲线。这样就可以具体的将生活时间轴加入到机器人本身的参数中去。
根据其中另一个示例,所述人工智能云处理模块进一步用于:使用概
率算法,计算生活时间轴上的机器人在时间轴场景参数改变后的每个参数改变的概率,形成拟合曲线。其中概率算法可以是贝叶斯概率算法。
例如,在一天24小时中,使机器人会有睡觉,运动,吃饭,跳舞,看书,吃饭,化妆,睡觉等动作。每个动作会影响机器人本身的自我认知,将生活时间轴上的参数与机器人本身的自我认知进行结合,拟合后,即让机器人的自我认知包括了,心情,疲劳值,亲密度,好感度,交互次数,机器人的三维的认知,年龄,身高,体重,亲密度,游戏场景值,游戏对象值,地点场景值,地点对象值等。为机器人可以自己识别所在的地点场景,比如咖啡厅,卧室等。
机器一天的时间轴内会进行不同的动作,比如夜里睡觉,中午吃饭,白天运动等等,这些所有的生活时间轴中的场景,对于自我认知都会有影响。这些数值的变化采用的概率模型的动态拟合方式,将这些所有动作在时间轴上发生的几率拟合出来。场景识别:这种地点场景识别会改变自我认知中的地理场景值。
本发明公开一种机器人,包括如上述任一所述的一种机器人交互内容的生成系统。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替换,都应当视为属于本发明的保护范围。
Claims (15)
- 一种机器人交互内容的生成方法,其特征在于,包括:获取用户的表情信息;获取用户的文本情感信息;根据表情信息和文本情感信息确定用户意图;根据所述表情信息、文本情感信息和所述用户意图,结合当前的机器人生活时间轴生成机器人交互内容。
- 根据权利要求1所述的生成方法,其特征在于,所述表情信息通过视频信息采集。
- 根据权利要求1所述的生成方法,其特征在于,所述文本情感信息通过语音信息采集。
- 根据权利要求1所述的生成方法,其特征在于,所述机器人生活时间轴的参数的生成方法包括:将机器人的自我认知进行扩展;获取生活时间轴的参数;对机器人的自我认知的参数与生活时间轴中的参数进行拟合,生成机器人生活时间轴。
- 根据权利要求4所述的生成方法,其特征在于,所述将机器人的自我认知进行扩展的步骤具体包括:将生活场景与机器人的自我认识相结合形成基于生活时间轴的自我认知曲线。
- 根据权利要求4所述的生成方法,其特征在于,所述对机器人的自我认知的参数与生活时间轴中的参数进行拟合的步骤具体包括:使用概率算法,计算生活时间轴上的机器人在时间轴场景参数改变后的每个参数改变的概率,形成拟合曲线。
- 根据权利要求4所述的生成方法,其特征在于,其中,所述生活时间轴指包含一天24小时的时间轴,所述生活时间轴中的参数至少包括用户在所述生活时间轴上进行的日常生活行为以及代表该行为的参数值。
- 一种机器人交互内容的生成系统,其特征在于,包括:表情视觉处理模块,用于获取用户的表情信息;文本分析模块,用于获取用户的文本情感信息;意图识别模块,用于根据表情信息和文本情感信息确定用户意图;内容生成模块,用于根据所述表情信息、文本情感信息和所述用户意 图,结合当前的机器人生活时间轴生成机器人交互内容。
- 根据权利要求8所述的生成系统,其特征在于,所述表情视觉处理模块具体用于:通过视频信息采集表情信息。
- 根据权利要求8所述的生成系统,其特征在于,所述文本分析模块具体用于:通过语音信息采集文本情感信息。
- 根据权利要求8所述的生成系统,其特征在于,所述系统包括人工智能云处理模块,用于:将机器人的自我认知进行扩展;获取生活时间轴的参数;对机器人的自我认知的参数与生活时间轴中的参数进行拟合,生成机器人生活时间轴。
- 根据权利要求11所述的生成系统,其特征在于,所述人工智能云处理模块进一步用于:将生活场景与机器人的自我认识相结合形成基于生活时间轴的自我认知曲线。
- 根据权利要求11所述的生成系统,其特征在于,所述人工智能云处理模块进一步用于:使用概率算法,计算生活时间轴上的机器人在时间轴场景参数改变后的每个参数改变的概率,形成拟合曲线。
- 根据权利要求11所述的生成系统,其特征在于,其中,所述生活时间轴指包含一天24小时的时间轴,所述生活时间轴中的参数至少包括用户在所述生活时间轴上进行的日常生活行为以及代表该行为的参数值。
- 一种机器人,其特征在于,包括如权利要求8至14任一所述的一种机器人交互内容的生成系统。
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/CN2016/087738 WO2018000259A1 (zh) | 2016-06-29 | 2016-06-29 | 一种机器人交互内容的生成方法、系统及机器人 |
| CN201680001753.1A CN106537294A (zh) | 2016-06-29 | 2016-06-29 | 一种机器人交互内容的生成方法、系统及机器人 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/CN2016/087738 WO2018000259A1 (zh) | 2016-06-29 | 2016-06-29 | 一种机器人交互内容的生成方法、系统及机器人 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2018000259A1 true WO2018000259A1 (zh) | 2018-01-04 |
Family
ID=58335804
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/CN2016/087738 Ceased WO2018000259A1 (zh) | 2016-06-29 | 2016-06-29 | 一种机器人交互内容的生成方法、系统及机器人 |
Country Status (2)
| Country | Link |
|---|---|
| CN (1) | CN106537294A (zh) |
| WO (1) | WO2018000259A1 (zh) |
Families Citing this family (13)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN107992935A (zh) * | 2017-12-14 | 2018-05-04 | 深圳狗尾草智能科技有限公司 | 为机器人设置生活周期的方法、设备及介质 |
| CN108334583B (zh) * | 2018-01-26 | 2021-07-09 | 上海智臻智能网络科技股份有限公司 | 情感交互方法及装置、计算机可读存储介质、计算机设备 |
| CN110085221A (zh) * | 2018-01-26 | 2019-08-02 | 上海智臻智能网络科技股份有限公司 | 语音情感交互方法、计算机设备和计算机可读存储介质 |
| CN108326855A (zh) * | 2018-01-26 | 2018-07-27 | 上海器魂智能科技有限公司 | 一种机器人的交互方法、装置、设备以及存储介质 |
| CN110110169A (zh) * | 2018-01-26 | 2019-08-09 | 上海智臻智能网络科技股份有限公司 | 人机交互方法及人机交互装置 |
| CN111459290B (zh) * | 2018-01-26 | 2023-09-19 | 上海智臻智能网络科技股份有限公司 | 交互意图确定方法及装置、计算机设备及存储介质 |
| CN108197115B (zh) * | 2018-01-26 | 2022-04-22 | 上海智臻智能网络科技股份有限公司 | 智能交互方法、装置、计算机设备和计算机可读存储介质 |
| US11226673B2 (en) | 2018-01-26 | 2022-01-18 | Institute Of Software Chinese Academy Of Sciences | Affective interaction systems, devices, and methods based on affective computing user interface |
| CN110309254A (zh) * | 2018-03-01 | 2019-10-08 | 富泰华工业(深圳)有限公司 | 智能机器人与人机交互方法 |
| CN108363492B (zh) * | 2018-03-09 | 2021-06-25 | 南京阿凡达机器人科技有限公司 | 一种人机交互方法及交互机器人 |
| CN109119077A (zh) * | 2018-08-20 | 2019-01-01 | 深圳市三宝创新智能有限公司 | 一种机器人语音交互系统 |
| CN110209792B (zh) * | 2019-06-13 | 2021-07-06 | 思必驰科技股份有限公司 | 对话彩蛋生成方法及系统 |
| CN113190661B (zh) * | 2021-02-04 | 2023-05-26 | 上海幻引信息技术服务有限公司 | 一种具有自我认知能力的智能对话机器人系统和方法 |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN104985599A (zh) * | 2015-07-20 | 2015-10-21 | 百度在线网络技术(北京)有限公司 | 基于人工智能的智能机器人控制方法、系统及智能机器人 |
| CN105082150A (zh) * | 2015-08-25 | 2015-11-25 | 国家康复辅具研究中心 | 一种基于用户情绪及意图识别的机器人人机交互方法 |
| CN105345818A (zh) * | 2015-11-04 | 2016-02-24 | 深圳好未来智能科技有限公司 | 带有情绪及表情模块的3d视频互动机器人 |
| CN105409197A (zh) * | 2013-03-15 | 2016-03-16 | 趣普科技公司 | 用于提供持久伙伴装置的设备和方法 |
| CN105487663A (zh) * | 2015-11-30 | 2016-04-13 | 北京光年无限科技有限公司 | 一种面向智能机器人的意图识别方法和系统 |
Family Cites Families (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP3676969B2 (ja) * | 2000-09-13 | 2005-07-27 | 株式会社エイ・ジー・アイ | 感情検出方法及び感情検出装置ならびに記録媒体 |
| CN100583007C (zh) * | 2006-12-21 | 2010-01-20 | 财团法人工业技术研究院 | 具有表面显示信息与互动功能的可动装置 |
| CN101474481B (zh) * | 2009-01-12 | 2010-07-21 | 北京科技大学 | 情感机器人系统 |
| CN105798922B (zh) * | 2016-05-12 | 2018-02-27 | 中国科学院深圳先进技术研究院 | 一种家庭服务机器人 |
-
2016
- 2016-06-29 CN CN201680001753.1A patent/CN106537294A/zh active Pending
- 2016-06-29 WO PCT/CN2016/087738 patent/WO2018000259A1/zh not_active Ceased
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN105409197A (zh) * | 2013-03-15 | 2016-03-16 | 趣普科技公司 | 用于提供持久伙伴装置的设备和方法 |
| CN104985599A (zh) * | 2015-07-20 | 2015-10-21 | 百度在线网络技术(北京)有限公司 | 基于人工智能的智能机器人控制方法、系统及智能机器人 |
| CN105082150A (zh) * | 2015-08-25 | 2015-11-25 | 国家康复辅具研究中心 | 一种基于用户情绪及意图识别的机器人人机交互方法 |
| CN105345818A (zh) * | 2015-11-04 | 2016-02-24 | 深圳好未来智能科技有限公司 | 带有情绪及表情模块的3d视频互动机器人 |
| CN105487663A (zh) * | 2015-11-30 | 2016-04-13 | 北京光年无限科技有限公司 | 一种面向智能机器人的意图识别方法和系统 |
Also Published As
| Publication number | Publication date |
|---|---|
| CN106537294A (zh) | 2017-03-22 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| WO2018000259A1 (zh) | 一种机器人交互内容的生成方法、系统及机器人 | |
| CN106956271B (zh) | 预测情感状态的方法和机器人 | |
| WO2018000268A1 (zh) | 一种机器人交互内容的生成方法、系统及机器人 | |
| JP6753707B2 (ja) | コミュニケーションを支援する人工知能システム | |
| WO2019144542A1 (en) | Affective interaction systems, devices, and methods based on affective computing user interface | |
| CN107870994A (zh) | 用于智能机器人的人机交互方法及系统 | |
| CN107797663A (zh) | 基于虚拟人的多模态交互处理方法及系统 | |
| WO2018000267A1 (zh) | 一种机器人交互内容的生成方法、系统及机器人 | |
| CN108334583A (zh) | 情感交互方法及装置、计算机可读存储介质、计算机设备 | |
| CN105843381A (zh) | 用于实现多模态交互的数据处理方法及多模态交互系统 | |
| WO2018006371A1 (zh) | 一种同步语音及虚拟动作的方法、系统及机器人 | |
| KR20200141863A (ko) | 개인기록물 데이터 기반 인공지능 대화 서비스 제공 시스템 | |
| WO2018006374A1 (zh) | 一种基于主动唤醒的功能推荐方法、系统及机器人 | |
| CN109176535A (zh) | 基于智能机器人的交互方法及系统 | |
| WO2021217282A1 (zh) | 一种实现通用人工智能的方法 | |
| WO2018006370A1 (zh) | 一种虚拟3d机器人的交互方法、系统及机器人 | |
| US20250133038A1 (en) | Context-aware dialogue system | |
| WO2018006369A1 (zh) | 一种同步语音及虚拟动作的方法、系统及机器人 | |
| KR20230103665A (ko) | 텍스트 기반 아바타 생성 기능을 제공하는 메타버스 공간 장치, 방법, 및 프로그램 | |
| JP2019087155A (ja) | 支援装置、システム、及びプログラム | |
| WO2018000258A1 (zh) | 一种机器人交互内容的生成方法、系统及机器人 | |
| WO2018000260A1 (zh) | 一种机器人交互内容的生成方法、系统及机器人 | |
| WO2018000261A1 (zh) | 一种机器人交互内容的生成方法、系统及机器人 | |
| WO2018000266A1 (zh) | 一种机器人交互内容的生成方法、系统及机器人 | |
| TW202223804A (zh) | 電子資源推送方法及系統 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 16906660 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 16906660 Country of ref document: EP Kind code of ref document: A1 |