CN113934828A - 模型训练方法、装置、设备和存储介质 - Google Patents
模型训练方法、装置、设备和存储介质 Download PDFInfo
- Publication number
- CN113934828A CN113934828A CN202111146550.0A CN202111146550A CN113934828A CN 113934828 A CN113934828 A CN 113934828A CN 202111146550 A CN202111146550 A CN 202111146550A CN 113934828 A CN113934828 A CN 113934828A
- Authority
- CN
- China
- Prior art keywords
- question
- model
- class
- pairs
- paraphrase
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/36—Creation of semantic tools, e.g. ontology or thesauri
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computational Linguistics (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Human Computer Interaction (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明实施例提供一种模型训练方法、装置、设备和存储介质,该方法包括:获取用户输入的多个参考问题;基于多个参考问题和复述模型,生成多组一类问题对,其中,每组一类问题对包括一个参考问题和将一个参考问题输入到复述模型中得到的复述问题;若一类问题对的数量大于或者等于第一预设阈值,则根据多组一类问题对,对问题匹配模型进行训练,其中,问题匹配模型用于确定每组一类问题对中的参考问题和复述问题的语义相关度。采用本发明,用户可以仅输入参考问题,和参考问题语义相关的复述问题可以由复述模型生成。在减少人工参与的条件下获得大量的语料,通过大量的语料进行模型训练使得模型的性能能够大大得到改善,模型训练的效率得到提升。
Description
技术领域
本发明涉及人工智能技术领域,尤其涉及一种模型训练方法、装置、设备和存储介质。
背景技术
相关技术中,可以通过问题匹配模型确定两个输入的问题之间的语义相关度,当语义相关度高于预设阈值时,两个输入的问题的语义是相同或者相近的,当语义相关度低于预设阈值时,两个输入的问题的语义是不同或者不相近的。在训练问题匹配模型的过程中,需要人工编写参考问题和与其具有语义相关关系的关联问题,然后将参考问题和关联问题作为一组样本对问题匹配模型进行训练。为了提高问题匹配模型的性能,就需要人工编写大量的样本,需要大量的人工投入,导致模型训练效率极低。
发明内容
本发明实施例提供一种模型训练方法、装置、设备和存储介质,用以实现提高模型训练效率。
第一方面,本发明实施例提供一种模型训练方法,该方法包括:
获取用户输入的多个参考问题;
基于所述多个参考问题和复述模型,生成多组一类问题对,其中,每组一类问题对包括一个参考问题和将所述一个参考问题输入到所述复述模型中得到的复述问题,所述复述模型用于转换输入的参考问题的描述方式,以生成与所述输入的参考问题语义相关的复述问题;
若所述一类问题对的数量大于或者等于第一预设阈值,则根据所述多组一类问题对,对问题匹配模型进行训练,其中,所述问题匹配模型用于确定每组一类问题对中的参考问题和复述问题的语义相关度。
第二方面,本发明实施例提供一种模型训练装置,包括:
获取模块,用于获取用户输入的多个参考问题;
生成模块,用于基于所述多个参考问题和复述模型,生成多组一类问题对,其中,每组一类问题对包括一个参考问题和将所述一个参考问题输入到所述复述模型中得到的复述问题,所述复述模型用于转换输入的参考问题的描述方式,以生成与所述输入的参考问题语义相关的复述问题;
训练模块,用于若所述一类问题对的数量大于或者等于第一预设阈值,则根据所述多组一类问题对,对问题匹配模型进行训练,其中,所述问题匹配模型用于确定每组一类问题对中的参考问题和复述问题的语义相关度。
第三方面,本发明实施例提供一种电子设备,其中包括处理器和存储器,其中,所述存储器上存储有可执行代码,当所述可执行代码被所述处理器执行时,使所述处理器至少可以实现第一方面中的模型训练方法。
第四方面,本发明实施例提供了一种非暂时性机器可读存储介质,所述非暂时性机器可读存储介质上存储有可执行代码,当所述可执行代码被电子设备的处理器执行时,使所述处理器至少可以实现第一方面中的模型训练方法。
采用本发明实施例提供的方法,用户可以仅输入参考问题,和参考问题语义相关的复述问题可以由复述模型生成。如果复述模型的使用和训练的时间较长,则通过复述模型生成得到的一类问题对的数量大于或者等于第一预设阈值,进而可以直接默认复述模型生成的复述问题与参考问题语义相关。因此,在不需要对复述模型的输出结果进行标注的情况下,可以将参考问题和复述模型输出的复述问题组成一类问题对,然后通过一类问题对对问题匹配模型进行训练。采用这样的方式,可以在减少人工参与的条件下获得大量的语料,通过大量的语料进行模型训练使得模型的性能能够大大得到改善,模型训练的效率得到提升。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种模型训练方法的流程图示意图;
图2为本发明实施例提供的一种问题匹配模型使用示意图;
图3为本发明实施例提供的一种基于表示的网络架构的结构示意图;
图4为本发明实施例提供的一种基于交互的网络架构的结构示意图;
图5为本发明实施例提供的另一种基于交互的网络架构的结构示意图;
图6为本发明实施例提供的一种复述模型使用示意图;
图7为本发明实施例提供的一种人机对话的流程图示意图;
图8为本发明实施例提供的一种模型训练方法的流程图示意图;
图9为本发明实施例提供的另一种模型训练方法的流程图示意图;
图10为本发明实施例提供的一种模型训练装置的结构示意图;
图11为本发明实施例提供的一种电子设备的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在本发明实施例中使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本发明。在本发明实施例和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义,“多种”一般包含至少两种。
取决于语境,如在此所使用的词语“如果”、“若”可以被解释成为“在……时”或“当……时”或“响应于确定”或“响应于检测”。类似地,取决于语境,短语“如果确定”或“如果检测(陈述的条件或事件)”可以被解释成为“当确定时”或“响应于确定”或“当检测(陈述的条件或事件)时”或“响应于检测(陈述的条件或事件)”。
另外,下述各方法实施例中的步骤时序仅为一种举例,而非严格限定。
本发明实施例提供一种模型训练的方法,该方法可以应用于电子设备,该电子设备具体可以是人工智能设备。训练后的模型可以在商用服务机器人、扫地机器人、洗地机、厨房机器人、智能音箱、智能手机等具有语音识别、控制功能、能够进行语音交互的设备中使用。
图1为本发明实施例提供的一种模型训练方法的流程图,如图1所示,该方法包括如下步骤:
101、获取用户输入的多个参考问题。
102、基于多个参考问题和复述模型,生成多组一类问题对,其中,每组一类问题对包括一个参考问题和将一个参考问题输入到复述模型中得到的复述问题,复述模型用于转换输入的参考问题的描述方式,以生成与输入的参考问题语义相关的复述问题。
103、若一类问题对的数量大于或者等于第一预设阈值,则根据多组一类问题对,对问题匹配模型进行训练,其中,问题匹配模型用于确定每组一类问题对中的参考问题和复述问题的语义相关度。
问题匹配模型可以用于确定每组一类问题对中的参考问题和复述问题的语义相关度,如图2所示,当给定参考问题和复述问题时,问题匹配模型可以输出它们的语义相关度,然后可以基于语义相关度判断参考问题和复述问题是否语义相关。
实际应用中,可以通过在相似度数据集上迁移学习来实现问题匹配模型的训练,问题匹配模型的网络架构可以包括基于表示的网络和基于交互的网络。
基于表示的网络也可称为孪生网络,通过基于表示的网络可以先分别对参考问题和复述问题进行编码,以获得参考问题对应的向量和复述问题对应的向量,然后通过相似度函数计算两向量之间的距离,进而得到参考问题和复述问题的语义相关度。图3示出了基于表示的网络架构的一种示例。
采用基于交互的网络可以通过注意力机制为代表的结构来对参考问题和复述问题进行不同粒度(词级、短语级等)的交互,然后将各个粒度的匹配结果通过预设的结构进行聚合,将聚合结果作为一个超级特征向量,进而基于该超级特征向量得到参考问题和复述问题的语义相关度。图4和图5分别示出了基于交互的网络架构的一种示例。
为了提高问题匹配模型的性能,可以通过大量的语料对问题匹配模型进行训练,以使得问题匹配模型的性能不断优化。因此,提高问题匹配模型的性能的关键是找到大量的语料。其中,语料包括两个问题组成的一类问题对,一类问题对中的两个问题的语义要求是相关的,即它们表达的语义是相同或者相近的,但是它们的描述方式是有所区别、不完全一致的。
为了获得大量的语料,如果通过人工的方式进行编写,则编写的难度较高,尤其是采用不同方式描述同一或者相近的语义的工作,进而人工编写语料的代价高且效率低。
为了解决这一问题,在本发明实施例中,用户可以仅输入参考问题,和参考问题语义相关的复述问题可以由复述模型生成,参考问题和与该参考问题语义相关的复述问题即可组成一组一类问题对,然后通过一类问题对对问题匹配模型进行训练。
如图6所示,可以将参考问题输入到复述模型中,得到对应的复述问题。通过复述模型可以将参考问题改写成复述问题,复述问题采用与参考问题略有差异的表述方式来表述与参考问题相近的意思。通过复述问题可以使得模型训练的样本数据增强,文本泛化,从而增加特定场景的语料规模,提高模型泛化的能力。在训练样本充足的情况下,复述模型生成的复述问题较于传统的采用替换、交换的复述方法,句式变化更为灵活多样,能满足的需求更加广泛。
需要说明的是,在本发明实施例中,每获取一组一类问题对时,可以实时使用该一类问题对对问题匹配模型进行训练,随着一类问题对的增多,问题匹配模型的性能逐渐变优。
具体来说,可以先获取用户输入的一个参考问题,基于该参考问题和复述模型生成复述问题,将该参考问题和该复述问题组合得到一个一类问题对,在使用该一类问题对对问题匹配模型进行训练之前,可以判断已经生成过的一类问题对的数量。如果生成过的一类问题对的数量小于第一预设阈值,则表示复述模型的训练和使用时间还不长,复述模型的性能可能还不能得到确切的保障。基于此,当生成过的一类问题对的数量小于第一预设阈值时,可选地,可以获取多组一类问题对分别对应的第一标注信息,其中,第一标注信息用于指示各一类问题对中的参考问题和复述问题是否语义相关;根据多组问题和分别对应的第一标注信息,对问题匹配模型进行训练。
可以理解的是,可以通过人工的方式对基于参考问题生成的复述问题进行标注,以标注参考问题是否真的与复述问题语义相关。如果第一标注信息指示某个一类问题对中的参考问题和复述问题是语义相关的,则可以将该一类问题对作为正样本对问题匹配模型进行训练。相应地,如果第一标注信息指示某个一类问题对中的参考问题和复述问题不是语义相关的,则可以将该一类问题对作为负样本对问题匹配模型进行训练。
值得注意的是,采用上述方式获得的负样本的质量较高。对比于通过随机采样的方式采集的负样本,随机采样得到的负样本中的两个问题从字面上看可能相差较大,而采用本发明实施例得到的负样本,该负样本是通过复述模型生成的,即使人工判断参考问题和复述问题语义不相关,但是从字面上看参考问题和复述问题比较相似,容易造成干扰,因此使用这样的负样本进行训练,训练的意义是较高的。
随着时间的推移,复述模型的训练和使用增多,通过复述模型生成的一类问题对的数量增多,复述模型的性能得到改善,复述模型的可靠性增强。因此,当一类问题对的数量大于或者等于第一预设阈值时,可以不使用第一标注信息直接根据多组一类问题对,对问题匹配模型进行训练。
可以理解的是,当复述模型的训练和使用增多时,可以默认复述模型生成的复述问题就是与输入的参考问题语义相关的,因此也无需再通过人工的方式对复述模型的输出结果进行标注,进一步减少人为参与、减轻人力成本。
除了上述通过复述模型生成的复述问题对问题匹配模型进行训练之外,还可以基于复述模型生成的复述问题补充问答知识库。其中,问答知识库中存储有大量的问答组合信息,每个问答组合信息包括一个参考问题、与参考问题对应的至少一个复述问题以及与参考问题对应的回复信息。
可选地,上述补充问答知识库的过程可以实现为:确定第一标注信息指示参考问题和复述问题语义相关的目标一类问题对;获取用户输入的目标一类问题对对应的回复信息;将目标一类问题对和各自对应的回复信息关联存储于问答数据库中。
上面介绍了训练问题匹配模型和构建问答数据库的内容,实际应用中,可以基于问题匹配模型和问答数据库搭建对话系统,通过对话系统实现人机对话功能。当用户在对话系统中输入某个待查询问题之后,对话系统可以输出对应的回复信息。
如图7所示,上述人机对话的过程可以实现为:
701、获取用户输入的待查询问题。
702、在问答数据库中检索与待查询问题相匹配的多个候选问题。
703、将多个候选问题分别和待查询问题输入到问题匹配模型中,得到各候选问题分别与待查询问题的语义相关度。
704、在多个候选问题中,确定与待查询问题的语义相关度最高的目标问题。
705、在问答数据库中,确定目标问题对应的目标回复信息。
706、输出目标回复信息。
可选地,上述在问答数据库中检索与待查询问题相匹配的多个候选问题的过程可以实现为:将待查询问题输入到语言模型中,通过语言模型将待查询问题映射为第一语义向量;预先将问答数据库中的各问题输入到语言模型中,通过语言模型将问答数据库中的各问题映射为各自对应的第二语义向量;计算第一语义向量分别和第二语义向量对应的距离;按照距离由小到大的顺序对第二语义向量进行排序;选取排序在前的预设数量的第二语义向量;确定预设数量的第二语义向量对应的候选问题。
由上面介绍的内容可知,当用户输入了待查询问题之后,经过对话系统的处理,可以输出与待查询问题相关度最高的目标问题,可以认为该目标问题是待查询问题的复述内容,因此还可以将待查询问题和目标问题组合成二类问题对,基于二类问题对对复述模型进行优化训练。
类似于对问题匹配模型训练的思想,可以判断二类问题对的数量,当二类问题对的数量小于第二预设阈值时,表示问题匹配模型的训练和使用时间还不长,问题匹配模型的性能可能还不能得到确切的保障。基于此,当多组二类问题对的数量小于第二预设阈值时,可以获取多组二类问题对分别对应的第二标注信息,其中,第二标注信息用于指示各二类问题对中的目标问题和待查询问题是否语义相关;确定第二标注信息指示目标问题和待查询问题语义相关的目标二类问题对;根据目标二类问题对,对复述模型进行优化训练。
可以理解的是,可以通过人工的方式对基于问题匹配模型匹配到的目标问题进行标注,以标注目标问题是否真的与待查询问题语义相关。如果第二标注信息指示某个二类问题对中的目标问题和待查询问题是语义相关的,则可以将该二类问题对作为训练样本对复述模型进行训练。需要说明的是,可以仅采用正样本对复述模型进行训练。
随着时间的推移,问题匹配模型的训练和使用增多,通过问题匹配模型生成的二类问题对的数量增多,问题匹配模型的性能得到改善,问题匹配模型的可靠性增强。因此,当多组二类问题对的数量大于或者等于第二预设阈值时,可以不使用第二标注信息直接根据多组二类问题对,对复述模型进行优化训练。
为了便于理解,下面结合图8所示的示例说明本发明实施例的整体训练过程。首先,可以输入待查询问题,基于待查询问题在问答数据库中检索多个候选问题。接着,可以将多个候选问题分别和待查询问题输入到问题匹配模型中,基于问题匹配模型的输出结果,确定多个候选问题中与待查询问题最匹配的目标问题。在问答数据库中检索目标问题对应的目标回复信息,输出目标回复信息。还可以通过人工标注的方式检验问题匹配模型输出的目标问题是否与待查询问题语义相关,根据检验结果得到标注1。将与待查询问题语义相关的目标问题和待查询问题一起作为复述模型的训练样本。复述模型可以根据用户输入的参考问题生成复述问题,通过人工标注的方式检验复述问题是否与参考问题语义相关,根据检验结果得到标注2。将正确的结果补充到问答数据库中。根据标注2、参考问题、复述模型生成的复述问题,对问题匹配模型进行训练。
通过图8展示的流程可以看出,复述模型和问题匹配模型输出的结果可以相互作为训练样本对对方进行训练,而随着时间的推移,当积累足够多的语料将模型训练的较为可靠时,如图9所示,可以省掉人工标注的步骤,而实现自动对复述模型和问题匹配模型进行训练。
为了便于理解,结合如下的应用场景对以上提供的模型训练方法的具体实现进行示例性说明。
商用服务机器人通常可以是放置于公共服务场景中的服务机器人,比如可以是放置于商场一楼大厅的引领机器人,用户1可以与引领机器人进行闲聊,则在实际的人机交互过程中可能出现以下对话:
用户1:你今年几岁?
引领机器人:我18啦。
根据用户1输入的“你今年几岁”,引领机器人可以通过问题匹配模型匹配与“你今年几岁”语义相关的目标问题,然后查找目标问题对应的回复信息如“我18啦”。为了使得引领机器人能够根据用户输入的问题进行正确的回答,需要提高模型的准确度。
为了提高模型的准确度,在训练过程中,可以将以“你今年几岁”作为参考问题,将“今年你几岁”输入到复述模型中,得到复述问题“几岁了你”。假如当前是模型训练的初步阶段,可以对复述问题进行人工标注,人工标注的结果为“你今年几岁”与“几岁了你”语义相关。进而,可以将“你今年几岁”与“几岁了你”作为正样本对问题匹配模型进行训练。在本实施例中,还可以将“你今年几岁”输入到问题匹配模型中,通过问题匹配模型输出与“你今年几岁”匹配的目标问题“你多大了”,可以将“你多大了”作为“你今年几岁”的复述信息,用“你多大了”和“你今年几岁”作为样本训练复述模型。同时,还可以获取“你今年几岁”对应的回复信息,如“我18啦”,将“你今年几岁”、“几岁了你”、“你多大了”以及“我18啦”关联存储到问答数据库中。这样问答数据库存在这样一条信息:
你今年几岁-几岁了你-你多大了-我18啦
这样,当用户1问引领机器人“你今年几岁”,引领机器人根据问答数据库中存储的数据,可以输出“我18啦”这样的回复信息。
需要说明的是,随着模型得到优化训练,模型的可靠性增加,可以省掉上述人工标注的步骤,直接将“你今年几岁”与“几岁了你”作为正样本对问题匹配模型进行训练。
又比如,商用服务机器人可以是放置于银行大厅的服务机器人,用户1可以与服务机器人产生以下对话:
用户1:A款理财产品怎么购买?
服务机器人:亲,可以在手机应用商城下载我行APP,通过我行APP的个人理财页面购买。
根据用户1输入的“A款理财产品怎么购买”,服务机器人可以通过问题匹配模型匹配与“A款理财产品怎么购买”语义相关的目标问题,然后查找目标问题对应的回复信息如“亲,可以在手机应用商城下载我行APP,通过我行APP的个人理财页面购买”。为了使得服务机器人能够根据用户输入的问题进行正确的回答,需要提高模型的准确度。
在上述过程中,用户1输入了待查询问题“A款理财产品怎么购买”,可以在问答数据库中检索与“A款理财产品怎么购买”匹配的候选问题,检索到的候选问题包括“A款理财产品怎么样”、“购买A款理财产品起步需要多少钱”、“如何购买A款理财产品”等。随后,可以将“A款理财产品怎么购买”和“A款理财产品怎么样”输入到问题匹配模型中,得到语义相关度0.2;可以将“A款理财产品怎么购买”和“购买A款理财产品起步需要多少钱”输入到问题匹配模型中,得到语义相关度0.3;可以将“A款理财产品怎么购买”和“如何购买A款理财产品”输入到问题匹配模型中,得到语义相关度0.9。数值最大的为语义相关度0.9,那么根据问题匹配模型输出的结果,确定与待查询问题对应的目标问题为“如何购买A款理财产品”。
为了使得服务机器人能够根据用户输入的问题进行正确的回答,需要提高模型的准确度。在训练过程中,可以将以“A款理财产品怎么购买”作为参考问题,将“A款理财产品怎么购买”输入到复述模型中,得到复述问题“如何购买A款理财产品”。假如当前是模型训练的初步阶段,可以对复述问题进行人工标注,人工标注的结果为“A款理财产品怎么购买”与“如何购买A款理财产品”语义相关。进而,可以将“A款理财产品怎么购买”与“如何购买A款理财产品”作为正样本对问题匹配模型进行训练。
在本实施例中,还可以将“A款理财产品怎么购买”输入到问题匹配模型中,通过问题匹配模型输出与“A款理财产品怎么购买”匹配的目标问题“怎么才能买到A款理财产品”,可以将“怎么才能买到A款理财产品”作为“A款理财产品怎么购买”的复述信息,用“怎么才能买到A款理财产品”和“A款理财产品怎么购买”作为样本训练复述模型。
同时,还可以获取“如何购买A款理财产品”对应的回复信息,如“亲,可以在手机应用商城下载我行APP,通过我行APP的个人理财页面购买”,将“A款理财产品怎么购买”、“如何购买A款理财产品”、“怎么才能买到A款理财产品”以及“亲,可以在手机应用商城下载我行APP,通过我行APP的个人理财页面购买”关联存储到问答数据库中。这样问答数据库存在这样一条信息:
A款理财产品怎么购买-如何购买A款理财产品-怎么才能买到A款理财产品-亲,可以在手机应用商城下载我行APP,通过我行APP的个人理财页面购买
这样,当用户1问服务机器人“A款理财产品怎么购买”,服务机器人根据问答数据库中存储的数据,可以输出“亲,可以在手机应用商城下载我行APP,通过我行APP的个人理财页面购买”这样的回复信息。
采用本发明实施例提供的方法,用户可以仅输入参考问题,和参考问题语义相关的复述问题可以由复述模型生成。如果复述模型的使用和训练的时间较长,则通过复述模型生成得到的一类问题对的数量大于或者等于第一预设阈值,进而可以直接默认复述模型生成的复述问题与参考问题语义相关。因此,在不需要对复述模型的输出结果进行标注的情况下,可以将参考问题和复述模型输出的复述问题组成一类问题对,然后通过一类问题对对问题匹配模型进行训练。采用这样的方式,可以在减少人工参与的条件下获得大量的语料,通过大量的语料进行模型训练使得模型的性能能够大大得到改善,模型训练的效率得到提升。
以下将详细描述本发明的一个或多个实施例的模型训练装置。本领域技术人员可以理解,这些模型训练装置均可使用市售的硬件组件通过本方案所教导的步骤进行配置来构成。
图10为本发明实施例提供的一种模型训练装置的结构示意图,如图10所示,该装置包括:
获取模块101,用于获取用户输入的多个参考问题;
生成模块102,用于基于所述多个参考问题和复述模型,生成多组一类问题对,其中,每组一类问题对包括一个参考问题和将所述一个参考问题输入到所述复述模型中得到的复述问题,所述复述模型用于转换输入的参考问题的描述方式,以生成与所述输入的参考问题语义相关的复述问题;
训练模块103,用于若所述一类问题对的数量大于或者等于第一预设阈值,则根据所述多组一类问题对,对问题匹配模型进行训练,其中,所述问题匹配模型用于确定每组一类问题对中的参考问题和复述问题的语义相关度。
可选地,训练模块103,还用于:
若所述一类问题对的数量小于所述第一预设阈值,则获取所述多组一类问题对分别对应的第一标注信息,其中,所述第一标注信息用于指示各一类问题对中的参考问题和复述问题是否语义相关;
根据所述多组问题和分别对应的第一标注信息,对所述问题匹配模型进行训练。
可选地,所述装置还包括补充模块,所述补充模块,用于:
确定第一标注信息指示参考问题和复述问题语义相关的目标一类问题对;
获取用户输入的所述目标一类问题对对应的回复信息;
将所述目标一类问题对和各自对应的回复信息关联存储于问答数据库中。
可选地,所述装置还包括检索模块,所述检索模块,用于:
获取用户输入的待查询问题;
在所述问答数据库中检索与所述待查询问题相匹配的多个候选问题;
将所述多个候选问题分别和所述待查询问题输入到所述问题匹配模型中,得到各候选问题分别与所述待查询问题的语义相关度;
在所述多个候选问题中,确定与所述待查询问题的语义相关度最高的目标问题。
可选地,所述装置还包括输出模块,所述输出模块,用于:
在所述问答数据库中,确定所述目标问题对应的目标回复信息;
输出所述目标回复信息。
可选地,所述训练模块103,还用于:
确定所述待查询问题的数量;
将每个待查询问题和对应的目标问题确定为一组二类问题对,得到多组二类问题对;
若所述多组二类问题对的数量大于或者等于第二预设阈值,则根据所述多组二类问题对,对所述复述模型进行优化训练。
可选地,所述训练模块103,还用于:
若所述多组二类问题对的数量小于所述第二预设阈值,则获取所述多组二类问题对分别对应的第二标注信息,其中,所述第二标注信息用于指示各二类问题对中的目标问题和待查询问题是否语义相关;
确定第二标注信息指示目标问题和待查询问题语义相关的目标二类问题对;
根据所述目标二类问题对,对所述复述模型进行优化训练。
图10所示装置可以执行前述图1至图9所示实施例中提供的模型训练方法,详细的执行过程和技术效果参见前述实施例中的描述,在此不再赘述。
在一个可能的设计中,上述图10所示模型训练装置的结构可实现为一电子设备,如图11所示,该电子设备可以包括:处理器91、存储器92。其中,所述存储器92上存储有可执行代码,当所述可执行代码被所述处理器91执行时,使所述处理器91至少可以实现如前述图1至图9所示实施例中提供的模型训练方法。
可选地,该电子设备中还可以包括通信接口93,用于与其他设备进行通信。
另外,本发明实施例提供了一种非暂时性机器可读存储介质,所述非暂时性机器可读存储介质上存储有可执行代码,当所述可执行代码被电子设备的处理器执行时,使所述处理器至少可以实现如前述图1至图9所示实施例中提供的模型训练方法。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助加必需的通用硬件平台的方式来实现,当然也可以通过硬件和软件结合的方式来实现。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以计算机产品的形式体现出来,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明实施例提供的模型训练方法可以由某种程序/软件来执行,该程序/软件可以由网络侧提供,前述实施例中提及的电子设备可以将该程序/软件下载到本地的非易失性存储介质中,并在其需要执行前述模型训练方法时,通过CPU将该程序/软件读取到内存中,进而由CPU执行该程序/软件以实现前述实施例中所提供的模型训练方法,执行过程可以参见前述图1至图9中的示意。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (10)
1.一种模型训练方法,其特征在于,包括:
获取用户输入的多个参考问题;
基于所述多个参考问题和复述模型,生成多组一类问题对,其中,每组一类问题对包括一个参考问题和将所述一个参考问题输入到所述复述模型中得到的复述问题,所述复述模型用于转换输入的参考问题的描述方式,以生成与所述输入的参考问题语义相关的复述问题;
若所述一类问题对的数量大于或者等于第一预设阈值,则根据所述多组一类问题对,对问题匹配模型进行训练,其中,所述问题匹配模型用于确定每组一类问题对中的参考问题和复述问题的语义相关度。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
若所述一类问题对的数量小于所述第一预设阈值,则获取所述多组一类问题对分别对应的第一标注信息,其中,所述第一标注信息用于指示各一类问题对中的参考问题和复述问题是否语义相关;
根据所述多组问题和分别对应的第一标注信息,对所述问题匹配模型进行训练。
3.根据权利要求2所述的方法,其特征在于,所述方法还包括:
确定第一标注信息指示参考问题和复述问题语义相关的目标一类问题对;
获取用户输入的所述目标一类问题对对应的回复信息;
将所述目标一类问题对和各自对应的回复信息关联存储于问答数据库中。
4.根据权利要求3所述的方法,其特征在于,所述方法还包括:
获取用户输入的待查询问题;
在所述问答数据库中检索与所述待查询问题相匹配的多个候选问题;
将所述多个候选问题分别和所述待查询问题输入到所述问题匹配模型中,得到各候选问题分别与所述待查询问题的语义相关度;
在所述多个候选问题中,确定与所述待查询问题的语义相关度最高的目标问题。
5.根据权利要求4所述的方法,其特征在于,所述方法还包括:
在所述问答数据库中,确定所述目标问题对应的目标回复信息;
输出所述目标回复信息。
6.根据权利要求4所述的方法,其特征在于,所述方法还包括:
确定所述待查询问题的数量;
将每个待查询问题和对应的目标问题确定为一组二类问题对,得到多组二类问题对;
若所述多组二类问题对的数量大于或者等于第二预设阈值,则根据所述多组二类问题对,对所述复述模型进行优化训练。
7.根据权利要求6所述的方法,其特征在于,所述方法还包括:
若所述多组二类问题对的数量小于所述第二预设阈值,则获取所述多组二类问题对分别对应的第二标注信息,其中,所述第二标注信息用于指示各二类问题对中的目标问题和待查询问题是否语义相关;
确定第二标注信息指示目标问题和待查询问题语义相关的目标二类问题对;
根据所述目标二类问题对,对所述复述模型进行优化训练。
8.一种模型训练装置,其特征在于,包括:
获取模块,用于获取用户输入的多个参考问题;
生成模块,用于基于所述多个参考问题和复述模型,生成多组一类问题对,其中,每组一类问题对包括一个参考问题和将所述一个参考问题输入到所述复述模型中得到的复述问题,所述复述模型用于转换输入的参考问题的描述方式,以生成与所述输入的参考问题语义相关的复述问题;
训练模块,用于若所述一类问题对的数量大于或者等于第一预设阈值,则根据所述多组一类问题对,对问题匹配模型进行训练,其中,所述问题匹配模型用于确定每组一类问题对中的参考问题和复述问题的语义相关度。
9.一种电子设备,其特征在于,包括:存储器、处理器;其中,所述存储器上存储有可执行代码,当所述可执行代码被所述处理器执行时,使所述处理器执行如权利要求1-8中任一项所述的模型训练方法。
10.一种非暂时性机器可读存储介质,其特征在于,所述非暂时性机器可读存储介质上存储有可执行代码,当所述可执行代码被电子设备的处理器执行时,使所述处理器执行如权利要求1-8中任一项所述的模型训练方法。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202111146550.0A CN113934828A (zh) | 2021-09-28 | 2021-09-28 | 模型训练方法、装置、设备和存储介质 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202111146550.0A CN113934828A (zh) | 2021-09-28 | 2021-09-28 | 模型训练方法、装置、设备和存储介质 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| CN113934828A true CN113934828A (zh) | 2022-01-14 |
Family
ID=79277443
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN202111146550.0A Pending CN113934828A (zh) | 2021-09-28 | 2021-09-28 | 模型训练方法、装置、设备和存储介质 |
Country Status (1)
| Country | Link |
|---|---|
| CN (1) | CN113934828A (zh) |
Citations (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20090070311A1 (en) * | 2007-09-07 | 2009-03-12 | At&T Corp. | System and method using a discriminative learning approach for question answering |
| CN109710915A (zh) * | 2017-10-26 | 2019-05-03 | 华为技术有限公司 | 复述语句生成方法及装置 |
| CN109885664A (zh) * | 2019-01-08 | 2019-06-14 | 厦门快商通信息咨询有限公司 | 一种智能对话方法、机器人对话系统、服务器及存储介质 |
| US20190260694A1 (en) * | 2018-02-16 | 2019-08-22 | Mz Ip Holdings, Llc | System and method for chat community question answering |
| CN111198940A (zh) * | 2019-12-27 | 2020-05-26 | 北京百度网讯科技有限公司 | Faq方法、问答检索系统、电子设备和存储介质 |
| CN112989794A (zh) * | 2019-12-16 | 2021-06-18 | 科沃斯商用机器人有限公司 | 模型训练方法、装置、智能机器人和存储介质 |
| CN113342958A (zh) * | 2021-07-02 | 2021-09-03 | 马上消费金融股份有限公司 | 问答匹配方法、文本匹配模型的训练方法和相关设备 |
| CN113342842A (zh) * | 2021-06-10 | 2021-09-03 | 南方电网数字电网研究院有限公司 | 基于计量知识的语义查询方法、装置和计算机设备 |
-
2021
- 2021-09-28 CN CN202111146550.0A patent/CN113934828A/zh active Pending
Patent Citations (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20090070311A1 (en) * | 2007-09-07 | 2009-03-12 | At&T Corp. | System and method using a discriminative learning approach for question answering |
| CN109710915A (zh) * | 2017-10-26 | 2019-05-03 | 华为技术有限公司 | 复述语句生成方法及装置 |
| US20190260694A1 (en) * | 2018-02-16 | 2019-08-22 | Mz Ip Holdings, Llc | System and method for chat community question answering |
| CN109885664A (zh) * | 2019-01-08 | 2019-06-14 | 厦门快商通信息咨询有限公司 | 一种智能对话方法、机器人对话系统、服务器及存储介质 |
| CN112989794A (zh) * | 2019-12-16 | 2021-06-18 | 科沃斯商用机器人有限公司 | 模型训练方法、装置、智能机器人和存储介质 |
| CN111198940A (zh) * | 2019-12-27 | 2020-05-26 | 北京百度网讯科技有限公司 | Faq方法、问答检索系统、电子设备和存储介质 |
| CN113342842A (zh) * | 2021-06-10 | 2021-09-03 | 南方电网数字电网研究院有限公司 | 基于计量知识的语义查询方法、装置和计算机设备 |
| CN113342958A (zh) * | 2021-07-02 | 2021-09-03 | 马上消费金融股份有限公司 | 问答匹配方法、文本匹配模型的训练方法和相关设备 |
Non-Patent Citations (2)
| Title |
|---|
| 刘勤,吴忠生等著: "智能财务研究蓝皮书", vol. 2020, 30 November 2020, 立信会计出版社, pages: 97 * |
| 周永章,张良均,张奥多,王俊著: "地球科学大数据挖掘与机器学习", vol. 2018, 30 September 2018, 中山大学出版社, pages: 201 * |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN116719520B (zh) | 代码生成方法及装置 | |
| CN110096570B (zh) | 一种应用于智能客服机器人的意图识别方法及装置 | |
| CN109408526B (zh) | Sql语句生成方法、装置、计算机设备及存储介质 | |
| CN109033305B (zh) | 问题回答方法、设备及计算机可读存储介质 | |
| CN111062217B (zh) | 语言信息的处理方法、装置、存储介质及电子设备 | |
| CN112349294B (zh) | 语音处理方法及装置、计算机可读介质、电子设备 | |
| CN110276023B (zh) | Poi变迁事件发现方法、装置、计算设备和介质 | |
| CN111382573A (zh) | 用于答案质量评估的方法、装置、设备和存储介质 | |
| CN112185361B (zh) | 一种语音识别模型训练方法、装置、电子设备及存储介质 | |
| CN111177351B (zh) | 基于规则的自然语言表达意图获取方法、装置和系统 | |
| CN108536807B (zh) | 一种信息处理方法及装置 | |
| CN113380223B (zh) | 多音字消歧方法、装置、系统及存储介质 | |
| CN117648933B (zh) | 基于深度学习和知识库的自然语言歧义消解方法和系统 | |
| CN112581327A (zh) | 基于知识图谱的法律推荐方法、装置和电子设备 | |
| US12437150B2 (en) | System and method of performing data training on morpheme processing rules | |
| CN119322838B (zh) | 上下文答案生成方法、装置、计算机设备及存储介质 | |
| CN114036956A (zh) | 一种旅游知识语义分析方法及装置 | |
| CN109684357B (zh) | 信息处理方法及装置、存储介质、终端 | |
| US20250245445A1 (en) | Enhanced domain-specific language learning models | |
| CN117094335B (zh) | 政治等效框架下外交话语情感分析与智能翻译系统及方法 | |
| CN119150964A (zh) | 信息处理方法、装置、设备、存储介质及程序产品 | |
| CN117290782A (zh) | 检索模型训练方法、知识问答方法、装置、设备及介质 | |
| CN117708324A (zh) | 一种文本主题分类方法、装置、芯片及终端 | |
| CN113934828A (zh) | 模型训练方法、装置、设备和存储介质 | |
| CN114239555A (zh) | 一种关键词提取模型的训练方法及相关装置 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PB01 | Publication | ||
| PB01 | Publication | ||
| SE01 | Entry into force of request for substantive examination | ||
| SE01 | Entry into force of request for substantive examination | ||
| RJ01 | Rejection of invention patent application after publication | ||
| RJ01 | Rejection of invention patent application after publication |
Application publication date: 20220114 |