CN108492818B - 文本到语音的转换方法、装置和计算机设备 - Google Patents
文本到语音的转换方法、装置和计算机设备 Download PDFInfo
- Publication number
- CN108492818B CN108492818B CN201810241804.9A CN201810241804A CN108492818B CN 108492818 B CN108492818 B CN 108492818B CN 201810241804 A CN201810241804 A CN 201810241804A CN 108492818 B CN108492818 B CN 108492818B
- Authority
- CN
- China
- Prior art keywords
- text
- frame
- linear spectrum
- converted
- features
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 58
- 238000006243 chemical reaction Methods 0.000 title claims description 51
- 238000001228 spectrum Methods 0.000 claims abstract description 128
- 238000013507 mapping Methods 0.000 claims abstract description 64
- 238000003062 neural network model Methods 0.000 claims abstract description 38
- 238000012549 training Methods 0.000 claims description 40
- 230000006870 function Effects 0.000 claims description 22
- 238000013528 artificial neural network Methods 0.000 claims description 13
- 238000004590 computer program Methods 0.000 claims description 13
- 230000004913 activation Effects 0.000 claims description 12
- 230000009467 reduction Effects 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 11
- 238000012545 processing Methods 0.000 description 9
- 238000013527 convolutional neural network Methods 0.000 description 8
- 230000003287 optical effect Effects 0.000 description 8
- 230000015572 biosynthetic process Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000003786 synthesis reaction Methods 0.000 description 4
- 238000009432 framing Methods 0.000 description 3
- 239000013307 optical fiber Substances 0.000 description 3
- 230000000306 recurrent effect Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
- G10L13/10—Prosody rules derived from text; Stress or intonation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/04—Details of speech synthesis systems, e.g. synthesiser structure or memory management
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Signal Processing (AREA)
- Telephonic Communication Services (AREA)
- Machine Translation (AREA)
Abstract
本申请提出一种文本到语音的转换方法、装置和计算机设备,上述文本到语音的转换方法包括:获取待转换文本对应的帧;获取所述帧中当前帧对应音子的向量特征和文本韵律特征,以及获取所述当前帧的上一帧对应的线性谱的映射特征;将获取的向量特征、文本韵律特征和映射特征输入预先训练的神经网络模型,获得所述当前帧对应的线性谱;在获得所述待转换文本对应的帧的线性谱之后,根据所述待转换文本对应的帧的线性谱,获得所述待转换文本对应的语音。本申请可以实现直接根据待转换文本对应的帧的线性谱,获得待转换文本对应的语音,由于未引入近似误差,因此获得的语音的音质更佳,整体流畅度更好。
Description
技术领域
本申请涉及语音合成技术领域,尤其涉及一种文本到语音的转换方法、装置和计算机设备。
背景技术
TTS是从文本到语音(Text To Speech)的缩写,是人机对话的一部分,目的是让机器能够根据文本说话。音子是人类说话的最小发声单元,在中文中,音子就是每一个声母或韵母。为了能让机器能根据文本发出对应的声音,需要对每一个音子的声学模型进行建模。
现有相关技术中使用声码器进行建模,这种建模方法先将语音信号进行分帧处理,然后对每一帧的声学模型分成三块进行建模:(1)这一帧是否需要发声;(2)这一帧的基础频率;(3)这一帧相对于基础频率的冲击响应。但是这种方法由于使用了人类研究得出的先验知识进行了近似,因而有一定的信息损失,使得最终合成的声音效果机械感比较重,听感较差,无法和自然人声相比。
发明内容
本申请旨在至少在一定程度上解决相关技术中的技术问题之一。
为此,本申请的第一个目的在于提出一种文本到语音的转换方法,以实现直接根据待转换文本对应的帧的线性谱,获得待转换文本对应的语音,由于未引入近似误差,因此获得的语音的音质更佳,整体流畅度更好。
本申请的第二个目的在于提出一种文本到语音的转换装置。
本申请的第三个目的在于提出一种计算机设备。
本申请的第四个目的在于提出一种非临时性计算机可读存储介质。
为达上述目的,本申请第一方面实施例提出了一种文本到语音的转换方法,包括:获取待转换文本对应的帧;获取所述帧中当前帧对应音子的向量特征和文本韵律特征,以及获取所述当前帧的上一帧对应的线性谱的映射特征;将获取的向量特征、文本韵律特征和映射特征输入预先训练的神经网络模型,获得所述当前帧对应的线性谱;在获得所述待转换文本对应的帧的线性谱之后,根据所述待转换文本对应的帧的线性谱,获得所述待转换文本对应的语音。
本申请实施例的文本到语音的转换方法中,获取待转换文本对应的帧之后,获取上述帧中当前帧对应音子的向量特征和文本韵律特征,以及获取上述当前帧的上一帧对应的线性谱的映射特征,然后将获取的向量特征、文本韵律特征和映射特征输入预先训练的神经网络模型,获得上述当前帧对应的线性谱。在获得待转换文本对应的帧的线性谱之后,根据上述待转换文本对应的帧的线性谱,获得上述待转换文本对应的语音,从而可以实现直接根据待转换文本对应的帧的线性谱,获得待转换文本对应的语音,由于未引入近似误差,因此获得的语音的音质更佳,整体流畅度更好。
为达上述目的,本申请第二方面实施例提出了一种文本到语音的转换装置,包括:获取模块,用于获取待转换文本对应的帧;获取所述帧中当前帧对应音子的向量特征和文本韵律特征,以及获取所述当前帧的上一帧对应的线性谱的映射特征;输入模块,用于将所述获取模块获取的向量特征、文本韵律特征和映射特征输入预先训练的神经网络模型,获得所述当前帧对应的线性谱;转换模块,用于在获得所述待转换文本对应的帧的线性谱之后,根据所述待转换文本对应的帧的线性谱,获得所述待转换文本对应的语音。
本申请实施例的文本到语音的转换装置中,获取模块获取待转换文本对应的帧之后,获取上述帧中当前帧对应音子的向量特征和文本韵律特征,以及获取上述当前帧的上一帧对应的线性谱的映射特征,然后输入模块将获取的向量特征、文本韵律特征和映射特征输入预先训练的神经网络模型,获得上述当前帧对应的线性谱。在获得待转换文本对应的帧的线性谱之后,转换模块根据上述待转换文本对应的帧的线性谱,获得上述待转换文本对应的语音,从而可以实现直接根据待转换文本对应的帧的线性谱,获得待转换文本对应的语音,由于未引入近似误差,因此获得的语音的音质更佳,整体流畅度更好。
为达上述目的,本申请第三方面实施例提出一种计算机设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时,实现如上所述的方法。
为了实现上述目的,本申请第四方面实施例提出了一种非临时性计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如上所述的方法。
本申请附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本申请的实践了解到。
附图说明
本申请上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为本申请文本到语音的转换方法一个实施例的流程图;
图2为本申请文本到语音的转换方法中两层全连接层组成的神经网络的示意图;
图3为本申请文本到语音的转换方法另一个实施例的流程图;
图4为本申请文本到语音的转换方法再一个实施例的流程图;
图5为本申请文本到语音的转换方法中神经网络模型的结构示意图;
图6为本申请文本到语音的转换方法中卷积单元的结构示意图;
图7为本申请文本到语音的转换方法再一个实施例的流程图;
图8为本申请文本到语音的转换装置一个实施例的结构示意图;
图9为本申请计算机设备一个实施例的结构示意图。
具体实施方式
下面详细描述本申请的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本申请,而不能理解为对本申请的限制。
现有的文本到语音的转换方案中,并不是直接根据音频的频谱进行语音转换的,而是先从音频中抽出基频、谱包络等声学参数后,根据这些间接的声学特征进行语音转换。由于声音频谱的复杂性,为了简化语音转换的过程,不可避免地引入了大量的近似,最终导致最后合成的语音或多或少地存在着一定程度的失真。为了规避这一问题,本申请直接根据待转换文本对应的线性谱进行语音转换。
图1为本申请文本到语音的转换方法一个实施例的流程图,如图1所示,上述文本到语音的转换方法可以包括:
步骤101,获取待转换文本对应的帧。
具体地,获取待转换文本对应的帧可以为:获取待转换文本的每个音子对应的帧。
以待转换文本为“百度”为例,“百度”的音子包括:b、ai、d和u,因此获取待转换文本对应的帧可以为:分别获取“b”、“ai”、“d”和“u”对应的帧。
步骤102,获取上述帧中当前帧对应音子的向量特征和文本韵律特征,以及获取当前帧的上一帧对应的线性谱的映射特征。
其中,上述帧中当前帧对应音子的向量特征可以为当前帧对应的音子,如声母、韵母等音学基本单元的one-hot特征;上述帧中当前帧对应音子的文本韵律特征可以为当前频对应音子的补充特征,如当前频对应音子所在词的词性和/或所在词的词向量等。
仍以待转换文本为“百度”为例,假设“b”这个音子对应5个帧,那这5个帧对应的音子就都是“b”,对于这5个帧中的每个帧来说,当前帧对应的音子的向量特征和文本韵律特征,即为“b”这个音子对应的向量特征和文本韵律特征。
具体地,获取当前帧的上一帧对应的线性谱的映射特征可以为:将当前帧的上一帧对应的线性谱输入由两层全连接层组成的神经网络进行映射,获得上述当前帧的上一帧对应的线性谱的映射特征。
图2为本申请文本到语音的转换方法中两层全连接层组成的神经网络的示意图,在获得上一帧对应的线性谱之后,将上一帧对应的线性谱输入图2所示的神经网络进行映射,即可获得上一帧对应的线性谱的映射特征。
步骤103,将获取的向量特征、文本韵律特征和映射特征输入预先训练的神经网络模型,获得上述当前帧对应的线性谱。
具体地,在获得当前帧对应的线性谱之后,可以将当前帧对应的线性谱输入图2所示的神经网络,获得当前帧对应的线性谱的映射特征,然后与下一帧对应的音子的向量特征和文本韵律特征拼在一起,作为下一帧的输入特征。
步骤104,在获得上述待转换文本对应的帧的线性谱之后,根据上述待转换文本对应的帧的线性谱,获得上述待转换文本对应的语音。
具体地,在按照步骤102和步骤103描述的方法,获得上述待转换文本对应的所有帧的线性谱之后,即可根据上述待转换文本对应的帧的线性谱,获得上述待转换文本对应的语音。
上述文本到语音的转换方法中,获取待转换文本对应的帧之后,获取上述帧中当前帧对应音子的向量特征和文本韵律特征,以及获取上述当前帧的上一帧对应的线性谱的映射特征,然后将获取的向量特征、文本韵律特征和映射特征输入预先训练的神经网络模型,获得上述当前帧对应的线性谱。在获得待转换文本对应的帧的线性谱之后,根据上述待转换文本对应的帧的线性谱,获得上述待转换文本对应的语音,从而可以实现直接根据待转换文本对应的帧的线性谱,获得待转换文本对应的语音,由于未引入近似误差,因此获得的语音的音质更佳,整体流畅度更好。
图3为本申请文本到语音的转换方法另一个实施例的流程图,如图3所示,本申请图1所示实施例中,步骤104可以包括:
步骤301,从上述待转换文本对应的帧的线性谱中通过迭代获得上述待转换文本对应的语音的相位谱。
步骤302,根据上述待转换文本对应的语音的相位谱,通过反向短时傅里叶变换算法生成上述待转换文本对应的语音。
图4为本申请文本到语音的转换方法再一个实施例的流程图,如图4所示,本申请图1所示实施例中,步骤103可以包括:
步骤401,将获取的向量特征、文本韵律特征和映射特征经过一层全连接层进行降维后,输入由至少两个存在残差连接的卷积单元组成的网络中,经过一层全连接层进行升采样后,获得上述当前帧对应的线性谱。
也就是说,本实施例中,神经网络模型的结构可以如图5所示,图5为本申请文本到语音的转换方法中神经网络模型的结构示意图。图5所示的神经网络模型的输出特征即为当前帧对应的线性谱,即上述当前帧对应的音频的短时傅里叶变换后得到的频谱的幅度谱,上述神经网络模型先对上述当前帧对应的音频进行分帧处理,每25ms为一帧,帧与帧之间存在12.5ms的重叠。然后每一帧做傅里叶变换,取傅里叶变换的实数部分即为上述当前帧对应的线性谱。
其中,上述卷积单元包括两个一维卷积核,其中一个卷积核的输出通过激活函数规整到预定区间上;上述卷积单元的输出为一个卷积核规整到预定区间上的输出结果与另一个卷积核未通过激活函数的输出结果的对应元素的乘积。
上述激活函数可以为sigmoid激活函数,上述预定区间可以为(0,1)区间,上述卷积单元的结构可以如图6所示,图6为本申请文本到语音的转换方法中卷积单元的结构示意图。
本实施例使用了卷积神经网络模型代替了递归神经网络,这有助于提高网络的并行运行的效率,大大提高了语音的合成速度;另外,本实施例使用的卷积神经网络模型可以起到类似滤波器的作用,因而对信噪比较低的训练数据也有着良好的语音转换能力。
图7为本申请文本到语音的转换方法再一个实施例的流程图,如图7所示,本申请图1所示实施例中,步骤103之前,还可以包括:
步骤701,获取训练文本对应的帧。
步骤702,获取上述训练文本对应的帧中当前帧对应音子的向量特征和文本韵律特征,以及获取上述训练文本对应的语音中当前帧的上一帧语音对应的线性谱的映射特征。
步骤703,将获取的向量特征、文本韵律特征和映射特征输入待训练的神经网络模型,获得当前帧对应的线性谱。
步骤704,在获得上述训练文本对应的帧的线性谱之后,根据上述训练文本对应的帧的线性谱,获得上述训练文本对应的语音。
步骤705,当获得的上述训练文本对应的语音满足预定条件时,获得训练好的神经网络模型。
上述步骤701~步骤705对本申请实施例使用的神经网络模型的训练过程进行了说明。
从步骤702可以看出,在训练神经网络模型时,使用的上一帧的映射特征是上述训练文本对应的语音中当前帧的上一帧语音对应的线性谱的映射特征,而在实际使用神经网络模型时,使用的上一帧的映射特征是该神经网络模型输出的上一帧对应的线性谱的映射特征。
步骤705中,获得的上述训练文本对应的语音满足预定条件可以为:通过待训练的神经网络模型获得的上述训练文本对应的语音,与上述训练文本的真人语音相比,音质和整体流畅度的误差在预定范围内,当然,上述预定范围可以在具体实现时,根据系统性能和/或实现需求等自行设定,本实施例对上述预定范围的大小不作限定。
本申请实施例提供的文本到语音的转换方法直接使用了待转换文本对应的线性谱进行语音转换,比针对使用近似估计所得到的声学特征进行语音转换的方案得到的语音误差更小,因而获得的语音的音质更佳,整体流畅度更好;并且,本申请使用了卷积神经网络模型代替了递归神经网络,有助于提高网络的并行运行的效率,大大提高音频的合成速度;另外,本申请使用的卷积神经网络模型可以起到类似滤波器的作用,因而对信噪比较低的训练数据也有着良好的语音转换能力。
图8为本申请文本到语音的转换装置一个实施例的结构示意图,本申请实施例中的文本到语音的转换装置可以实现本申请实施例提供的文本到语音的转换方法。如图8所示,上述文本到语音的转换装置可以包括:获取模块81、输入模块82和转换模块83;
其中,获取模块81,用于获取待转换文本对应的帧;获取上述帧中当前帧对应音子的向量特征和文本韵律特征,以及获取上述当前帧的上一帧对应的线性谱的映射特征;具体地,获取待转换文本对应的帧可以为:获取待转换文本的每个音子对应的帧。
以待转换文本为“百度”为例,“百度”的音子包括:b、ai、d和u,因此获取待转换文本对应的帧可以为:分别获取“b”、“ai”、“d”和“u”对应的帧。
其中,上述帧中当前帧对应音子的向量特征可以为当前帧对应的音子,如声母、韵母等音学基本单元的one-hot特征;上述帧中当前帧对应音子的文本韵律特征可以为当前频对应音子的补充特征,如当前频对应音子所在词的词性和/或所在词的词向量等。
仍以待转换文本为“百度”为例,假设“b”这个音子对应5个帧,那这5个帧对应的音子就都是“b”,对于这5个帧中的每个帧来说,当前帧对应的音子的向量特征和文本韵律特征,即为“b”这个音子对应的向量特征和文本韵律特征。
具体地,获取模块81,具体用于将当前帧的上一帧对应的线性谱输入由两层全连接层组成的神经网络进行映射,获得上述当前帧的上一帧对应的线性谱的映射特征。
在获得上一帧对应的线性谱之后,获取模块81可以将上一帧对应的线性谱输入图2所示的神经网络进行映射,即可获得上一帧对应的线性谱的映射特征。
输入模块82,用于将获取模块81获取的向量特征、文本韵律特征和映射特征输入预先训练的神经网络模型,获得当前帧对应的线性谱。
本实施例中,在输入模块82获得当前帧对应的线性谱之后,获取模块81可以将当前帧对应的线性谱输入图2所示的神经网络,获得当前帧对应的线性谱的映射特征,然后与下一帧对应的音子的向量特征和文本韵律特征拼在一起,作为下一帧的输入特征。
转换模块83,用于在获得上述待转换文本对应的帧的线性谱之后,根据上述待转换文本对应的帧的线性谱,获得上述待转换文本对应的语音。
具体地,在获得上述待转换文本对应的所有帧的线性谱之后,转换模块83即可根据上述待转换文本对应的帧的线性谱,获得上述待转换文本对应的语音。
本实施例中,转换模块83,具体用于从上述待转换文本对应的帧的线性谱中通过迭代获得上述待转换文本对应的语音的相位谱;根据上述待转换文本对应的语音的相位谱,通过反向短时傅里叶变换算法生成上述待转换文本对应的语音。
本实施例中,输入模块82,具体用于将获取的向量特征、文本韵律特征和映射特征经过一层全连接层进行降维后,输入由至少两个存在残差连接的卷积单元组成的网络中,经过一层全连接层进行升采样后,获得上述当前帧对应的线性谱。
也就是说,本实施例中,神经网络模型的结构可以如图5所示。图5所示的神经网络模型的输出特征即为当前帧对应的线性谱,即上述当前帧对应的音频的短时傅里叶变换后得到的频谱的幅度谱,上述神经网络模型先对上述当前帧对应的音频进行分帧处理,每25ms为一帧,帧与帧之间存在12.5ms的重叠。然后每一帧做傅里叶变换,取傅里叶变换的实数部分即为上述当前帧对应的线性谱。
其中,上述卷积单元包括两个一维卷积核,其中一个卷积核的输出通过激活函数规整到预定区间上;上述卷积单元的输出为一个卷积核规整到预定区间上的输出结果与另一个卷积核未通过激活函数的输出结果的对应元素的乘积。
上述激活函数可以为sigmoid激活函数,上述预定区间可以为(0,1)区间,上述卷积单元的结构可以如图6所示。
本实施例使用了卷积神经网络模型代替了递归神经网络,这有助于提高网络的并行运行的效率,大大提高了语音的合成速度;另外,本实施例使用的卷积神经网络模型可以起到类似滤波器的作用,因而对信噪比较低的训练数据也有着良好的语音转换能力。
进一步地,获取模块81,还用于获取训练文本对应的帧;获取上述训练文本对应的帧中当前帧对应音子的向量特征和文本韵律特征,以及获取上述训练文本对应的语音中上述当前帧的上一帧语音对应的线性谱的映射特征;
输入模块82,还用于将获取模块81获取的向量特征、文本韵律特征和映射特征输入待训练的神经网络模型,获得上述当前帧对应的线性谱;
转换模块83,还用于在获得上述训练文本对应的帧的线性谱之后,根据上述训练文本对应的帧的线性谱,获得上述训练文本对应的语音;
获取模块81,还用于当获得的上述训练文本对应的语音满足预定条件时,获得训练好的神经网络模型。
在训练神经网络模型时,获取模块81获取的上一帧的映射特征是上述训练文本对应的语音中当前帧的上一帧语音对应的线性谱的映射特征,而在实际使用神经网络模型时,获取模块81获取的上一帧的映射特征是该神经网络模型输出的上一帧对应的线性谱的映射特征。
其中,获得的上述训练文本对应的语音满足预定条件可以为:通过待训练的神经网络模型获得的上述训练文本对应的语音,与上述训练文本的真人语音相比,音质和整体流畅度的误差在预定范围内,当然,上述预定范围可以在具体实现时,根据系统性能和/或实现需求等自行设定,本实施例对上述预定范围的大小不作限定。
上述文本到语音的转换装置中,获取待转换文本对应的帧之后,获取上述帧中当前帧对应音子的向量特征和文本韵律特征,以及获取上述当前帧的上一帧对应的线性谱的映射特征,然后将获取的向量特征、文本韵律特征和映射特征输入预先训练的神经网络模型,获得上述当前帧对应的线性谱。在获得待转换文本对应的帧的线性谱之后,根据上述待转换文本对应的帧的线性谱,获得上述待转换文本对应的语音,从而可以实现直接根据待转换文本对应的帧的线性谱,获得待转换文本对应的语音,由于未引入近似误差,因此获得的语音的音质更佳,整体流畅度更好。
图9为本申请计算机设备一个实施例的结构示意图,上述计算机设备可以包括存储器、处理器及存储在上述存储器上并可在上述处理器上运行的计算机程序,上述处理器执行上述计算机程序时,可以实现本申请实施例提供的文本到语音的转换方法。
其中,上述计算机设备可以为服务器,也可以为终端设备,上述终端设备可以为个人计算机(Personal Computer;以下简称:PC)或者笔记本电脑等智能终端设备,本实施例对上述计算机设备的具体形态不作限定。
图9示出了适于用来实现本申请实施方式的示例性计算机设备12的框图。图9显示的计算机设备12仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图9所示,计算机设备12以通用计算设备的形式表现。计算机设备12的组件可以包括但不限于:一个或者多个处理器或者处理单元16,系统存储器28,连接不同系统组件(包括系统存储器28和处理单元16)的总线18。
总线18表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(Industry StandardArchitecture;以下简称:ISA)总线,微通道体系结构(Micro Channel Architecture;以下简称:MAC)总线,增强型ISA总线、视频电子标准协会(Video Electronics StandardsAssociation;以下简称:VESA)局域总线以及外围组件互连(Peripheral ComponentInterconnection;以下简称:PCI)总线。
计算机设备12典型地包括多种计算机系统可读介质。这些介质可以是任何能够被计算机设备12访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
系统存储器28可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(Random Access Memory;以下简称:RAM)30和/或高速缓存存储器32。计算机设备12可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统34可以用于读写不可移动的、非易失性磁介质(图9未显示,通常称为“硬盘驱动器”)。尽管图9中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如:光盘只读存储器(Compact Disc Read OnlyMemory;以下简称:CD-ROM)、数字多功能只读光盘(Digital Video Disc Read OnlyMemory;以下简称:DVD-ROM)或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线18相连。存储器28可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本申请各实施例的功能。
具有一组(至少一个)程序模块42的程序/实用工具40,可以存储在例如存储器28中,这样的程序模块42包括——但不限于——操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块42通常执行本申请所描述的实施例中的功能和/或方法。
计算机设备12也可以与一个或多个外部设备14(例如键盘、指向设备、显示器24等)通信,还可与一个或者多个使得用户能与该计算机设备12交互的设备通信,和/或与使得该计算机设备12能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口22进行。并且,计算机设备12还可以通过网络适配器20与一个或者多个网络(例如局域网(Local Area Network;以下简称:LAN),广域网(Wide Area Network;以下简称:WAN)和/或公共网络,例如因特网)通信。如图9所示,网络适配器20通过总线18与计算机设备12的其它模块通信。应当明白,尽管图9中未示出,可以结合计算机设备12使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
处理单元16通过运行存储在系统存储器28中的程序,从而执行各种功能应用以及数据处理,例如实现本申请实施例提供的文本到语音的转换方法。
本申请实施例还提供一种非临时性计算机可读存储介质,其上存储有计算机程序,上述计算机程序被处理器执行时可以实现本申请实施例提供的文本到语音的转换方法。
上述非临时性计算机可读存储介质可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(Read Only Memory;以下简称:ROM)、可擦式可编程只读存储器(ErasableProgrammable Read Only Memory;以下简称:EPROM)或闪存、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括——但不限于——电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于——无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本申请操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LocalArea Network;以下简称:LAN)或广域网(Wide Area Network;以下简称:WAN)连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本申请的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本申请的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现定制逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本申请的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本申请的实施例所属技术领域的技术人员所理解。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,“计算机可读介质”可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(Random AccessMemory;以下简称:RAM),只读存储器(Read Only Memory;以下简称:ROM),可擦除可编辑只读存储器(Erasable Programmable Read Only Memory;以下简称:EPROM)或闪速存储器,光纤装置,以及便携式光盘只读存储器(Compact Disc Read Only Memory;以下简称:CD-ROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本申请的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。如,如果用硬件来实现和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(ProgrammableGate Array;以下简称:PGA),现场可编程门阵列(Field Programmable Gate Array;以下简称:FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本申请各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。尽管上面已经示出和描述了本申请的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本申请的限制,本领域的普通技术人员在本申请的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (12)
1.一种文本到语音的转换方法,其特征在于,包括:
获取待转换文本对应的帧;
获取所述帧中当前帧对应音子的向量特征和文本韵律特征,以及获取所述当前帧的上一帧对应的线性谱的映射特征;
将获取的向量特征、文本韵律特征和映射特征输入预先训练的神经网络模型,获得所述当前帧对应的线性谱;
在获得所述待转换文本对应的帧的线性谱之后,根据所述待转换文本对应的帧的线性谱,获得所述待转换文本对应的语音;
所述获取所述当前帧的上一帧对应的线性谱的映射特征包括:
将所述当前帧的上一帧对应的线性谱输入由两层全连接层组成的神经网络进行映射,获得所述当前帧的上一帧对应的线性谱的映射特征。
2.根据权利要求1所述的方法,其特征在于,所述根据所述待转换文本对应的帧的线性谱,获得所述待转换文本对应的语音包括:
从所述待转换文本对应的帧的线性谱中通过迭代获得所述待转换文本对应的语音的相位谱;
根据所述待转换文本对应的语音的相位谱,通过反向短时傅里叶变换算法生成所述待转换文本对应的语音。
3.根据权利要求1所述的方法,其特征在于,所述将获取的向量特征、文本韵律特征和映射特征输入预先训练的神经网络模型,获得所述当前帧对应的线性谱包括:
将获取的向量特征、文本韵律特征和映射特征经过一层全连接层进行降维后,输入由至少两个存在残差连接的卷积单元组成的网络中,经过一层全连接层进行升采样后,获得所述当前帧对应的线性谱。
4.根据权利要求3所述的方法,其特征在于,所述卷积单元包括两个一维卷积核,其中一个卷积核的输出通过激活函数规整到预定区间上;所述卷积单元的输出为一个卷积核规整到预定区间上的输出结果与另一个卷积核未通过激活函数的输出结果的对应元素的乘积。
5.根据权利要求1-4任意一项所述的方法,其特征在于,所述将获取的向量特征、文本韵律特征和映射特征输入预先训练的神经网络模型,获得所述当前帧对应的线性谱之前,还包括:
获取训练文本对应的帧;
获取所述训练文本对应的帧中当前帧对应音子的向量特征和文本韵律特征,以及获取所述训练文本对应的语音中所述当前帧的上一帧语音对应的线性谱的映射特征;
将获取的向量特征、文本韵律特征和映射特征输入待训练的神经网络模型,获得所述当前帧对应的线性谱;
在获得所述训练文本对应的帧的线性谱之后,根据所述训练文本对应的帧的线性谱,获得所述训练文本对应的语音;
当获得的所述训练文本对应的语音满足预定条件时,获得训练好的神经网络模型。
6.一种文本到语音的转换装置,其特征在于,包括:
获取模块,用于获取待转换文本对应的帧;获取所述帧中当前帧对应音子的向量特征和文本韵律特征,以及获取所述当前帧的上一帧对应的线性谱的映射特征;
输入模块,用于将所述获取模块获取的向量特征、文本韵律特征和映射特征输入预先训练的神经网络模型,获得所述当前帧对应的线性谱;
转换模块,用于在获得所述待转换文本对应的帧的线性谱之后,根据所述待转换文本对应的帧的线性谱,获得所述待转换文本对应的语音;
所述获取模块,具体用于将所述当前帧的上一帧对应的线性谱输入由两层全连接层组成的神经网络进行映射,获得所述当前帧的上一帧对应的线性谱的映射特征。
7.根据权利要求6所述的装置,其特征在于,
所述转换模块,具体用于从所述待转换文本对应的帧的线性谱中通过迭代获得所述待转换文本对应的语音的相位谱;根据所述待转换文本对应的语音的相位谱,通过反向短时傅里叶变换算法生成所述待转换文本对应的语音。
8.根据权利要求6所述的装置,其特征在于,
所述输入模块,具体用于将获取的向量特征、文本韵律特征和映射特征经过一层全连接层进行降维后,输入由至少两个存在残差连接的卷积单元组成的网络中,经过一层全连接层进行升采样后,获得所述当前帧对应的线性谱。
9.根据权利要求8所述的装置,其特征在于,所述卷积单元包括两个一维卷积核,其中一个卷积核的输出通过激活函数规整到预定区间上;所述卷积单元的输出为一个卷积核规整到预定区间上的输出结果与另一个卷积核未通过激活函数的输出结果的对应元素的乘积。
10.根据权利要求6-9任意一项所述的装置,其特征在于,
所述获取模块,还用于获取训练文本对应的帧;获取所述训练文本对应的帧中当前帧对应音子的向量特征和文本韵律特征,以及获取所述训练文本对应的语音中所述当前帧的上一帧语音对应的线性谱的映射特征;
所述输入模块,还用于将所述获取模块获取的向量特征、文本韵律特征和映射特征输入待训练的神经网络模型,获得所述当前帧对应的线性谱;
所述转换模块,还用于在获得所述训练文本对应的帧的线性谱之后,根据所述训练文本对应的帧的线性谱,获得所述训练文本对应的语音;
所述获取模块,还用于当获得的所述训练文本对应的语音满足预定条件时,获得训练好的神经网络模型。
11.一种计算机设备,其特征在于,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时,实现如权利要求1-5中任一所述的方法。
12.一种非临时性计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1-5中任一所述的方法。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN201810241804.9A CN108492818B (zh) | 2018-03-22 | 2018-03-22 | 文本到语音的转换方法、装置和计算机设备 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN201810241804.9A CN108492818B (zh) | 2018-03-22 | 2018-03-22 | 文本到语音的转换方法、装置和计算机设备 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| CN108492818A CN108492818A (zh) | 2018-09-04 |
| CN108492818B true CN108492818B (zh) | 2020-10-30 |
Family
ID=63319329
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN201810241804.9A Active CN108492818B (zh) | 2018-03-22 | 2018-03-22 | 文本到语音的转换方法、装置和计算机设备 |
Country Status (1)
| Country | Link |
|---|---|
| CN (1) | CN108492818B (zh) |
Families Citing this family (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN109754778B (zh) * | 2019-01-17 | 2023-05-30 | 平安科技(深圳)有限公司 | 文本的语音合成方法、装置和计算机设备 |
| CN110164413B (zh) * | 2019-05-13 | 2021-06-04 | 北京百度网讯科技有限公司 | 语音合成方法、装置、计算机设备和存储介质 |
| CN110335587B (zh) * | 2019-06-14 | 2023-11-10 | 平安科技(深圳)有限公司 | 语音合成方法、系统、终端设备和可读存储介质 |
| CN112289297B (zh) * | 2019-07-25 | 2024-08-02 | 阿里巴巴集团控股有限公司 | 语音合成方法、装置和系统 |
| US11322135B2 (en) | 2019-09-12 | 2022-05-03 | International Business Machines Corporation | Generating acoustic sequences via neural networks using combined prosody info |
| CN110473516B (zh) * | 2019-09-19 | 2020-11-27 | 百度在线网络技术(北京)有限公司 | 语音合成方法、装置以及电子设备 |
| CN111862931B (zh) * | 2020-05-08 | 2024-09-24 | 北京嘀嘀无限科技发展有限公司 | 一种语音生成方法及装置 |
| CN112464649A (zh) * | 2020-11-25 | 2021-03-09 | 平安科技(深圳)有限公司 | 多音字的拼音转换方法、装置、计算机设备和存储介质 |
| CN113763924B (zh) * | 2021-11-08 | 2022-02-15 | 北京优幕科技有限责任公司 | 声学深度学习模型训练方法、语音生成方法及设备 |
| CN116312464A (zh) * | 2023-03-23 | 2023-06-23 | 平安科技(深圳)有限公司 | 音频合成方法、装置、电子设备及计算机可读存储介质 |
Citations (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| GB2326321A (en) * | 1997-06-13 | 1998-12-16 | Motorola Inc | Speech synthesis using neural networks |
| GB2326320A (en) * | 1997-06-13 | 1998-12-16 | Motorola Inc | Text to speech synthesis using neural network |
| CA2161540C (en) * | 1994-04-28 | 2000-06-13 | Orhan Karaali | A method and apparatus for converting text into audible signals using a neural network |
| CN101996628A (zh) * | 2009-08-21 | 2011-03-30 | 索尼株式会社 | 提取语音信号的韵律特征的方法和装置 |
| US8527276B1 (en) * | 2012-10-25 | 2013-09-03 | Google Inc. | Speech synthesis using deep neural networks |
| CN104867489A (zh) * | 2015-04-27 | 2015-08-26 | 苏州大学张家港工业技术研究院 | 一种模拟真人朗读发音的方法及系统 |
| CN105336321A (zh) * | 2015-09-25 | 2016-02-17 | 百度在线网络技术(北京)有限公司 | 用于语音合成的音子切分方法和装置 |
| CN105679306A (zh) * | 2016-02-19 | 2016-06-15 | 上海语知义信息技术有限公司 | 语音合成中预测基频帧的方法及系统 |
| CN107039034A (zh) * | 2016-02-04 | 2017-08-11 | 科大讯飞股份有限公司 | 一种韵律预测方法及系统 |
| CN107452369A (zh) * | 2017-09-28 | 2017-12-08 | 百度在线网络技术(北京)有限公司 | 语音合成模型生成方法和装置 |
| CN107680580A (zh) * | 2017-09-28 | 2018-02-09 | 百度在线网络技术(北京)有限公司 | 文本转换模型训练方法和装置、文本转换方法和装置 |
Family Cites Families (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US8401849B2 (en) * | 2008-12-18 | 2013-03-19 | Lessac Technologies, Inc. | Methods employing phase state analysis for use in speech synthesis and recognition |
-
2018
- 2018-03-22 CN CN201810241804.9A patent/CN108492818B/zh active Active
Patent Citations (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CA2161540C (en) * | 1994-04-28 | 2000-06-13 | Orhan Karaali | A method and apparatus for converting text into audible signals using a neural network |
| GB2326321A (en) * | 1997-06-13 | 1998-12-16 | Motorola Inc | Speech synthesis using neural networks |
| GB2326320A (en) * | 1997-06-13 | 1998-12-16 | Motorola Inc | Text to speech synthesis using neural network |
| CN101996628A (zh) * | 2009-08-21 | 2011-03-30 | 索尼株式会社 | 提取语音信号的韵律特征的方法和装置 |
| US8527276B1 (en) * | 2012-10-25 | 2013-09-03 | Google Inc. | Speech synthesis using deep neural networks |
| CN104867489A (zh) * | 2015-04-27 | 2015-08-26 | 苏州大学张家港工业技术研究院 | 一种模拟真人朗读发音的方法及系统 |
| CN105336321A (zh) * | 2015-09-25 | 2016-02-17 | 百度在线网络技术(北京)有限公司 | 用于语音合成的音子切分方法和装置 |
| CN107039034A (zh) * | 2016-02-04 | 2017-08-11 | 科大讯飞股份有限公司 | 一种韵律预测方法及系统 |
| CN105679306A (zh) * | 2016-02-19 | 2016-06-15 | 上海语知义信息技术有限公司 | 语音合成中预测基频帧的方法及系统 |
| CN107452369A (zh) * | 2017-09-28 | 2017-12-08 | 百度在线网络技术(北京)有限公司 | 语音合成模型生成方法和装置 |
| CN107680580A (zh) * | 2017-09-28 | 2018-02-09 | 百度在线网络技术(北京)有限公司 | 文本转换模型训练方法和装置、文本转换方法和装置 |
Also Published As
| Publication number | Publication date |
|---|---|
| CN108492818A (zh) | 2018-09-04 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN108492818B (zh) | 文本到语音的转换方法、装置和计算机设备 | |
| US11842728B2 (en) | Training neural networks to predict acoustic sequences using observed prosody info | |
| CA3195582A1 (en) | Audio generator and methods for generating an audio signal and training an audio generator | |
| CN116994553A (zh) | 语音合成模型的训练方法、语音合成方法、装置及设备 | |
| Eskimez et al. | Adversarial training for speech super-resolution | |
| CN111161702A (zh) | 个性化语音合成方法、装置、电子设备、存储介质 | |
| WO2013011397A1 (en) | Statistical enhancement of speech output from statistical text-to-speech synthesis system | |
| US20220068256A1 (en) | Building a Text-to-Speech System from a Small Amount of Speech Data | |
| CN115497451B (zh) | 语音处理方法、装置、电子设备和存储介质 | |
| CN113160849B (zh) | 歌声合成方法、装置及电子设备和计算机可读存储介质 | |
| JP7664330B2 (ja) | テキストエコー消去 | |
| Gu et al. | Waveform Modeling Using Stacked Dilated Convolutional Neural Networks for Speech Bandwidth Extension. | |
| US11295762B2 (en) | Unsupervised speech decomposition | |
| JP2022133447A (ja) | 音声処理方法、装置、電子機器及び記憶媒体 | |
| CN110930975B (zh) | 用于输出信息的方法和装置 | |
| CN114141259B (zh) | 语音转换方法、装置、设备、存储介质和程序产品 | |
| CN114495896B (zh) | 一种语音播放方法及计算机设备 | |
| Mukherjee et al. | A Bengali speech synthesizer on Android OS | |
| US12482482B2 (en) | Studio quality audio enhancement | |
| CN116129859B (zh) | 韵律标注方法、声学模型训练方法、语音合成方法及装置 | |
| CN118447820A (zh) | 一种基于风格的语音转换方法、装置、设备及介质 | |
| WO2022204612A1 (en) | Harmonics based target speech extraction network | |
| US20110010179A1 (en) | Voice synthesis and processing | |
| CN111862931B (zh) | 一种语音生成方法及装置 | |
| CN115985287A (zh) | 语音合成方法、装置、设备及存储介质 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PB01 | Publication | ||
| PB01 | Publication | ||
| SE01 | Entry into force of request for substantive examination | ||
| SE01 | Entry into force of request for substantive examination | ||
| GR01 | Patent grant | ||
| GR01 | Patent grant |