CN109903778A - 实时演唱评分的方法与系统 - Google Patents
实时演唱评分的方法与系统 Download PDFInfo
- Publication number
- CN109903778A CN109903778A CN201910016283.1A CN201910016283A CN109903778A CN 109903778 A CN109903778 A CN 109903778A CN 201910016283 A CN201910016283 A CN 201910016283A CN 109903778 A CN109903778 A CN 109903778A
- Authority
- CN
- China
- Prior art keywords
- singing
- interval
- matching
- score
- current word
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 34
- 230000001755 vocal effect Effects 0.000 claims abstract description 7
- 230000033764 rhythmic process Effects 0.000 claims description 20
- 238000004364 calculation method Methods 0.000 claims description 16
- 238000000605 extraction Methods 0.000 claims description 12
- 239000000284 extract Substances 0.000 claims description 4
- 230000000694 effects Effects 0.000 abstract description 6
- 238000011156 evaluation Methods 0.000 abstract 1
- 238000001914 filtration Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000009432 framing Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000013077 scoring method Methods 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 241000208340 Araliaceae Species 0.000 description 1
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 1
- 235000003140 Panax quinquefolius Nutrition 0.000 description 1
- 206010044565 Tremor Diseases 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 235000008434 ginseng Nutrition 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 210000001260 vocal cord Anatomy 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Landscapes
- Reverberation, Karaoke And Other Acoustics (AREA)
- Auxiliary Devices For Music (AREA)
Abstract
本发明提供一种实时演唱评分的方法与系统,其方法为:实时获取演唱歌曲时产生的人声数据流;从人声数据流中提取演唱完当前字的演唱窗口区间;获取当前字的演唱窗口区间与歌曲文件中对应字的参考窗口区间的匹配区间,其中,所述参考窗口区间为基于对应字的播放窗口区间偏移至少一个偏移时长后得到的至少一个偏移窗口区间的组合;根据所述匹配区间计算当前字的演唱得分,并根据歌曲中所有字的演唱得分计算所述歌曲的演唱总分。通过上述方案解决了现有歌唱评分系统评分不准确、缺乏趣味性和互动性的技术问题,达到了从不同方面对演唱者水平进行实时评估的技术效果。
Description
技术领域
本发明涉及语音信号处理技术领域,特别涉及一种实时演唱评分的方法与系统。
背景技术
随着网络技术和电子技术的发展,唱歌这种非常受到大众喜爱的休闲娱乐方式已经不仅仅局限于传统KTV包房中,手机K歌、小型唱歌亭、网络K歌、家庭K歌使得唱歌的形式和地点更加多元化。
然而,与此息息相关的唱歌评分功能的发展显得滞后和缓慢。现有评分算法中,有些采用的是以音强作为评分的标准进行评分,有些采用的是对比音频信号相似度来进行评分,这两种评分方法均未考虑音调在评分过程中的作用。还有一些是以音调为基础的评分,对比歌曲音调文件与歌唱者音调来评分的规则,这种评分方法虽然考虑了音调音素,但由于没有对演唱时发声规律做预判,导致误将清音或音强较弱的音频数据错误的提取音调导致评分不准确;同时由于演唱者水平的不同导致音调、节奏感、音强差异并未考虑到评分过程中,另外,简单的一字或一句的打分形式也缺乏趣味性、互动性。
针对上述问题,目前还没有提出有效的解决方案。
发明内容
本发明提供一种实时演唱评分的方法与系统,实现对演唱歌曲进行实时评分的目的,达到从不同方面对演唱者水平进行实时评估的技术效果。
一方面,本发明提供了一种实时演唱评分的方法,包括:
实时获取演唱歌曲时产生的人声数据流;
从人声数据流中提取演唱完当前字的演唱窗口区间;
获取当前字的演唱窗口区间与歌曲文件中对应字的参考窗口区间的匹配区间,其中,所述参考窗口区间为基于对应字的播放窗口区间偏移至少一个偏移时长后得到的至少一个偏移窗口区间的组合;
根据所述匹配区间计算当前字的演唱得分,并根据歌曲中所有字的演唱得分计算所述歌曲的演唱总分。
具体地,所述获取当前字的演唱窗口区间与歌曲文件中对应字的参考窗口区间的匹配区间,包括:
获取演唱窗口区间中的演唱音调数据;
获取参考窗口区间中的参考音调数据;
将所述演唱音调数据与参考音调数据进行对比,选取音调匹配度大于匹配度阈值的窗口区间为匹配区间。
具体地,所述根据所述匹配区间计算当前字的演唱得分,包括,根据所述匹配区间的音调匹配度计算当前字的音调得分。
具体地,所述根据所述匹配区间计算当前字的演唱得分,包括,计算当前字的节奏得分:
根据所述匹配区间起始时间与所述歌曲文件对应字播放窗口区间起始时间的差值计算当前字的节奏得分。
具体地,所述根据所述匹配区间计算当前字的演唱得分,包括,计算当前字的音强得分:
根据匹配区间人声数据流的平均音强与所述歌曲文件对应字播放窗口区间音强的比值计算当前字的音强得分。
另一方面,本发明提供了一种实时演唱评分系统,包括:
获取模块,用于实时获取演唱歌曲时产生的人声数据流;
提取模块,用于从人声数据流中提取演唱完当前字的演唱窗口区间;
匹配模块,用于获取当前字的演唱窗口区间与歌曲文件中对应字的参考窗口区间的匹配区间,其中,所述参考窗口区间为基于对应字的播放窗口区间偏移至少一个偏移时长后得到的至少一个偏移窗口区间的组合;
计算模块,用于根据所述匹配区间计算当前字的演唱得分,根据歌曲中所有字的演唱得分计算所述歌曲的演唱总分。
具体地,所述匹配模块包括:
第一音调获取模块,用于获取演唱窗口区间中的演唱音调数据;
第二音调获取模块,用于获取参考窗口区间中的参考音调数据;
比对模块,用于将所述演唱音调数据与参考音调数据进行比对,选取音调匹配度大于匹配度阈值的窗口区间为匹配区间。
具体地,所述计算模块包括:
音调计算模块,用于根据所述匹配区间的音调匹配度计算当前字的音调得分。
具体地,所述计算模块还包括:
节奏计算模块,用于根据所述匹配区间起始时间与所述歌曲文件对应字播放窗口区间起始时间的差值计算当前字的节奏得分。
具体地,所述计算模块还包括:
音强计算模块,用于根据匹配区间人声数据流的平均音强与所述歌曲文件对应字播放窗口区间音强的比值计算当前字的音强得分。
本发明通过对歌唱者演唱歌曲中每个字的音调、节奏、音强进行实时评分,实现了基于基本单元字对歌曲进行实时评分,从而解决了现有的歌唱评分系统评分不准确、缺乏趣味性和互动性的技术问题,达到了从不同方面对演唱者水平进行实时评估的技术效果。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是一种实时演唱评分方法的流程图;
图2是一种获取匹配区间方法的流程图;
图3是一种演唱音调获取方法的流程图;
图4是一种计算字节奏得分方法的流程图;
图5是一种匹配区间选取的示意图;
图6是一种计算字音强得分方法的流程图;
图7是一种实时演唱评分系统的结构示意图;
图8是一种匹配模块的结构示意图;
图9是一种计算模块的结构图示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在本说明书中,诸如第一和第二这样的形容词仅可以用于将一个元素或动作与另一元素或动作进行区分,而不必要求或暗示任何实际的这种关系或顺序。在环境允许的情况下,参照元素或部件或步骤(等)不应解释为局限于仅元素、部件、或步骤中的一个,而可以是元素、部件、或步骤中的一个或多个等。
在本说明书中,为了便于描述,附图中所示的各个部分的尺寸并不是按照实际的比例关系绘制的。
本发明提出了一种实时演唱评分的方法与装置,其中,所述方法如图1所示:
S11:实时获取演唱歌曲时产生的人声数据流;
S12:从人声数据流中提取演唱完当前字的演唱窗口区间;
S13:获取当前字的演唱窗口区间与歌曲文件对应字的参考窗口区间的匹配区间,其中,所述参考窗口区间为基于对应字的播放窗口区间偏移至少一个偏移时长后得到的至少一个偏移窗口区间的组合;
S14:根据所述匹配区间计算当前字的演唱得分;
S15:根据歌曲中所有字的演唱得分计算所述歌曲的演唱总分。
在演唱实时评分时,演唱者的歌声通过麦克风传入处理器,处理器对麦克风产生的人声数据流进行采集提取,获取演唱者演唱完当前字的演唱窗口区间,其中,上述演唱窗口区间包括演唱者开始演唱当前字的起始时间和演唱者演唱完当前字的结束时间,以及在起始时间和结束时间之间演唱者产生的所有人声数据流信息。
获取人声数据流中当前字演唱窗口区间与歌曲文件对应字的参考窗口区间的匹配区间。这里参考窗口区间的引入主要是为了避免演唱者在歌曲文件播放当前字之前或之后某一时刻开始演唱时,常规的评分方法无法准确判定演唱者的实时演唱得分,从而得到错误的评分数据的问题。因此,为了更为合理地计算演唱者的实时演唱得分,在演唱者的实时评分规则系统中,我们引入了参考窗口区间,通过将当前字的演唱窗口区间与歌曲文件对应字的参考窗口区间进行对比,获取匹配区间。其中,参考窗口区间为基于歌曲文件对应字的播放窗口区间偏移至少一个偏移时长后得到的至少一个偏移窗口区间的组合,上述偏移时长和偏移窗口区间的个数可以自由设定。例如,偏移窗口区间可以设置为3个,对应的偏移时长设置为-1,0,+1,其中,“1”表示一个当前字的播放窗口区间时长,“-”表示后向偏移,“+”表示前向偏移。
然后,根据匹配区间计算当前字的演唱得分,再根据当前字的得分计算演唱该歌曲的演唱总分。
具体的,获取当前字的演唱窗口区间与歌曲文件对应字的参考窗口区间的匹配区间,具体步骤如图2所示:
S21:获取当前字演唱窗口区间中的演唱音调数据;
S22:获取对应字参考窗口区间中的参考音调数据;
S23:将所述演唱音调数据与参考音调数据进行对比,选取音调匹配度大于匹配度阈值的窗口区间为匹配区间。
匹配区间选取的思路为:首先获取演唱者演唱当前字的音调数据,然后将演唱者演唱当前字的音调数据与参考音调数据进行比对,从中选取音调匹配度大于匹配度阈值的窗口区间为匹配区间。
具体的,步骤S21中演唱音调数据的获取,包括以下步骤,如图3所示:
S31:对麦克风采集的当前字演唱窗口区间人声数据流进行低通滤波;
S32:对滤波后的数据流进行交叠分帧;
S33:对每一帧的数据进行清音判定;
S34:当判定当前帧不是清音帧时,利用倒频谱计算音调,并将计算得到的当前帧的音调与前8帧的音调进行中值滤波,四舍五入取整得到音调数据;
S35:当判定当前帧为清音帧时,音调数据记为0存入缓存。
即,首先将从麦克风传来的演唱窗口区间数据流进行低通滤波,尽可能保留人声谐波,然后将滤波后的人声数据流转换为帧数据,再从每一帧中提取音调,获取演唱当前字每一帧的音调数据。
由于,人在演唱时的频率范围在70~650Hz之间,对应十二平均率的37(c#)~76(e2)。这里我们指定音调有效范围在37~76间。人在发声时有时会伴有清音,清音是人在发声时声带不颤动发出的声音,它在音频波形上看没有固定的基音,具有较高的过零率,所以在音调提取的时候需要对清音辨别,不计入发音的音调评分中。
步骤S31对当前字演唱窗口区间数据进行滤波,滤除掉多余的高频成分又要尽可能的保留人声的谐波成分。在此,为了方便后续基频的计算,我们在滤波时选择低通滤波器,其频率为8KHz。
然后,执行步骤S32,处理器对从麦克风传过来的人声数据流进行分帧,为了能够较好的识别语音变化,分帧窗口大小一般选取为20~40ms。在这里,我们选择每一帧的窗口为20ms,在48K采样率下一帧的采样点数为1024个数据点,窗口交叠50%,窗函数采用汉明窗。
由于人声数据流中包含清音,因此,在此,需要执行S33,对每一帧的数据进行清音判定,短时能量是音频分析中常用的特征之一。音频信号的短时能量随时间变化相对比较明显,可以用来区分清音和浊音。短时能量还可以用来识别静音帧,我们可以给定一个阀值,使得当短时能量的值小于这个阀值时,就认为这个帧是静音帧。这里,我们通过过零率检测的办法判定清音帧。短时平均过零率是语音信号时域分析中的一种特征参数,它是指每帧内信号通过零值的次数。对有时间横轴的连续语音信号,可以观察到语音的时域波形通过横轴的情况。具体地,短时过零率的计算公式如下:
其中,WL表示当前帧中的总采样点数,sign(k)为该帧内第k个采样点数据的符号,sign()为符号函数,即:
即,在48K或44.1K采样率下,当ZCR>0.1时判定为清音符,该帧的音调记为0,不进行后续音调计算,反之则为非清音帧,需要进行后续的音调提取计算。
步骤S34中,音调提取采用倒频谱的方法,对每一帧的数据进行傅里叶(FFT)变换,计算幅度取对数得到对数幅度谱,再对对数幅度谱再做一次逆FFT运算,得到倒频数据。
得到倒频数据之后,需要将人声基频转换为音调数据,进而与歌曲文件的音调数据进行对比,将人声基频转换为音调数据的方法如下所示:
首先,需要确定人声基频,由于人在演唱是的音频范围在70~650Hz之间,即,确定基频搜索范围为:
LowIndex=Fs/650;
HighIndex=Fs/70;
即,基频的搜索范围为LowIndex~HighIndex。其中LowIndex为搜索范围内的最小频率,HighIndex为搜索范围内的最大频率,Fs为采样率。通过上述公式得到当前帧人声基频数据,然后,将人声基频数据转换为音调,即用十二平均律表示,公式如下:
其中,Pitch为十二平均率的音调,basefreq为当前帧的人声基频数据,round为四舍五入取操作。
对当前帧计算得到的音调数据做中值滤波,这里我们取9帧中值滤波,即,滤波时以当前帧音调数据与前八帧音调数据做中值滤波,计算得到当前帧的音调。当判定当前帧为清音帧时,不做中值滤波处理,音调数据直接以0存入缓存。取9帧中值滤波的方法,可以达到较好的滤除野点的效果。
通过上述过程,即可以获取当前字演唱窗口区间每一帧的演唱音调数据。
在步骤S23中,将所述演唱音调数据与参考音调数据进行对比,选取音调匹配度大于匹配度阈值的窗口区间为匹配区间。
将当前字演唱窗口区间中的演唱音调数据,与参考窗口区间的音调数据进行比对,选择演唱音调数据与参考窗口区间的音调数据偏移最小、匹配度大于匹配度阈值的区间为匹配区间。
其中,匹配度的一种设定规则为:
其中,PitchMatch表示匹配度的计算方法,HitFrameNum代表演唱窗口区间帧音调与参考窗口区间对应帧音调的差值小于一预设音调差值的帧数目,WordFrameNum代表演唱当前字所包含的总帧数目。
如将匹配度阈值设定为0.5,则将计算后结果与0.5进行比较,若存在一个区间计算后的结果大于0.5,则将该区间设定为匹配区间。
根据上述方法,获取匹配区间后,根据匹配区间计算当前字的演唱得分,包括,计算当前字的音调得分,音调得分PitchScore具体的计算公式为:
根据上述计算匹配度获取的匹配区间的匹配度对当前字的音调进行评分,即将匹配区间的匹配度最为当前字的音调得分,当不存在匹配区间时,演唱当前字的得分为1。
具体的,根据匹配区间计算当前字的得分,还包括,计算当前字的节奏得分,计算步骤如图4所示:
S41:获取所述匹配区间的起始时间,设为第一起始时间;
S42:获取所述歌曲文件对应字播放窗口区间起始时间,设为第二起始时间;
S43:根据第一起始时间和第二起始时间的差值获取当前字的节奏得分。
如5图所示,当前字的播放窗口区间时长为WORDTIME,起始时间为Begin,结束时间为End,参考窗口区间长度为3倍的WORDTIME,包括3个偏移时长,分别为对应的偏移时长设置为-1,0,+1,其中,“1”表示播放窗口区间时长WORDTIME,“-”表示后向偏移,“+”表示前向偏移,“0”表示偏移0个时长,即不偏移。
相应的,假设演唱窗口区间的起始时间为B,演唱窗口区间的结束时间为E,匹配区间表示为MATCH,匹配区间的起始时间为B1,匹配区间的结束时间为E1,将匹配区间的起始时间B1设为第一起始时间。
以播放窗口区间中对应字的起始时间Begin为基准,并将该时刻设为第二起始时间。
这个字的节奏元素BEAT=|B1-Begin|。
根据上述节奏元素BEAT计算节奏得分BeatScore的公式为:
其中,DELAY表示匹配区间起始位置所在的那个偏移窗口期间对应的偏移时长,c.c表示任意一个设定的常数。
具体的,根据匹配区间计算当前字的得分,还包括,计算当前字的音强得分,计算步骤如图6所示:
S61:获取匹配区间人声数据流的平均音强;
S62:计算平均音强与所述歌曲文件播放窗口区间对应字音强的比值;
S63:根据所述比值获取当前字的音强得分。
在步骤S61中,获取匹配区间的平均音强,需要计算匹配区间内数据流中所有帧数据的音强,然后根据所有帧的音强得到平均音强。其中,将人声数据流转换为帧数据的方法与上述音调提取中的转换方法一致,在此不再赘述。
计算平均音强的方法为:
计算匹配区间人声数据量每一帧的平均电平,每一帧的平均电平的计算公式为:
其中,WL表示匹配区间中每一帧的总采样点数,INDATA(k)表示该帧第k个采样点的电平数据,INTENSITYTmp表示当前帧的平均电平。INTENSITY表示应用于评分体系时的平均电平,如果当前帧的平均音强计算结果小于0,则将该帧的平均音强设置为0。
然后,根据匹配区间人声数据流内每一帧的平均电平,计算匹配区间内所有帧的平均音强,计算公式如下所示:
式中,N表示匹配区间中的帧总数。
根据上述匹配区间人声数据流的平均电平,计算该字音强得分的公式如下所示:
其中,c.c表示任意一个设定的常数,FileWordIntensity表示歌曲文件中对应字播放窗口区间的音强。
则,根据上述分析,可以得到演唱者演唱完当前字的得分为:
WordScore=PitchScore×IntensityScore+BeatScore
另外,为了方便显示和提升用户的体验,还可以在上述得分的基础上乘以一定的系数,然后,根据歌曲中所有字的得分,得到该歌曲的总得分:
式中,N为歌曲中的总字数。另外,为了更贴合演唱者的使用习惯,可以将score的分数转换为百分制的形式进行显示。
可以看出,本发明实时评分规则是以歌曲中的字为基本单元,根据字的音调、节奏和音强计算歌曲中每个字的得分,再根据整个歌曲中所有字的得分获取歌曲的总得分。另外,需要注意的是,基于字的得分仅为基础得分,在基础得分的基础上,还可以包括以句为基础单位的附加得分和根据不同唱歌对象的模式得分。
具体的,附加评分包括升降调得分、句连续爆击得分和句随机倍数得分,这些附加评分项目可以增加评分过程中的娱乐性和互动性。
例如,对升降调得分项而言,在歌曲演唱过程中,提高播放的音调可增加演唱难度,反之降低音调可减小演唱难度。评分时可根据音调调整的大小对整首歌曲得分乘以一个升降调权值TONEWEIGHT,当音调提升时权值增加,音调降低时权值下降。权值与音调公式如下所示:
其中TONE表示升降调的幅度,音调不做调整时为0,每升一个调为+1,每降一个调为-1。音调调整一个单位一般指一个半音大小,c.c代表任意一个设定的常数。
对于连续爆击得分而言,当演唱者演唱时连续多次的句得分大于某一预设的分数时,可附加得到连续爆击得分,连续爆击得分公式如下所示:
SentenceAddedScore=sentenceScore×N
其中,SentenceAddedScore表示连续多次句得分大于预设分数中的第N个句子的附加得分,其中,sentenceScore为该句的字得分之和。
随机倍数得分是指,在实时评分过程中,可在歌曲播放权随机提取任意句作为双倍得分句,在演唱该句时,开始提醒演唱者该句为双倍得分句。双倍得分句的得分为该句实际得分的设定倍。
除此之外,还应当注意,在演唱过程中,对于不同类型的演唱者,其演唱水平是不同的。因此,本发明还考虑到不同的演唱者需求,设立了新手模式、高手模式和专业模式,不同的演唱者模型下的参量设置不同,因此,演唱者可以根据自己的实际情况,选择不同的模式,从而提高实时评分的个性化程度。例如,在新手模式中,对演唱者的歌唱水平要求不高,在设置偏移时长、偏移区间和预设音调差值时可以将范围适当的增大,而在高手模式和专业模式中,则设定的歌唱难度逐步增大。例如,具体配置参数如下所示:
另外,本发明还提供了一种实时演唱评分的系统,该实时演唱评分的系统如图7所示,包括:
获取模块71,用于实时获取演唱歌曲时产生的人声数据流;
提取模块72,用于从人声数据流中提取演唱完当前字的演唱窗口区间;
匹配模块73,用于获取当前字的演唱窗口区间与歌曲文件中对应字的参考窗口区间的匹配区间,其中,所述参考窗口区间为基于对应字的播放窗口区间偏移至少一个偏移时长后得到的至少一个偏移窗口区间的组合;
计算模块74,用于根据所述匹配区间计算当前字的演唱得分,根据歌曲中所有字的演唱得分计算所述歌曲的演唱总分。
获取模块71将演唱者的人声数据流通过麦克风或其他声音采集装置进行获取,然后将人声数据流送到提取模块72,提取模块对将最新的人声数据流信息进行缓存,当提取模块判断到演唱者演唱完歌曲中某一个字(即当前字)时,获取演唱者演唱完当前字的演唱窗口区间,其中,上述演唱窗口区间包括演唱者开始演唱当前字的起始时间和演唱者演唱完当前字的结束时间,以及在起始时间和结束时间之间演唱者产生的所有人声数据流信息。
然后,匹配模块73获取演唱者演唱当前字的演唱窗口区间与歌曲文件中对应的参考窗口区间的匹配区间,这里的参考窗口区间是指:基于对应字的播放窗口区间偏移至少一个偏移时长后得到的至少一个窗口区间的组合,上述偏移时长和偏移窗口区间的个数可以根据实际需求自由设定。例如,偏移窗口区间可以设置为3个,对应的偏移时长设置为-1,0,+1,其中,“1”表示一个当前字的播放窗口区间时长,“-”表示后向偏移,“+”表示前向偏移,比如,可以根据演唱者的不同演唱水平进行设定偏移时长和偏移窗口区间的个数。
然后,计算模块74根据匹配区间计算当前字的演唱得分,再根据当前字的得分计算该歌曲的演唱总分。
具体地,一种匹配模块71的结构图如图8所示,包括:
第一音调获取模块81,用于获取演唱窗口区间中的演唱音调数据;
第二音调获取模块82,用于获取参考窗口区间中的参考音调数据;
比对模块83,用于将所述演唱音调数据与参考音调数据进行比对,选取音调匹配度大于匹配度阈值的窗口区间为匹配区间。
即,匹配模式71中,第一音调获取模块81首先获取演唱者演唱当前字的演唱音调数据,然后第二音调获取模块82获取参考窗口区间中的参考音调数据;比对模块83将演唱者演唱当前字的演唱音调数据与参考音调数据进行比对,从中选取音调匹配度大于匹配度阈值的窗口区间为匹配区间。
在第一音调获取模块81中,需要首先对采集到的演唱窗口区间的数据流进行低通滤波,尽可能地保留人声成分,然后对滤波后的数据流进行交叠分帧,之后对每一帧的数据进行清音判定,如果判定是清音,则该帧的音调数据记为0,如果判定该帧的音调不是清音,则需要利用倒频谱计算音调,并将计算得到的当前帧的音调与前8帧的音调进行中值滤波,四舍五入取整得到音调数据。
比对模块83将当前字演唱窗口区间中的演唱音调数据,与参考窗口区间的音调数据进行比对,选择演唱音调数据与参考窗口区间的音调数据偏移最小、匹配度大于匹配度阈值的区间为匹配区间。
其中,匹配度的一种计算公式为:
其中,PitchMatch表示匹配度数值,HitFrameNum代表演唱窗口区间帧音调与参考窗口区间对应帧音调的差值小于一预设音调差值的帧数目,WordFrameNum代表演唱当前字所包含的总帧数目。
如将匹配度阈值设定为0.5,则将计算后结果与0.5进行比较,若存在一个区间计算后的结果大于0.5,则将该区间设定为匹配区间。
具体地,一种计算模块74的结构图如图9所示,包括:
音调计算模块91,用于根据所述匹配区间的音调匹配度计算当前字的音调得分。
节奏计算模块92,用于根据所述匹配区间起始时间与所述歌曲文件对应字播放窗口区间起始时间的差值计算当前字的节奏得分。
音强计算模块93,用于根据匹配区间人声数据流平均音强与所述歌曲对应字播放窗口区间音强的比值计算当前字的音强得分。
在音调计算模块91,若存在匹配区间,则将匹配区间的匹配度作为当前字的音调得分;节奏计算模块,用于根据匹配区间起始时间与对应字播放窗口区间起始时间的差值计算当前字的节奏得分;音强计算模块93,首先计算匹配区间人声数据流中每一帧的平均电平,然后根据匹配区间人声数据流中的平均电平计算演唱当前字时的平均音强,再根据演唱当前字时的平均音强与歌曲文件对应字播放窗口音强的比值计算当前字的音强得分。
另外,由于本系统是以歌曲中的字为基本单元,根据字的音调、节奏和音强计算歌曲中每个字的得分,再根据整个歌曲中所有字的得分获取歌曲的得分。需要注意的是,基于字的得分仅为基础得分,在基础得分的基础上,还可以包括以句为基础单位的附加得分和根据不同唱歌对象的模式得分。例如,附加评分可以包括升降调得分、句连续爆击得分和句随机倍数得分,这些附加评分项目可以增加评分过程中的娱乐性和互动性。
从以上的描述中,可以看出,本发明通过对歌唱者演唱歌曲中每个字的音调、节奏、音强进行实时评分,实现了基于基本单元字对歌曲进行实时评分,从而解决了现有的歌唱评分系统评分不准确、缺乏趣味性和互动性的技术问题,达到了从不同方面对演唱者水平进行实时评估的技术效果。
至此,已详细描述了本发明。为了避免蒙蔽本发明的构思,没有对本领域所公知的一些细节进行描述。本领域技术人员根据上面的描述,完全可以明白如何实施本发明公开的技术方案。
以上所述的具体实施方式,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施方式而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种实时演唱评分的方法,其特征在于,包括:
实时获取演唱歌曲时产生的人声数据流;
从人声数据流中提取演唱完当前字的演唱窗口区间;
获取当前字的演唱窗口区间与歌曲文件中对应字的参考窗口区间的匹配区间,其中,所述参考窗口区间为基于对应字的播放窗口区间偏移至少一个偏移时长后得到的至少一个偏移窗口区间的组合;
根据所述匹配区间计算当前字的演唱得分,并根据歌曲中所有字的演唱得分计算所述歌曲的演唱总分。
2.根据权利要求1所述的方法,其特征在于,所述获取当前字的演唱窗口区间与歌曲文件中对应字的参考窗口区间的匹配区间,包括:
获取演唱窗口区间中的演唱音调数据;
获取参考窗口区间中的参考音调数据;
将所述演唱音调数据与参考音调数据进行对比,选取音调匹配度大于匹配度阈值的窗口区间为匹配区间。
3.根据权利要求1所述的方法,其特征在于,所述根据所述匹配区间计算当前字的演唱得分,包括根据所述匹配区间的音调匹配度计算当前字的音调得分。
4.根据权利要求1所述的方法,其特征在于,所述根据所述匹配区间计算当前字的演唱得分,包括,计算当前字的节奏得分:
根据所述匹配区间起始时间与所述歌曲文件对应字播放窗口区间起始时间的差值计算当前字的节奏得分。
5.根据权利要求1所述的方法,其特征在于,所述根据所述匹配区间计算当前字的演唱得分,包括,计算当前字的音强得分:
根据匹配区间人声数据流的平均音强与所述歌曲文件对应字播放窗口区间音强的比值计算当前字的音强得分。
6.一种实时演唱评分系统,其特征在于,包括:
获取模块,用于实时获取演唱歌曲时产生的人声数据流;
提取模块,用于从人声数据流中提取演唱完当前字的演唱窗口区间;
匹配模块,用于获取当前字的演唱窗口区间与歌曲文件中对应字的参考窗口区间的匹配区间,其中,所述参考窗口区间为基于对应字的播放窗口区间偏移至少一个偏移时长后得到的至少一个偏移窗口区间的组合;
计算模块,用于根据所述匹配区间计算当前字的演唱得分,根据歌曲中所有字的演唱得分计算所述歌曲的演唱总分。
7.根据权利要求6所述的系统,其特征在于,所述匹配模块包括:
第一音调获取模块,用于获取演唱窗口区间中的演唱音调数据;
第二音调获取模块,用于获取参考窗口区间中的参考音调数据;
比对模块,用于将所述演唱音调数据与参考音调数据进行比对,选取音调匹配度大于匹配度阈值的窗口区间为匹配区间。
8.根据权利要求6所述的系统,其特征在于,所述计算模块包括:
音调计算模块,用于根据所述匹配区间的音调匹配度计算当前字的音调得分。
9.根据权利要求6所述的系统,其特征在于,所述计算模块还包括:
节奏计算模块,用于根据所述匹配区间起始时间与所述歌曲文件对应字播放窗口区间起始时间的差值计算当前字的节奏得分。
10.根据权利要求6所述的系统,其特征在于,所述计算模块还包括:
音强计算模块,用于根据匹配区间人声数据流的平均音强与所述歌曲文件对应字播放窗口区间音强的比值计算当前字的音强得分。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN201910016283.1A CN109903778B (zh) | 2019-01-08 | 2019-01-08 | 实时演唱评分的方法与系统 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN201910016283.1A CN109903778B (zh) | 2019-01-08 | 2019-01-08 | 实时演唱评分的方法与系统 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| CN109903778A true CN109903778A (zh) | 2019-06-18 |
| CN109903778B CN109903778B (zh) | 2020-09-25 |
Family
ID=66943671
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN201910016283.1A Active CN109903778B (zh) | 2019-01-08 | 2019-01-08 | 实时演唱评分的方法与系统 |
Country Status (1)
| Country | Link |
|---|---|
| CN (1) | CN109903778B (zh) |
Cited By (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN110060702A (zh) * | 2019-04-29 | 2019-07-26 | 北京小唱科技有限公司 | 用于演唱音高准确性检测的数据处理方法及装置 |
| CN111369975A (zh) * | 2020-03-17 | 2020-07-03 | 郑州工程技术学院 | 基于人工智能的大学音乐评分方法、装置、设备及存储介质 |
| CN113096689A (zh) * | 2021-04-02 | 2021-07-09 | 腾讯音乐娱乐科技(深圳)有限公司 | 一种歌曲演唱的评价方法、设备及介质 |
| CN115658959A (zh) * | 2022-10-26 | 2023-01-31 | 腾讯音乐娱乐科技(深圳)有限公司 | 歌唱打分方法、计算机设备及存储介质 |
| CN115691561A (zh) * | 2022-10-17 | 2023-02-03 | 北京雷石天地电子技术有限公司 | 演唱评分方法、装置、设备及存储介质 |
| CN117594065A (zh) * | 2023-12-06 | 2024-02-23 | 福建星网视易信息系统有限公司 | 基于八度偏移的演唱评分校正方法及存储介质 |
Citations (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN101441865A (zh) * | 2007-11-19 | 2009-05-27 | 盛趣信息技术(上海)有限公司 | 演唱类游戏的评分方法及系统 |
| CN103971674A (zh) * | 2014-05-22 | 2014-08-06 | 天格科技(杭州)有限公司 | 一种评分准确、用户体验好的演唱实时评分方法 |
| CN104170006A (zh) * | 2012-04-18 | 2014-11-26 | 雅马哈株式会社 | 演奏评价装置、卡拉ok装置及服务器装置 |
| JP2015051124A (ja) * | 2013-09-06 | 2015-03-19 | 国立大学法人三重大学 | 認知症の改善を支援するための装置、認知症の改善を支援するための方法、当該方法をコンピュータに実現させるためのプログラム |
| CN106571151A (zh) * | 2016-10-26 | 2017-04-19 | 腾讯音乐娱乐(深圳)有限公司 | 挑战录歌方法及装置 |
| CN106611603A (zh) * | 2015-10-26 | 2017-05-03 | 腾讯科技(深圳)有限公司 | 一种音频处理方法及装置 |
| CN106782600A (zh) * | 2016-12-29 | 2017-05-31 | 广州酷狗计算机科技有限公司 | 音频文件的评分方法及装置 |
| CN107393519A (zh) * | 2017-08-03 | 2017-11-24 | 腾讯音乐娱乐(深圳)有限公司 | 演唱评分的显示方法、装置及存储介质 |
| CN107507628A (zh) * | 2017-08-31 | 2017-12-22 | 广州酷狗计算机科技有限公司 | 唱歌评分方法、装置及终端 |
| CN108520735A (zh) * | 2018-02-06 | 2018-09-11 | 南京歌者盟网络科技有限公司 | 一种演奏的评分方法 |
| CN109003623A (zh) * | 2018-08-08 | 2018-12-14 | 爱驰汽车有限公司 | 车载唱歌评分系统、方法、设备及存储介质 |
-
2019
- 2019-01-08 CN CN201910016283.1A patent/CN109903778B/zh active Active
Patent Citations (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN101441865A (zh) * | 2007-11-19 | 2009-05-27 | 盛趣信息技术(上海)有限公司 | 演唱类游戏的评分方法及系统 |
| CN104170006A (zh) * | 2012-04-18 | 2014-11-26 | 雅马哈株式会社 | 演奏评价装置、卡拉ok装置及服务器装置 |
| JP2015051124A (ja) * | 2013-09-06 | 2015-03-19 | 国立大学法人三重大学 | 認知症の改善を支援するための装置、認知症の改善を支援するための方法、当該方法をコンピュータに実現させるためのプログラム |
| CN103971674A (zh) * | 2014-05-22 | 2014-08-06 | 天格科技(杭州)有限公司 | 一种评分准确、用户体验好的演唱实时评分方法 |
| CN106611603A (zh) * | 2015-10-26 | 2017-05-03 | 腾讯科技(深圳)有限公司 | 一种音频处理方法及装置 |
| CN106571151A (zh) * | 2016-10-26 | 2017-04-19 | 腾讯音乐娱乐(深圳)有限公司 | 挑战录歌方法及装置 |
| CN106782600A (zh) * | 2016-12-29 | 2017-05-31 | 广州酷狗计算机科技有限公司 | 音频文件的评分方法及装置 |
| CN107393519A (zh) * | 2017-08-03 | 2017-11-24 | 腾讯音乐娱乐(深圳)有限公司 | 演唱评分的显示方法、装置及存储介质 |
| CN107507628A (zh) * | 2017-08-31 | 2017-12-22 | 广州酷狗计算机科技有限公司 | 唱歌评分方法、装置及终端 |
| CN108520735A (zh) * | 2018-02-06 | 2018-09-11 | 南京歌者盟网络科技有限公司 | 一种演奏的评分方法 |
| CN109003623A (zh) * | 2018-08-08 | 2018-12-14 | 爱驰汽车有限公司 | 车载唱歌评分系统、方法、设备及存储介质 |
Cited By (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN110060702A (zh) * | 2019-04-29 | 2019-07-26 | 北京小唱科技有限公司 | 用于演唱音高准确性检测的数据处理方法及装置 |
| CN111369975A (zh) * | 2020-03-17 | 2020-07-03 | 郑州工程技术学院 | 基于人工智能的大学音乐评分方法、装置、设备及存储介质 |
| CN113096689A (zh) * | 2021-04-02 | 2021-07-09 | 腾讯音乐娱乐科技(深圳)有限公司 | 一种歌曲演唱的评价方法、设备及介质 |
| CN113096689B (zh) * | 2021-04-02 | 2024-06-14 | 腾讯音乐娱乐科技(深圳)有限公司 | 一种歌曲演唱的评价方法、设备及介质 |
| CN115691561A (zh) * | 2022-10-17 | 2023-02-03 | 北京雷石天地电子技术有限公司 | 演唱评分方法、装置、设备及存储介质 |
| CN115691561B (zh) * | 2022-10-17 | 2026-01-30 | 北京雷石天地电子技术股份有限公司 | 演唱评分方法、装置、设备及存储介质 |
| CN115658959A (zh) * | 2022-10-26 | 2023-01-31 | 腾讯音乐娱乐科技(深圳)有限公司 | 歌唱打分方法、计算机设备及存储介质 |
| CN117594065A (zh) * | 2023-12-06 | 2024-02-23 | 福建星网视易信息系统有限公司 | 基于八度偏移的演唱评分校正方法及存储介质 |
Also Published As
| Publication number | Publication date |
|---|---|
| CN109903778B (zh) | 2020-09-25 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US12033644B2 (en) | Automatic conversion of speech into song, rap or other audible expression having target meter or rhythm | |
| CN109903778A (zh) | 实时演唱评分的方法与系统 | |
| US20220262404A1 (en) | Audiovisual capture and sharing framework with coordinated, user-selectable audio and video effects filters | |
| CN102664016B (zh) | 唱歌评测方法及系统 | |
| CN109817191B (zh) | 颤音建模方法、装置、计算机设备及存储介质 | |
| CN104538011B (zh) | 一种音调调节方法、装置及终端设备 | |
| CN103915093B (zh) | 一种实现语音歌唱化的方法和装置 | |
| Molina et al. | SiPTH: Singing transcription based on hysteresis defined on the pitch-time curve | |
| CN107818796A (zh) | 一种音乐考试评定方法及系统 | |
| CN104616663A (zh) | 一种结合hpss的mfcc-多反复模型的音乐分离方法 | |
| CN107146497A (zh) | 一种钢琴考级评分系统 | |
| Nwe et al. | Singing voice detection in popular music | |
| CN115050387A (zh) | 一种艺术测评中多维度唱奏分析测评方法及系统 | |
| Shenoy et al. | Singing voice detection for karaoke application | |
| CN113129923A (zh) | 一种艺术测评中多维度唱奏分析测评方法及系统 | |
| CN109712634A (zh) | 一种自动声音转换方法 | |
| Loscos et al. | The wahwactor: a voice controlled wah-wah pedal | |
| Orio | # A Model for Human-Computer Interaction Based on the Recognition of Musical Gestures | |
| CN114913844A (zh) | 一种基音归一化重构的广播语种识别方法 | |
| Wegener et al. | On the robustness of audio features for musical instrument classification | |
| CN110827859A (zh) | 一种颤音识别的方法与装置 | |
| KR101312967B1 (ko) | 성별 판별 기능을 제공하는 가라오케 시스템 및 그 동작방법 | |
| Ananthakrishnan | Music and speech analysis using the ‘Bach’scale filter-bank | |
| Hodgkinson | CS425 Audio and Speech Processing | |
| CN120656485A (zh) | 一种汉语言的发音音准评估方法 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PB01 | Publication | ||
| PB01 | Publication | ||
| SE01 | Entry into force of request for substantive examination | ||
| SE01 | Entry into force of request for substantive examination | ||
| GR01 | Patent grant | ||
| GR01 | Patent grant | ||
| CP03 | Change of name, title or address | ||
| CP03 | Change of name, title or address |
Address after: 100101 8-307, 3rd floor, building 8, tianchangyuan, Chaoyang District, Beijing Patentee after: Beijing Leishi Tiandi Electronic Technology Co.,Ltd. Country or region after: China Address before: 100101 8-307, 3rd floor, building 8, tianchangyuan, Chaoyang District, Beijing Patentee before: BEIJING THUNDERSTONE TECHNOLOGY Co.,Ltd. Country or region before: China |