[go: up one dir, main page]

CN104978970A - 一种噪声信号的处理和生成方法、编解码器和编解码系统 - Google Patents

一种噪声信号的处理和生成方法、编解码器和编解码系统 Download PDF

Info

Publication number
CN104978970A
CN104978970A CN201410137474.0A CN201410137474A CN104978970A CN 104978970 A CN104978970 A CN 104978970A CN 201410137474 A CN201410137474 A CN 201410137474A CN 104978970 A CN104978970 A CN 104978970A
Authority
CN
China
Prior art keywords
linear prediction
prediction residual
signal
residual signal
spectral
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201410137474.0A
Other languages
English (en)
Other versions
CN104978970B (zh
Inventor
王喆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huawei Technologies Co Ltd
Original Assignee
Huawei Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to CN201410137474.0A priority Critical patent/CN104978970B/zh
Application filed by Huawei Technologies Co Ltd filed Critical Huawei Technologies Co Ltd
Priority to ES14888957T priority patent/ES2798310T3/es
Priority to KR1020187016493A priority patent/KR102132798B1/ko
Priority to EP14888957.9A priority patent/EP3131094B1/en
Priority to JP2017503044A priority patent/JP6368029B2/ja
Priority to PCT/CN2014/088169 priority patent/WO2015154397A1/zh
Priority to KR1020167026295A priority patent/KR101868926B1/ko
Priority to EP24195813.1A priority patent/EP4485458A3/en
Priority to EP19192008.1A priority patent/EP3671737A1/en
Priority to KR1020197015048A priority patent/KR102217709B1/ko
Publication of CN104978970A publication Critical patent/CN104978970A/zh
Priority to US15/280,427 priority patent/US9728195B2/en
Priority to US15/662,043 priority patent/US10134406B2/en
Priority to JP2018128182A priority patent/JP6636574B2/ja
Priority to US16/168,252 priority patent/US10734003B2/en
Application granted granted Critical
Publication of CN104978970B publication Critical patent/CN104978970B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/012Comfort noise or silence coding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/06Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/12Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
    • G10L19/13Residual excited linear prediction [RELP]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/26Pre-filtering or post-filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/032Quantisation or dequantisation of spectral components

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

本发明实施例提供了一种基于线性预测的噪声信号的处理方法、生成方法,编解码器和编解码系统。根据本发明实施例的噪声信号处理方法,包括:获取噪声信号,根据所述噪声信号得到线性预测系数;根据所述线性预测系数对所述噪声信号进行滤波,得到线性预测残差信号;根据所述线性预测残差信号得到所述线性预测残差信号的频谱包络;对所述线性预测残差信号的频谱包络进行编码。根据本发明实施例的噪声处理、生成方法、编解码器和编解码系统,能够更多的恢复出原始背景噪声信号的频谱细节,从而能够使舒适噪声的用户主观听觉感受更接近原始背景噪声,提高了用户的主观感受质量。

Description

一种噪声信号的处理和生成方法、编解码器和编解码系统
技术领域
本发明涉及音频信号处理领域,特别涉及一种噪声信号的处理和生成方法、编解码器和编解码系统。
背景技术
语音通信中只有大约40%的时间是包含语音的,其它时间都是静音或背景噪声(以下统称为背景噪声)。为了节省背景噪声的传输带宽,非连续传输系统(DTX,Discontinuous Transmission)和舒适噪声生成(CNG,Comfort NoiseGeneration)技术应运而生。
DTX是指编码器按照某种策略在背景噪声期间间歇的编码和发送音频信号,而不是连续的对每一帧音频信号都进行编码和发送。这种被间歇的编码和发送的帧,一般称做静音插入描述帧(SID,Silence Insertion Descriptor)。SID帧中通常都包含了背景噪声的一些特征参数,如能量参数,谱参数等。在解码端,解码器可以根据解码SID帧得到的背景噪声参数,生成连续的背景噪声重建信号,在DTX期间解码端生成连续背景噪声的方法就称作舒适噪声生成(CNG,Comfort Noise Generation)。CNG的目的并不是如实的重建出编码端的背景噪声信号,因为非连续的编码和传输背景噪声信号已经丢失了大量的时域背景噪声信息。CNG的目的是在解码端能够生成满足用户主观听觉感受要求的背景噪声,从而降低用户的不适感。
现有的CNG技术一般都是采用基于线性预测的方法,即通过在解码端用随机噪声激励去激励合成滤波器的方法来得到舒适噪声的。这样的方法虽然能得到背景噪声,但用户对生成的舒适噪声的主观听觉感受较原始背景噪声有一定的差别。在由连续编码帧向CN(Comfort Noise)帧过渡时,这种用户主观感受上的差别可能会引起用户主观上的不适。
第三代合作伙伴计划(3GPP,3nd Generation Partnership Project)的宽带自适应多速率编码(AMR-WB,Adaptive Multi-rate Wideband)标准中具体规定了CNG的使用方法,AMR-WB的CNG技术也是基于线性预测。在AMR-WB标准中,SID编码帧中包括对量化的背景噪声信号的能量系数和量化的线性预测系数,其中背景噪声能量系数是背景噪声的对数能量系数,量化的线性预测系数以量化的导抗谱频率(ISF,Immittance Spectral Frequencies)系数体现。在解码端,根据SID帧中包含的能量系数信息和线性预测系数信息,估计出当前背景噪声的能量和线性预测系数。利用随机数产生器生成一个随机噪声序列,做为生成舒适噪声的激励信号。根据估计出的当前背景噪声的能量,调整随机噪声序列的增益,使得随机噪声序列的能量与估计出的当前背景噪声的能量一致。使用经增益调整后的随机序列激励激励合成滤波器,其中合成滤波器的系数即为估计出的当前背景噪声的线性预测系数。合成滤波器的输出即为生成的舒适噪声。
采用由随机噪声序列做为激励信号生成的舒适噪声的方法,虽然能得到较为舒适的噪声,且也能大致恢复出原始背景噪声的频谱包络,但也导致原有背景噪声的频谱细节丢失了,使得生成的舒适噪声的主观听觉感受与原始背景噪声相比仍然有一定的差别。这种差别在由连续编码的语音段过渡到舒适噪声段时,可能会引起用户听觉主观上的不适。
发明内容
有鉴与此,为解决上述问题,本发明的实施例提供了一种舒适噪声生成的方法、装置和系统。根据本发明实施例的噪声处理、生成方法、编解码器和编解码系统,能够更多的恢复出原始背景噪声信号的频谱细节,从而能够使舒适噪声的用户主观听觉感受更接近原始背景噪声,减轻由连续传输过渡到非连续传输时的“切换感”,提高了用户的主观感受质量。
本发明第一方面的实施例提供了基于线性预测的噪声信号处理方法,所述方法包括:
获取噪声信号,根据所述噪声信号得到线性预测系数;
根据所述线性预测系数对所述噪声信号进行滤波,得到线性预测残差信号;
根据所述线性预测残差信号得到所述线性预测残差信号的频谱包络;
对所述线性预测残差信号的频谱包络进行编码。
根据本发明实施例的噪声处理方法,能够更多的恢复出原始背景噪声信号的频谱细节,从而能够使舒适噪声的用户主观听觉感受更接近原始背景噪声,提高了用户的主观感受质量。
结合本发明第一方面实施例的本发明第一方面实施例第一种可能实现的方式中,在根据所述线性预测残差信号得到所述线性预测残差信号的频谱包络之后,所述方法还包括:
根据所述线性预测残差信号的频谱包络得到所述线性预测残差信号的频谱细节;
相应的,所述对所述线性预测残差信号的频谱包络进行编码具体包括:
对所述线性预测残差信号的频谱细节进行编码。
结合本发明第一方面实施例第一种可能实现的方式的本发明第一方面实施例第二种可能实现的方式中,在所述得到线性预测残差信号之后,所述方法还包括:
根据所述线性预测残差信号得到所述线性预测残差信号的能量;
相应的,所述对所述线性预测残差信号的频谱细节进行编码,具体包括:
对所述线性预测系数、所述线性预测残差信号的能量、所述线性预测残差信号的频谱细节进行编码。
结合本发明第一方面实施例第二种可能实现的方式的本发明第一方面实施例第三种可能实现的方式中,所述根据所述线性预测残差信号的频谱包络得到所述线性预测残差信号的频谱细节具体为:
根据所述线性预测残差信号的能量得到随机噪声激励信号;
将所述线性预测残差信号的频谱包络和所述随机噪声激励信号的频谱包络之间的差作为所述线性预测残差信号的频谱细节。
结合本发明第一方面实施例第一种可能实现的方式和本发明第一方面实施例第二种可能实现的方式的本发明第一方面实施例第四种可能实现的方式中,所述根据所述线性预测残差信号的频谱包络得到所述线性预测残差信号的频谱细节,具体包括:
根据所述线性预测残差信号的频谱包络得到第一带宽的频谱包络,其中,所述第一带宽在所述线性预测残差信号的带宽范围内;
根据所述第一带宽的频谱包络得到所述线性预测残差信号的频谱细节。
结合本发明第一方面实施例第四种可能实现的方式的本发明第一方面实施例第五种可能实现的方式中,所述根据所述线性预测残差信号的带宽得到第一带宽的频谱包络,具体包括:
计算所述线性预测残差信号的频谱结构性,将所述线性预测残差信号的第一部分的频谱作为第一带宽的频谱包络,其中所述第一部分的频谱的结构性大于所述线性预测残差信号中除第一部分之外的其它部分的频谱的结构性。
结合本发明第一方面实施例第五种可能实现的方式的本发明第一方面实施例第六种可能实现的方式中,根据下列之一的方式计算所述线性预测残差信号的频谱结构性:
根据所述噪声信号的频谱包络计算所述线性预测残差信号的频谱结构性;和
根据所述线性预测残差信号的频谱包络计算所述线性预测残差信号的频谱结构性。
结合本发明第一方面实施例第一种可能实现的方式的本发明第一方面实施例第七种可能实现的方式中,在所述根据所述线性预测残差信号的频谱包络得到所述线性预测残差信号的频谱细节之后,所述方法还包括:
根据所述线性预测残差信号的频谱细节计算所述线性预测残差信号的频谱结构性,根据所述频谱结构性得到所述线性预测残差信号的第二带宽的频谱细节,其中,所述第二带宽在所述线性预测残差信号的带宽范围内,所述第二带宽的频谱结构性大于所述线性预测残差信号中除第二带宽之外的其它带宽的频谱结构性;
相应的,所述对所述线性预测残差信号的频谱包络进行编码具体包括:
对所述线性预测残差信号的所述第二带宽的频谱细节进行编码。
本发明第二方面的实施例提供了一种基于线性预测的舒适噪声信号的生成方法,所述方法包括:
接收码流,解码所述码流得到频谱细节和线性预测系数,所述频谱细节表示线性预测激励信号的频谱包络;
根据所述频谱细节得到所述线性预测激励信号;
根据所述线性预测系数和所述线性预测激励信号,得到舒适噪声信号。
根据本发明实施例的噪声生成方法,能够更多的恢复出原始背景噪声信号的频谱细节,从而能够使舒适噪声的用户主观听觉感受更接近原始背景噪声,提高了用户的主观感受质量。
结合本发明第二方面实施例的本发明第二方面实施例第一种可能实现的方式中,所述频谱细节为所述线性预测激励信号的频谱包络。
结合本发明第二方面实施例第一种可能实现的方式的本发明第二方面实施例第二种可能实现的方式中,所述码流包括线性预测激励能量,在所述根据所述线性预测系数和所述线性预测激励信号,得到舒适噪声信号之前,所述方法还包括:
根据所述线性预测激励能量得到第一噪声激励信号,其中,所述第一噪声激励信号的能量等于所述线性预测激励能量;
根据所述第一噪声激励信号和所述频谱包络得到第二噪声激励信号;
相应的,所述根据所述线性预测系数和所述线性预测激励信号,得到舒适噪声信号,具体包括:
根据所述线性预测系数和所述第二噪声激励信号,得到所述舒适噪声信号。
结合本发明第二方面实施例的本发明第二方面实施例第三种可能实现的方式中,所述码流包括线性预测激励能量,在所述根据所述线性预测系数和所述线性预测激励信号,得到舒适噪声信号之前,所述方法还包括:
根据所述线性预测激励能量得到第一噪声激励信号,其中,所述第一噪声激励信号的能量等于所述线性预测激励能量;
根据所述第一噪声激励信号和所述线性预测激励信号得到第二噪声激励信号;
相应的,所述根据所述线性预测系数和所述线性预测激励信号,得到舒适噪声信号,具体包括:
根据所述线性预测系数和所述第二噪声激励信号,得到所述舒适噪声信号。
本发明第三方面的实施例提供了一种编码器,所述编码器包括:
获取模块,用于获取噪声信号,根据所述噪声信号得到线性预测系数;
滤波器,用于根据所述获取模块得到的所述线性预测系数对所述噪声信号进行滤波,得到线性预测残差信号;
频谱包络生成模块,用于根据所述线性预测残差信号得到所述线性预测残差信号的频谱包络;
编码模块,用于对所述线性预测残差信号的频谱频谱进行编码。
根据本发明实施例的编码器,能够更多的恢复出原始背景噪声信号的频谱细节,从而能够使舒适噪声的用户主观听觉感受更接近原始背景噪声,提高了用户的主观感受质量。
结合本发明第三方面实施例的本发明第三方面实施例第一种可能实现的方式中,所述编码器还包括:
频谱细节生成模块,用于根据所述线性预测残差信号的频谱包络得到所述线性预测残差信号的频谱细节;
相应的,所述编码模块具体用于对所述线性预测残差信号的频谱细节进行编码。
结合本发明第三方面实施例第一种可能实现的方式的本发明第三方面实施例第二种可能实现的方式中,所述编码器还包括:
残差能量计算模块,用于根据所述线性预测残差信号得到所述线性预测残差信号的能量;
相应的,所述编码模块具体用于对所述线性预测系数、所述线性预测残差信号的能量、所述线性预测残差信号的频谱细节进行编码。
结合本发明第三方面实施例第二种可能实现的方式的本发明第三方面实施例第三种可能实现的方式中,所述频谱细节生成模块具体用于:
根据所述线性预测残差信号的能量得到随机噪声激励信号;
将所述线性预测残差信号的频谱包络和所述随机噪声激励信号的频谱包络之间的差作为所述线性预测残差信号的频谱细节。
结合本发明第三方面实施例第一种可能实现的方式和本发明第三方面实施例第二种可能实现的方式的本发明第三方面实施例第四种可能实现的方式中,所述频谱细节生成模块包括:
第一带宽频谱包络生成单元,用于根据所述线性预测残差信号的频谱包络得到第一带宽的频谱包络,其中,所述第一带宽在所述线性预测残差信号的带宽范围内;
频谱细节计算单元,用于根据所述第一带宽的频谱包络得到所述线性预测残差信号的频谱细节。
结合本发明第三方面实施例第四种可能实现的方式的本发明第三方面实施例第五种可能实现的方式中,所述第一带宽频谱包络生成单元具体用于:
计算所述线性预测残差信号的频谱结构性,将所述线性预测残差信号的第一部分的频谱作为第一带宽的频谱包络,其中所述第一部分的频谱的结构性大于所述线性预测残差信号中除第一部分之外的其它部分的频谱的结构性。
结合本发明第三方面实施例第五种可能实现的方式的本发明第三方面实施例第六种可能实现的方式中,所述第一带宽频谱包络生成单元根据下列之一的方式计算所述线性预测残差信号的频谱结构性:
根据所述噪声信号的频谱包络计算所述线性预测残差信号的频谱结构性;和
根据所述线性预测残差信号的频谱包络计算所述线性预测残差信号的频谱结构性。
结合本发明第三方面实施例第一种可能实现的方式的本发明第三方面实施例第七种可能实现的方式中,,所述频谱细节生成模块具体用于:
根据所述线性预测残差信号的频谱包络得到所述线性预测残差信号的频谱细节,根据所述线性预测残差信号的频谱细节计算所述线性预测残差信号的频谱结构性,根据所述频谱结构性得到所述线性预测残差信号的第二带宽的频谱细节,其中,所述第二带宽在所述线性预测残差信号的带宽范围内,所述第二带宽的频谱结构性大于所述线性预测残差信号中除第二带宽之外的其它带宽的频谱结构性;
相应的,所述编码模块具体用于对所述线性预测残差信号的所述第二带宽的频谱细节进行编码。
本发明第四方面的实施例提供了一种解码器,所述解码器包括:
接收模块,用于接收码流,并用于解码所述码流得到频谱细节和线性预测系数,所述频谱细节表示线性预测激励信号的频谱包络;
线性残差信号生成模块,用于根据所述频谱细节得到所述线性预测激励信号;
舒适噪声信号生成模块,用于根据所述线性预测系数和所述线性预测激励信号,得到舒适噪声信号。
根据本发明实施例的解码器,能够更多的恢复出原始背景噪声信号的频谱细节,从而能够使舒适噪声的用户主观听觉感受更接近原始背景噪声,提高了用户的主观感受质量。
结合本发明第四方面实施例的本发明第四方面实施例第一种可能实现的方式中,所述频谱细节为所述线性预测激励信号的频谱包络。
结合本发明第二方面实施例第一种可能实现的方式的本发明第二方面实施例第二种可能实现的方式中,所述码流包括线性预测激励能量,在所述根据所述线性预测系数和所述线性预测激励信号,得到舒适噪声信号之前,所述方法还包括:
根据所述线性预测激励能量得到第一噪声激励信号,其中,所述第一噪声激励信号的能量等于所述线性预测激励能量;
根据所述第一噪声激励信号和所述频谱包络得到第二噪声激励信号;
相应的,所述根据所述线性预测系数和所述线性预测激励信号,得到舒适噪声信号,具体包括:
根据所述线性预测系数和所述第二噪声激励信号,得到所述舒适噪声信号。
结合本发明第四方面实施例的本发明第四方面实施例第三种可能实现的方式中,所述码流包括线性预测激励能量,所述解码器还包括:
第一噪声激励信号生成模块,用于根据所述线性预测激励能量得到第一噪声激励信号,其中,所述第一噪声激励信号的能量等于所述线性预测激励能量;
第二噪声激励信号生成模块,用于根据所述第一噪声激励信号和所述线性预测激励信号得到第二噪声激励信号;
相应的,所述舒适噪声信号生成模块,具体用于根据所述线性预测系数和所述第二噪声激励信号,得到所述舒适噪声信号。
本发明第五方面的实施例提供了一种编解码系统,所述编解码系统包括:
如本发明第三方面任意之一实施例所述的编码器,和,如本发明第四方面任意之一实施例所述的解码器。
根据本发明实施例的编解码系统,能够更多的恢复出原始背景噪声信号的频谱细节,从而能够使舒适噪声的用户主观听觉感受更接近原始背景噪声,提高了用户的主观感受质量。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为现有技术中舒适噪声生成的处理流程图。
图2为现有技术中的生成舒适噪声频谱的示意图。
图3为本发明实施例的编码端生成频谱细节残差的示意图。
图4为本发明实施例的解码端生成舒适噪声频谱的示意图。
图5为本发明实施例的一种基于线性预测的噪声处理方法的流程图。
图6为本发明实施例的一种舒适噪声生成方法的流程图。
图7为本发明实施例的编码器的结构图。
图8为本发明实施例的解码器的结构图。
图9为本发明实施例的编解码系统的结构图。
图10为本发明实施例的从编码端到解码端的完整流程示意图。
图11为本发明实施例的编码端得到残差频谱细节的示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1描述了一个基本的基于线性预测原理的舒适噪声生成(CNG,ComfortNoise Generation)技术框图。线性预测的基本思想是:由于语音信号样点之间存在相关性,所以可以用过去的样点值来预测现在或未来的样点值,即一个语音的抽样能够用过去若干个语音抽样的线性组合来逼近,通过使实际语音信号抽样值和线性预测抽样值之间的误差在均方准则下达到最小值来求解预测系数,而这预测系数就反映了语音信号的特征,故可以用这组语音特征参数进行语音识别或语音合成等。
如图1所示,在编码端,编码器根据输入的时域背景噪声信号求得线性预测系数(LPC,Linear Prediction Coefficients)。现有技术中提供了多种具体求取线性预测系数的方法,比较常用的方法如Levinson Durbin算法。
将输入的时域背景噪声信号进一步通过一个线性预测分析滤波器,得到滤波后的残差信号,即线性预测残差。其中线性预测分析滤波器的滤波器系数即为上一步求得的LPC系数。根据线性预测残差,求得线性预测残差能量。在一定程度上,线性预测残差能量和LPC系数可以分别表示输入的背景噪声信号的能量和频谱包络,将线性预测残差能量和LPC系数编码到静音插入描述(SID,Silence Insertion Descriptor)帧。具体在SID帧中对LPC系数的编码一般都不是LPC系数的直接形式,而是一些变形,如导抗谱对(ISP,Immittance Spectral Pair)/导抗谱频率(ISF,Immittance Spectral Frequencies),线谱对(LSP,Line SpectralPair)/线谱频率(LSF,Line Spectral Frequencies)等,但本质上都表示LPC系数。
相应的,在一定时间内,解码器接收的SID帧是不连续的,解码器通过解码SID帧获得解码后的线性预测残差能量和LPC系数。解码器使用解码得到的线性预测残差能量和LPC系数更新用于生成当前舒适噪声帧的线性预测残差能量和LPC系数。解码器可以通过用随机噪声激励去激励合成滤波器的方法来生成舒适噪声,随机噪声激励由一个随机噪声激励产生器产生。产生出的随机噪声激励通常会被进行一个增益调整,以使增益调整后的随机噪声激励的能量与当前舒适噪声的线性预测残差能量一致。用于生成舒适噪声的线性预测合成滤波器的滤波器系数即为当前舒适噪声的LPC系数。
由于线性预测系数一定程度上能够表征输入背景噪声信号的频谱包络,所以经随机噪声激励激励的线性预测合成滤波器的输出也在一定程度上能够反映原始背景噪声信号的频谱包络。图2表示了现有CNG技术生成的舒适噪声的频谱。
现有基于线性预测的CNG技术,由随机噪声激励生成舒适噪声,其频谱包络也仅仅是反映了一个原始背景噪声的非常粗糙的包络。然而当原始背景噪声具有一定的频谱结构时,现有CNG生成的舒适噪声在用户听觉主观上仍然会与原始背景噪声有一定的区别。
编码器在由连续编码过渡到非连续编码时,即由活动语音信号过渡到背景噪声信号时,背景噪声段的若干初始噪声帧仍然会被以连续编码的方式编码,这使得解码器重建的背景噪声信号会有一个从高质量背景噪声到舒适噪声的过渡。在原始背景噪声具有一定的频谱结构时,这种过渡可能会因为舒适噪声与原始背景噪声的区别而造成用户主观听觉上的不适感。为了解决这个问题,本发明实施例的技术方案的目的是在生成的舒适噪声中也一定程度上恢复出原始背景噪声的频谱细节。
下面结合图3和图4对描述本发明实施例的技术方案的整体情况。
如图3所示,如果将原始背景噪声信号与解码端生成的初始舒适噪声信号进行比较,得到初始差信号,其中初始差信号的频谱即代表了初始舒适噪声信号的频谱与原始背景噪声信号的频谱的差异。将初始差信号通过一个线性预测分析滤波器进行滤波,得到一个残差信号R。
如图4所示,如果在解码端,做为上述处理的逆过程,将该残差信号R做为激励信号通过一个线性预测合成滤波器,可以还原得到初始差信号;在本发明的一个实施例中,如果线性预测合成滤波器系数与分析滤波器系数是完全相同的,且解码端的残差信号R与编码端也是一样的,那么得到的信号就和原始差信号是相同的。在生成舒适噪声时,在现有随机噪声激励以外再增加一个频谱细节激励,其中频谱细节激励即对应于上述的残差信号R,将随机噪声激励与频谱细节激励的和信号做为完整的激励信号激励线性预测合成滤波器,最后得到的舒适噪声信号将具有和原始背景噪声信号一致或近似的频谱。在本发明的一个实施例中,随机噪声激励与频谱细节激励的和信号,就是把随机噪声激励的时域信号和频谱细节激励的时域信号的直接叠加,即把相同时间上的样点直接相加。
本发明的技术方案在SID帧中还包含了线性预测残差信号R的频谱细节信息,在编码端将残差信号R的频谱细节信息编码并传送给解码端。频谱细节信息既可以是表示完整的频谱包络,又可以是表示部分的频谱包络,也可以是频谱包络与本底包络的差信息。这里的本底包络既可以是一个包络均值,也可以是另一个信号的频谱包络。
在解码端,解码器在构建用于生成舒适噪声的激励信号时,在构建随机噪声激励以外,还构建一个频谱细节激励。将由随机噪声激励和频谱细节激励组合的和激励通过线性预测合成滤波器,得到舒适噪声信号。由于背景噪声信号的相位通常都具有随机性,频谱细节激励信号的相位并不要求与残差信号R一致,而只需使频谱细节激励信号的频谱包络与残差信号R的频谱细节一致就可以了。
下面结合图5描述本发明的实施例一种基于线性预测的噪声信号处理方法,如图5所示,基于线性预测的噪声信号处理方法包括:
S51:获取噪声信号,根据噪声信号得到线性预测系数。
现有技术中提供了很多的线性预测系数的获取方法,在一个具体的示例中,利用Levinson-Durbin算法获得噪声信号帧的线性预测系数。
S52:根据线性预测系数对噪声信号进行滤波,得到线性预测残差信号。
将噪声信号帧通过线性预测分析滤波器,获得音频信号帧的线性预测残差,其中线性预测滤波器的滤波器系数要参考步骤S51求得的线性预测系数。
在一个实施例中,线性预测滤波器的滤波器系数和步骤S51计算出来的线性预测系数可以是相等的;在另一个实施例中,线性预测滤波器的滤波器系数可以是之前计算出的线性预测系数经量化后的值。
S53:根据线性预测残差信号得到线性预测残差信号的频谱包络。
在本发明的一个实施例中,在得到线性预测残差信号的频谱包络之后,根据线性预测残差信号的频谱包络得到线性预测残差信号的频谱细节。
线性预测残差信号的频谱细节可以由线性预测残差的频谱包络与随机噪声激励的频谱包络的差表示。其中,随机噪声激励是在编码器中产生的本地激励,其产生方式可以和解码器中的产生方式一致。这里的产生方式一致既可指随机数产生器的实现形式一致,也可指随机数产生器的随机种子保持同步。
在本发明的实施例中,线性预测残差信号的频谱细节既可以是表示完整的频谱包络,又可以是表示部分的频谱包络,也可以是频谱包络与本底包络的差信息。这里的本底包络既可以是一个包络均值,也可以是另一个信号的频谱包络。
随机噪声激励的能量和线性预测残差信号的能量一致,在本发明的一个实施例中,可以直接由线性预测残差信号得到线性预测残差信号的能量。
在一个实施例中,线性预测残差信号的频谱包络和随机噪声激励的频谱包络可由分别对他们的时域信号做快速傅里叶变换(FFT,Fast Fourier Transform)得到。
在本发明的一个实施例中,根据线性预测残差信号的频谱包络得到线性预测残差信号的频谱细节,具体包括:
线性预测残差信号的频谱细节可以由线性预测残差的频谱包络与一个频谱包络均值的差表示。其中频谱包络均值可以看作是一个平均频谱包络,根据线性预测残差信号的能量得到,即平均频谱包络各包络的能量和应对应于线性预测残差信号的能量。
在本发明的一个实施例中,根据线性预测残差信号的频谱包络得到线性预测残差信号的频谱细节,具体包括:
根据线性预测残差信号的频谱包络得到第一带宽的频谱包络,其中,第一带宽在线性预测残差信号的带宽范围内;
根据第一带宽的频谱包络得到线性预测残差信号的频谱细节。
在本发明的一个实施例中,根据线性预测残差信号的带宽得到第一带宽的频谱包络,具体包括:
计算线性预测残差信号的频谱结构性,将线性预测残差信号的第一部分的频谱作为第一带宽的频谱包络,其中第一部分的频谱的结构性大于线性预测残差信号中除第一部分之外的其它部分的频谱的结构性。
在本发明的一个实施例中,根据下列之一的方式计算线性预测残差信号的频谱结构性:
根据噪声信号的频谱包络计算线性预测残差信号的频谱结构性;和
根据线性预测残差信号的频谱包络计算线性预测残差信号的频谱结构性。
在本发明的一个实施例中,也可以先计算线性预测残差信号的全部频谱细节,然后根据线性预测残差信号的频谱细节计算线性预测残差信号的频谱结构性,在步骤S54编码时,可以根据频谱结构性对部分频谱细节进行编码。在一个具体的实施例中,可以只对结构性最强的频谱细节进行编码。具体的计算方式可参考本发明其它相关的实施例和本领域普通技术人员不需要创造性劳动所能想到的其它方式,在此不再赘述。
S54:对线性预测残差信号的频谱包络进行编码。
在本发明的一个实施例中,对线性预测残差信号的频谱包络进行编码具体为对线性预测残差信号的频谱细节进行编码。
在本发明的一个实施例中,线性预测残差信号的频谱包络可以只是线性预测残差信号部分频谱的频谱包络。如一个实施例中可以只是线性预测残差信号低频部分的频谱包络。
具体被编入码流的参数,在一个实施例中可以仅是代表当前帧的参数,而在另一个实施例中也可以是代表各自参数在若干帧中的一个平滑值,如平均值,加权平均值或滑动平均值等根据本发明实施例的基于线性预测的噪声信号处理方法,能够更多的恢复出原始背景噪声信号的频谱细节,从而能够使舒适噪声的用户主观听觉感受更接近原始背景噪声,减轻由连续传输过渡到非连续传输时的“切换感”,提高了用户的主观感受质量。
下面结合图6描述根据本发明实施例的一种基于线性预测的舒适噪声信号的生成方法,如图6所示,本发明实施例的一种基于线性预测的舒适噪声信号的生成方法包括:
S61:接收码流,解码码流得到频谱细节和线性预测系数,频谱细节表示线性预测激励信号的频谱包络。
在本发明的一个实施例中,具体的,频谱细节可以和线性预测激励信号的频谱包络一致。
S62:根据频谱细节得到线性预测激励信号。
在本发明的一个实施例中,当频谱细节为线性预测激励信号的频谱包络时,则可根据线性预测激励信号的频谱包络得到线性预测激励信号。
S63:根据线性预测系数和线性预测激励信号,得到舒适噪声信号。
在本发明的一个实施例中,码流包括线性预测激励能量,在根据线性预测系数和线性预测激励信号,得到舒适噪声信号之前,方法还包括:
根据线性预测激励能量得到第一噪声激励信号,其中,第一噪声激励信号的能量等于线性预测激励能量;
根据第一噪声激励信号和线性预测激励信号得到第二噪声激励信号;
相应的,根据线性预测系数和线性预测激励信号,得到舒适噪声信号,具体包括:
根据线性预测系数和第二噪声激励信号,得到舒适噪声信号。
在本发明的一个实施例中,当接收到的频谱细节和线性预测激励信号的频谱包络一致时,解码端接收的码流可以包括线性预测激励能量。
根据线性预测激励能量得到第一噪声激励信号,其中,第一噪声激励信号的能量等于线性预测激励能量;
根据第一噪声激励信号和频谱包络得到第二噪声激励信号;
相应的,根据线性预测系数和线性预测激励信号,得到舒适噪声信号,具体包括:
根据线性预测系数和第二噪声激励信号,得到舒适噪声信号。
在本发明的一个实施例中,当解码器接收到码流时,解码码流并获得解码后的线性预测系数、线性预测激励能量和频谱细节。
根据线性预测残差能量构建随机噪声激励。具体方法为:首先利用随机数产生器产生一组随机数序列,随机数序列做增益调整,使得调整后的随机数序列的能量与线性预测残差能量一致。调整后的随机数序列即为随机噪声激励。
根据频谱细节构建频谱细节激励。基本方法为通过频谱细节对随机化相位的FFT系数序列进行增益调整,使得增益调整后的FFT系数对应的频谱包络与频谱细节一致。最后经反快速傅里叶变换(IFFT,Inverse Fast Fourier Transform)变换得到频谱细节激励。
在本发明的一个实施例中,构建的具体方法为:利用随机数产生器生成N点的随机数序列,做为随机化相位和幅度的FFT系数序列。将增益调整后的FFT系数经IFFT转换为时域信号,即为频谱细节激励。将随机噪声激励与频谱细节激励合并,得到完整的激励。
最后,使用完整的激励去激励线性预测合成滤波器,得到舒适噪声帧,其中合成滤波器的系数为线性预测系数。
下面结合图7描述编码器70,如图7所示,编码器70包括:
获取模块71,用于获取噪声信号,根据噪声信号得到线性预测系数;
滤波器72,和获取模块71相连,用于根据获取模块71得到的线性预测系数对噪声信号进行滤波,得到线性预测残差信号;
频谱包络生成模块73,和滤波器72相连,用于根据线性预测残差信号得到线性预测残差信号的频谱包络;
编码模块74,和频谱包络生成模块73相连,用于对线性预测残差信号的频谱包络进行编码。
在本发明的一个实施例中,编码器70还包括频谱细节生成模块76,频谱细节生成模块76分别和编码模块74、频谱包络生成模块73相连,用于根据线性预测残差信号的频谱包络得到线性预测残差信号的频谱细节。
则相应的,编码模块74具体用于对线性预测残差信号的频谱细节进行编码。
在本发明的一个实施例中,编码器70还包括:
残差能量计算模块75,和滤波器72相连,用于根据线性预测残差信号得到线性预测残差信号的能量;
相应的,编码模块74具体用于对线性预测系数、线性预测残差信号的能量、线性预测残差信号的频谱细节进行编码。
在本发明的一个实施例中,频谱细节生成模块76具体用于:
根据线性预测残差信号的能量得到随机噪声激励信号;
将线性预测残差信号的频谱包络和随机噪声激励信号的频谱包络之间的差作为线性预测残差信号的频谱细节。
在本发明的一个实施例中,频谱细节生成模块76包括:
第一带宽频谱包络生成单元761,用于根据线性预测残差信号的频谱包络得到第一带宽的频谱包络,其中,第一带宽在线性预测残差信号的带宽范围内;
频谱细节计算单元762,用于根据第一带宽的频谱包络得到线性预测残差信号的频谱细节。
在本发明的一个实施例中,第一带宽频谱包络生成单元761具体用于:
计算线性预测残差信号的频谱结构性,将所述线性预测残差信号的第一部分的频谱作为第一带宽的频谱包络,其中所述第一部分的频谱的结构性大于所述线性预测残差信号中除第一部分之外的其它部分的频谱的结构性。
在本发明的一个实施例中,第一带宽频谱包络生成单元761根据下列之一的方式计算线性预测残差信号的频谱结构性:
根据噪声信号的频谱包络计算线性预测残差信号的频谱结构性;和
根据线性预测残差信号的频谱包络计算线性预测残差信号的频谱结构性。
可以理解的是,编码器70的工作流程还可参考图5的方法实施例和图10、图11的编码端的实施例,在此不再赘述。
下面结合图8描述解码器80,如图8所示,解码器80包括:
接收模块81,用于接收码流,并用于解码码流得到频谱细节和线性预测系数,频谱细节表示线性预测激励信号的频谱包络;
在本发明的一个实施例中,频谱细节即为线性预测激励信号的频谱包络。
线性预测激励信号生成模块82,和接收模块81相连,用于根据频谱细节得到线性残差信号;
舒适噪声信号生成模块83,分别和接收模块81、线性预测激励信号生成模块82相连,用于根据线性预测系数和线性预测激励信号,得到舒适噪声信号。
在本发明的一个实施例中,码流包括线性预测残差能量,解码器80还包括:
第一噪声激励信号生成模块84,和接收模块81相连,用于根据线性预测激励能量得到第一噪声激励信号,其中,第一噪声激励信号的能量等于线性预测激励能量;
第二噪声激励信号生成模块85,分别和线性预测激励信号生成模块82、第一噪声激励信号生成模块84相连,用于根据第一噪声激励信号和线性预测激励信号得到第二噪声激励信号;
相应的,舒适噪声信号生成模块83,具体用于根据线性预测系数和第二噪声激励信号,得到舒适噪声信号。
可以理解的是,解码器80的工作流程还可参考图6的方法实施例和图10的解码端的实施例,在此不再赘述。
下面结合图9描述编解码系统90,如图9所示,编解码系统90包括:
编码器70和解码器80。具体的编码器70和解码器80的工作流程可参考本发明的其它实施例。
一个描述本发明技术方案的CNG技术的技术框图如图10所示。
如图10所示,在一个具体的编码器实施例中,首先利用Levinson-Durbin算法获得音频信号帧s(i)的线性预测系数lpc(k),其中,i=0,1,…N-1;k=0,1,…M-1;N表示音频信号帧的时域样点个数,M表示线性预测的阶数。将音频信号帧s(i)通过线性预测分析滤波器A(Z),获得音频信号帧的线性预测残差R(i),i=0,1,…N-1,其中线性预测滤波器A(Z)的滤波器系数为lpc(k),k=0,1,…M-1。
在一个实施例中,线性预测滤波器A(Z)的滤波器系数和前面计算出来的音频信号帧s(i)的线性预测系数lpc(k)可以是相等的;在另一个实施例中,线性预测滤波器A(Z)的滤波器系数可以是之前计算出的音频信号帧s(i)的线性预测系数lpc(k)经量化后的值;为了表述简洁,这里统一用lpc(k)表示线性预测滤波器A(Z)的滤波器系数。
获得线性预测残差R(i)的过程可表示如下:
R ( i ) = Σ k = 0 M - 1 lpc ( k ) · s ( i - k ) ;
其中,lpc(k)表示线性预测滤波器A(Z)的滤波器系数,M表示音频信号帧的时域样点个数,k为自然数,s(i-k)表示音频信号帧。
在一个实施例中,可以直接由线性预测残差R(i)得到线性预测残差的能量ER
E R = Σ i = 0 N - 1 s 2 ( i ) ;
其中,s(i)为音频信号帧,N表示线性预测残差的时域样点数。
线性预测残差R(i)的频谱细节信息可以由线性预测残差R(i)的频谱包络与随机噪声激励EXR(i)的频谱包络的差表示,i=0,1,…N-1。其中,随机噪声激励EXR(i)是在编码器中产生的本地激励,其产生方式可以和解码器中的产生方式一致,EXR(i)的能量为ER。这里的产生方式一致既可指随机数产生器的实现形式一致,也可指随机数产生器的随机种子保持同步。在一个实施例中,线性预测残差R(i)的频谱包络和随机噪声激励EXR(i)的频谱包络可由分别对他们的时域信号做快速傅里叶变换(FFT,Fast Fourier Transform)得到。
在本发明的实施例中,因为随机噪声激励是在编码端处生成的,所以随机噪声激励的能量是可以控制的,这里就是要使得产生的随机噪声激励的能量和线性预测残差的能量相等,此处为了简洁仍然用ER表示随机噪声激励的能量。
在本发明的一个实施例中,以SR(j)表示线性预测残差R(i)的频谱包络,以SXR(j)表示随机噪声激励EXR(i)的频谱包络,其中j=0,1,…K-1,K为频谱包络的个数。则,
SR ( j ) = 1 h ( j ) - l ( j ) + 1 · Σ m = l ( j ) h ( j ) B R ( m ) ;
S X R ( j ) = 1 h ( j ) - l ( j ) + 1 · Σ m = l ( j ) h ( j ) B XR ( m ) ;
其中,BR(m),BXR(m)分别表示线性预测残差和随机噪声激励的FFT能量谱,m表示第m个FFT频点,h(j)和l(j)分别表示第j个频谱包络的上下限所对应的FFT频点。频谱包络个数K的选取可以是频谱分辨率与编码速率的折中,K越大频谱分辨率越高,但需要编码的比特数会更多,反之K越小频谱分辨率越低,但需要编码的比特数会减小。通过SR(j)与SXR(j)的差,得到线性预测残差R(i)的频谱细节SD(j)。编码器编码SID帧时,分别量化线性预测系数lpc(k)、线性预测残差能量ER和线性预测残差频谱细节SD(j),其中线性预测系数lpc(k)的量化通常在ISP/ISF,LSP/LSF域上进行。由于对各参数具体的量化方法是现有技术,非本发明的发明内容,这里不再详述。
另一个实施例中,线性预测残差R(i)的频谱细节信息可以由线性预测残差R(i)的频谱包络与一个频谱包络均值的差表示。以SR(j)表示线性预测残差R(i)的频谱包络,以SM(j)表示频谱包络均值或平均频谱包络,其中j=0,1,…K-1,K为频谱包络的个数。则,
SR ( j ) = 1 h ( j ) - l ( j ) + 1 · Σ m = lω hω E R ( m ) ;
SM(j)=ER/K,j=0,1,...K-1;
其中,ER(m)表示线性预测残差的FFT能量谱,m表示第m个FFT频点,h(j)和l(j)分别表示第j个频谱包络的上下限所对应的FFT频点。SM(j)表示频谱包络均值或平均频谱包络,ER为线性预测残差的能量.
具体被编码入SID帧的参数,在一个实施例中可以仅是代表当前帧的参数,而在另一个实施例中也可以是代表各自参数在若干帧中的一个平滑值,如平均值,加权平均值或滑动平均值等。
更具体的,如图11所示,在结合图10所示的技术方案中,频谱细节SD(j)可以覆盖信号的全部带宽也可以仅覆盖部分带宽。在一个实施例中,频谱细节SD(j)可以只覆盖信号的低频带,因为一般而言噪声的多数能量都集中在低频。在另一实施例中,频谱细节SD(j)还可以自适应的选择一个频谱结构性最强的带宽覆盖。此时需要额外编码该频带的位置信息,如起始频点的位置等。上述技术方案中的频谱结构性强弱既可在线性预测残差频谱上计算,也可以在线性预测残差频谱和随机噪声激励频谱的差信号上计算,还可以在原始输入信号频谱上计算,或者在原始输入信号频谱与由随机噪声激励信号激励合成滤波器所得到的合成噪声信号的频谱的差信号上计算。频谱结构性强弱可由各种经典方法计算,如熵方法,flatness方法,sparseness方法等。
可以理解的是,在本发明的实施例中,上述几种方法都是计算频谱结构强弱的方法,和频谱细节的计算是各自独立的。既可以先求频谱细节再求结构性强弱,也可以先求结构性强弱再选取合适的频带求取频谱细节。本发明并不对此做特别的限定。
例如,在一个实施例中,根据线性预测残差R的频谱包络SR(j)求频谱结构性强弱,K为频谱包络个数,j=0,1,…K-1。首先计算每个包络所占频带的能量占帧总能量的比例,
P ( j ) = SR ( j ) · ( h ( j ) - l ( j ) + 1 ) E tot ;
其中P(j)表示第j个包络所占频带能量占总能量的比例,SR(j)为线性预测残差的频谱包络,h(j)和l(j)分别表示第j个频谱包络的上下限所对应的FFT频点,Etot为帧总能量。根据P(j),计算线性预测残差频谱的熵CR,
CR = Σ j = 0 K - 1 - log ( P ( j ) ) ;
熵CR的大小即能够表示线性预测残差频谱的结构性强弱。CR越大则频谱结构性越弱,CR越小则频谱结构性越强。
在一个解码器的实施例中,当解码器接收到SID帧时,解码SID帧并获得解码后的线性预测系数lpc(k)、线性预测残差能量ER和线性预测残差频谱细节SD(j)。解码器在每一背景噪声帧中都根据最近解码获得的这三个参数对与当前舒适噪声帧所对应的这三个参数进行估计。将当前舒适噪声帧所对应的这三个参数记做:线性预测系数CNlpc(k),线性预测残差能量CNER和线性预测残差频谱细节CNSD(j)。具体估计方法在一个实施例中可以是:
CNlpc(k)=α·CNlpc(k)+(1-α)·lpc(k),k=0,1,...M-1
CNER=α·CNER+(1-α)·ER
CNSD(j)=α·CNSD(j)+(1-α)·SD(j),j=0,1,...K-1
其中α是长时滑动平均系数或遗忘系数,M为滤波器阶数,K为频谱包络个数。根据线性预测残差能量CNER构建随机噪声激励EXR(i)。具体方法为:首先利用随机数产生器产生一组随机数序列EX(i),i=0,1,…N-1。对EX(i)做增益调整,使得调整后的EX(i)的能量与线性预测残差能量CNER一致。调整后的EX(i)即为随机噪声激励EXR(i),可参考如下公式得到EXR(i):
EX R ( i ) = CNE R Σ 0 N - 1 EX 2 ( i ) · EX ( i ) ;
同时,根据线性预测残差频谱细节CNSD(j)构建频谱细节激励EXD(i)。基本方法为通过线性预测残差频谱细节CNSD(j)对随机化相位的FFT系数序列进行增益调整,使得增益调整后的FFT系数对应的频谱包络与CNSD(j)一致。最后经反快速傅里叶变换(IFFT,Inverse Fast Fourier Transform)变换得到频谱细节激励EXD(i)。
在另一个实施例中,根据线性预测残差频谱包络构建频谱细节激励EXD(i)。基本方法为:获得随机噪声激励EXR(i)的频谱包络,根据线性预测残差频谱包络获得线性预测残差频谱包络与随机噪声激励EXR(i)的频谱包络中与之对应的包络的包络差。通过所述包络差对随机化相位的FFT系数序列进行增益调整,使得增益调整后的FFT系数对应的频谱包络与所述包络差一致。最后经反快速傅里叶变换(IFFT,Inverse Fast Fourier Transform)变换得到频谱细节激励EXD(i)。
在本发明额一个实施例中,构建EXD(i)的具体方法为:利用随机数产生器生成N点的随机数序列,做为随机化相位和幅度的FFT系数序列。
Rel ( i ) = RAND ( seed ) , i = 0,1 , . . . N 2 - 1 ;
Img ( i ) = RAND ( seed ) , i = 0,1 , . . . N 2 - 1 ;
上式中Rel(i),Img(i)分别表示第i个FFT频点的实部和虚部,RAND()表示随机数产生器,seed为随机种子。根据线性预测残差频谱细节CNSD(j)调整随机化FFT系数的幅度,得到增益调整后的FFT系数Rel’(i),Img’(i)。
Rel ′ ( i ) = E ( i ) Rel 2 ( i ) + Img 2 ( i ) · Rel ( i ) , i = 0,1 , . . . N 2 - 1 ;
Img ′ ( i ) = E ( i ) Rel 2 ( i ) + Img 2 ( i ) · Img ( i ) , i = 0,1 , . . . N 2 - 1 ;
其中E(i)表示增益调整后第i个FFT频点的能量,由线性预测残差频谱细节CNSD(j)决定。E(i)与CNSD(j)的关系为:
E(i)=CNSD(i),foy l(j)≤i≤h(j).
将增益调整后的FFT系数Rel’(i),Img’(i)经IFFT转换为时域信号,即为频谱细节激励EXD(i)。将随机噪声激励EXR(i)与频谱细节激励EXD(i)合并,得到完整的激励EX(i)。
EX(i)=EXR(i)+EXD(i),i=0,1,...N-1.
最后,使用完整的激励EX(i)激励线性预测合成滤波器A(1/Z),得到舒适噪声帧,其中合成滤波器的系数为CNlpc(k)。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的编解码系统、编解码器、模块和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应该以权利要求的保护范围为准。

Claims (23)

1.一种基于线性预测的噪声信号处理方法,其特征在于,所述方法包括:获取噪声信号,根据所述噪声信号得到线性预测系数;
根据所述线性预测系数对所述噪声信号进行滤波,得到线性预测残差信号;
根据所述线性预测残差信号得到所述线性预测残差信号的频谱包络;
对所述线性预测残差信号的频谱包络进行编码。
2.根据权利要求1所述的噪声信号处理方法,其特征在于,在根据所述线性预测残差信号得到所述线性预测残差信号的频谱包络之后,所述方法还包括:
根据所述线性预测残差信号的频谱包络得到所述线性预测残差信号的频谱细节;
相应的,所述对所述线性预测残差信号的频谱包络进行编码具体包括:
对所述线性预测残差信号的频谱细节进行编码。
3.根据权利要求2所述的噪声信号处理方法,其特征在于,在所述得到线性预测残差信号之后,所述方法还包括:
根据所述线性预测残差信号得到所述线性预测残差信号的能量;
相应的,所述对所述线性预测残差信号的频谱细节进行编码,具体包括:
对所述线性预测系数、所述线性预测残差信号的能量、所述线性预测残差信号的频谱细节进行编码。
4.根据权利要求3所述的噪声信号的处理方法,其特征在于,所述根据所述线性预测残差信号的频谱包络得到所述线性预测残差信号的频谱细节具体为:
根据所述线性预测残差信号的能量得到随机噪声激励信号;
将所述线性预测残差信号的频谱包络和所述随机噪声激励信号的频谱包络之间的差作为所述线性预测残差信号的频谱细节。
5.根据权利要求2或3所述的噪声信号处理方法,其特征在于,所述根据所述线性预测残差信号的频谱包络得到所述线性预测残差信号的频谱细节,具体包括:
根据所述线性预测残差信号的频谱包络得到第一带宽的频谱包络,其中,所述第一带宽在所述线性预测残差信号的带宽范围内;
根据所述第一带宽的频谱包络得到所述线性预测残差信号的频谱细节。
6.根据权利要求5所述的噪声信号处理方法,其特征在于,所述根据所述线性预测残差信号的频谱包络得到第一带宽的频谱包络,具体包括:
计算所述线性预测残差信号的频谱结构性,将所述线性预测残差信号的第一部分的频谱作为所述第一带宽的频谱包络,其中所述第一部分的频谱的结构性大于所述线性预测残差信号中除第一部分之外的其它部分的频谱的结构性。
7.根据权利要求6所述的噪声信号处理方法,其特征在于,根据下列之一的方式计算所述线性预测残差信号的频谱结构性:
根据所述噪声信号的频谱包络计算所述线性预测残差信号的频谱结构性;和
根据所述线性预测残差信号的频谱包络计算所述线性预测残差信号的频谱结构性。
8.根据根据权利要求2所述的噪声信号处理方法,其特征在于,在所述根据所述线性预测残差信号的频谱包络得到所述线性预测残差信号的频谱细节之后,所述方法还包括:
根据所述线性预测残差信号的频谱细节计算所述线性预测残差信号的频谱结构性,根据所述频谱结构性得到所述线性预测残差信号的第二带宽的频谱细节,其中,所述第二带宽在所述线性预测残差信号的带宽范围内,所述第二带宽的频谱结构性大于所述线性预测残差信号中除第二带宽之外的其它带宽的频谱结构性;
相应的,所述对所述线性预测残差信号的频谱包络进行编码具体包括:
对所述线性预测残差信号的所述第二带宽的频谱细节进行编码。
9.一种基于线性预测的舒适噪声信号的生成方法,其特征在于,所述方法包括:
接收码流,解码所述码流得到频谱细节和线性预测系数,所述频谱细节表示线性预测激励信号的频谱包络;
根据所述频谱细节得到所述线性预测激励信号;
根据所述线性预测系数和所述线性预测激励信号,得到舒适噪声信号。
10.根据权利要求9所述的舒适噪声信号的生成方法,其特征在于,所述频谱细节为所述线性预测激励信号的频谱包络。
11.根据权利要求9所述的舒适噪声信号的生成方法,所述码流包括线性预测激励能量,其特征在于,在所述根据所述线性预测系数和所述线性预测激励信号,得到舒适噪声信号之前,所述方法还包括:
根据所述线性预测激励能量得到第一噪声激励信号,其中,所述第一噪声激励信号的能量等于所述线性预测激励能量;
根据所述第一噪声激励信号和所述线性预测激励信号得到第二噪声激励信号;
相应的,所述根据所述线性预测系数和所述线性预测激励信号,得到舒适噪声信号,具体包括:
根据所述线性预测系数和所述第二噪声激励信号,得到所述舒适噪声信号。
12.一种编码器,其特征在于,所述编码器包括:
获取模块,用于获取噪声信号,根据所述噪声信号得到线性预测系数;
滤波器,用于根据所述获取模块得到的所述线性预测系数对所述噪声信号进行滤波,得到线性预测残差信号;
频谱包络生成模块,用于根据所述线性预测残差信号得到所述线性预测残差信号的频谱包络;
编码模块,用于对所述线性预测残差信号的频谱包络进行编码。
13.根据权利要求12所述的编码器,其特征在于,所述编码器还包括:
频谱细节生成模块,用于根据所述线性预测残差信号的频谱包络得到所述线性预测残差信号的频谱细节;
相应的,所述编码模块具体用于对所述线性预测残差信号的频谱细节进行编码。
14.根据权利要求13所述的编码器,其特征在于,所述编码器还包括:
残差能量计算模块,用于根据所述线性预测残差信号得到所述线性预测残差信号的能量;
相应的,所述编码模块具体用于对所述线性预测系数、所述线性预测残差信号的能量、所述线性预测残差信号的频谱细节和所述噪声信号进行编码。
15.根据权利要求14所述的编码器,其特征在于,所述频谱细节生成模块具体用于:
根据所述线性预测残差信号的能量得到随机噪声激励信号;
将所述线性预测残差信号的频谱包络和所述随机噪声激励信号的频谱包络之间的差作为所述线性预测残差信号的频谱细节。
16.根据权利要求13或14所述的编码器,其特征在于,所述频谱细节生成模块包括:
第一带宽频谱包络生成单元,用于根据所述线性预测残差信号的频谱包络得到第一带宽的频谱包络,其中,所述第一带宽在所述线性预测残差信号的带宽范围内;
频谱细节计算单元,用于根据所述第一带宽的频谱包络得到所述线性预测残差信号的频谱细节。
17.根据权利要求16所述的编码器,其特征在于,所述第一带宽频谱包络生成单元具体用于:
计算所述线性预测残差信号的频谱结构性,将所述线性预测残差信号的第一部分的频谱作为第一带宽的频谱包络,其中所述第一部分的频谱的结构性大于所述线性预测残差信号中除第一部分之外的其它部分的频谱的结构性。
18.根据权利要求17所述的编码器,其特征在于,所述第一带宽频谱包络生成单元根据下列之一的方式计算所述线性预测残差信号的频谱结构性:
根据所述噪声信号的频谱包络计算所述线性预测残差信号的频谱结构性;和
根据所述线性预测残差信号的频谱包络计算所述线性预测残差信号的频谱结构性。
19.根据根据权利要求13所述的编码器,其特征在于,所述频谱细节生成模块具体用于:
根据所述线性预测残差信号的频谱包络得到所述线性预测残差信号的频谱细节,根据所述线性预测残差信号的频谱细节计算所述线性预测残差信号的频谱结构性,根据所述频谱结构性得到所述线性预测残差信号的第二带宽的频谱细节,其中,所述第二带宽在所述线性预测残差信号的带宽范围内,所述第二带宽的频谱结构性大于所述线性预测残差信号中除第二带宽之外的其它带宽的频谱结构性;
相应的,所述编码模块具体用于对所述线性预测残差信号的所述第二带宽的频谱细节进行编码。
20.一种解码器,其特征在于,所述解码器包括:
接收模块,用于接收码流,并用于解码所述码流得到频谱细节和线性预测系数,所述频谱细节表示线性预测激励信号的频谱包络;
线性预测激励信号生成模块,用于根据所述频谱细节得到所述线性预测激励信号;
舒适噪声信号生成模块,用于根据所述线性预测系数和所述线性预测激励信号,得到舒适噪声信号。
21.根据权利要求20所述的解码器,其特征在于,所述频谱细节为所述线性预测激励信号的频谱包络。
22.根据权利要求20所述的解码器,所述码流包括线性预测激励能量,其特征在于,所述解码器还包括:
第一噪声激励信号生成模块,用于根据所述线性预测激励能量得到第一噪声激励信号,其中,所述第一噪声激励信号的能量等于所述线性预测激励能量;
第二噪声激励信号生成模块,用于根据所述第一噪声激励信号和所述线性预测激励信号得到第二噪声激励信号;
相应的,所述舒适噪声信号生成模块,具体用于根据所述线性预测系数和所述第二噪声激励信号,得到所述舒适噪声信号。
23.一种编解码系统,其特征在于,所述编解码系统包括:
如权利要求12-19任意之一所述的编码器,和,如权利要求20-22任意之一所述的解码器。
CN201410137474.0A 2014-04-08 2014-04-08 一种噪声信号的处理和生成方法、编解码器和编解码系统 Active CN104978970B (zh)

Priority Applications (14)

Application Number Priority Date Filing Date Title
CN201410137474.0A CN104978970B (zh) 2014-04-08 2014-04-08 一种噪声信号的处理和生成方法、编解码器和编解码系统
KR1020197015048A KR102217709B1 (ko) 2014-04-08 2014-10-09 노이즈 신호 처리 방법, 노이즈 신호 생성 방법, 인코더, 디코더, 및 인코딩/디코딩 시스템
EP14888957.9A EP3131094B1 (en) 2014-04-08 2014-10-09 Noise signal processing and generation method, encoder/decoder and encoding/decoding system
JP2017503044A JP6368029B2 (ja) 2014-04-08 2014-10-09 雑音信号処理方法、雑音信号生成方法、符号化器、復号化器、並びに符号化および復号化システム
PCT/CN2014/088169 WO2015154397A1 (zh) 2014-04-08 2014-10-09 一种噪声信号的处理和生成方法、编解码器和编解码系统
KR1020167026295A KR101868926B1 (ko) 2014-04-08 2014-10-09 노이즈 신호 처리 및 생성 방법, 인코더/디코더 및 인코딩/디코딩 시스템
EP24195813.1A EP4485458A3 (en) 2014-04-08 2014-10-09 Noise signal processing method, noise signal generation method, encoder, decoder, and encoding and decoding system
EP19192008.1A EP3671737A1 (en) 2014-04-08 2014-10-09 Noise signal processing method, noise signal generation method, encoder, decoder, and encoding and decoding system
ES14888957T ES2798310T3 (es) 2014-04-08 2014-10-09 Método de generación y procesado de señal de ruido, codificador/decodificador y sistema de codificación/decodificación
KR1020187016493A KR102132798B1 (ko) 2014-04-08 2014-10-09 노이즈 신호 처리 및 노이즈 신호 생성 방법, 인코더, 디코더, 및 인코딩 및 디코딩 시스템
US15/280,427 US9728195B2 (en) 2014-04-08 2016-09-29 Noise signal processing method, noise signal generation method, encoder, decoder, and encoding and decoding system
US15/662,043 US10134406B2 (en) 2014-04-08 2017-07-27 Noise signal processing method, noise signal generation method, encoder, decoder, and encoding and decoding system
JP2018128182A JP6636574B2 (ja) 2014-04-08 2018-07-05 雑音信号処理方法、雑音信号生成方法、符号化器、および、復号化器
US16/168,252 US10734003B2 (en) 2014-04-08 2018-10-23 Noise signal processing method, noise signal generation method, encoder, decoder, and encoding and decoding system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410137474.0A CN104978970B (zh) 2014-04-08 2014-04-08 一种噪声信号的处理和生成方法、编解码器和编解码系统

Publications (2)

Publication Number Publication Date
CN104978970A true CN104978970A (zh) 2015-10-14
CN104978970B CN104978970B (zh) 2019-02-12

Family

ID=54275424

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410137474.0A Active CN104978970B (zh) 2014-04-08 2014-04-08 一种噪声信号的处理和生成方法、编解码器和编解码系统

Country Status (7)

Country Link
US (3) US9728195B2 (zh)
EP (3) EP4485458A3 (zh)
JP (2) JP6368029B2 (zh)
KR (3) KR101868926B1 (zh)
CN (1) CN104978970B (zh)
ES (1) ES2798310T3 (zh)
WO (1) WO2015154397A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106531175A (zh) * 2016-11-13 2017-03-22 南京汉隆科技有限公司 一种网络话机柔和噪声产生的方法
TWI715139B (zh) * 2019-08-06 2021-01-01 原相科技股份有限公司 聲音播放裝置及其透過遮噪音訊遮蓋干擾音之方法
US11646044B2 (en) * 2018-03-09 2023-05-09 Yamaha Corporation Sound processing method, sound processing apparatus, and recording medium

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104217723B (zh) * 2013-05-30 2016-11-09 华为技术有限公司 信号编码方法及设备
GB2532041B (en) * 2014-11-06 2019-05-29 Imagination Tech Ltd Comfort noise generation
US10410398B2 (en) * 2015-02-20 2019-09-10 Qualcomm Incorporated Systems and methods for reducing memory bandwidth using low quality tiles
EA035903B1 (ru) * 2016-01-03 2020-08-28 Ауро Текнолоджиз Нв Кодер сигнала, декодер и способы их работы с использованием прогностической модели
EP4586247A3 (en) * 2018-04-05 2025-11-12 Telefonaktiebolaget LM Ericsson (publ) Truncateable predictive coding
US10957331B2 (en) 2018-12-17 2021-03-23 Microsoft Technology Licensing, Llc Phase reconstruction in a speech decoder
US10847172B2 (en) * 2018-12-17 2020-11-24 Microsoft Technology Licensing, Llc Phase quantization in a speech encoder
CN110289009B (zh) * 2019-07-09 2021-06-15 广州视源电子科技股份有限公司 声音信号的处理方法、装置和交互智能设备
IL298725B1 (en) 2020-06-11 2025-11-01 Dolby Laboratories Licensing Corp Methods and devices for encoding and/or decoding spatial background noise within a multi-channel input signal
CN112906157B (zh) * 2021-02-20 2024-08-16 南京航空航天大学 一种主轴轴承健康状态评估及剩余寿命预测方法及装置
CN116758930A (zh) * 2023-07-06 2023-09-15 维沃移动通信有限公司 语音增强方法、装置、电子设备及存储介质

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1194553A (zh) * 1996-11-14 1998-09-30 诺基亚流动电话有限公司 在不连续传输期间的安慰噪声参数的发送
CN1194507A (zh) * 1997-03-25 1998-09-30 菲利浦电子有限公司 产生舒适噪声的设备和包括其部件的语音编解码器
CN1200000A (zh) * 1996-11-15 1998-11-25 诺基亚流动电话有限公司 在不连续传输期间产生安慰噪声的改进方法
US20020120439A1 (en) * 2001-02-28 2002-08-29 Telefonaktiebolaget Lm Ericsson (Publ) Method and apparatus for providing comfort noise in communication system with discontinuous transmission
CN1514998A (zh) * 2001-01-31 2004-07-21 �����ɷ� 语音不活动期间话音传输系统间互操作性的方法和装置
US6782361B1 (en) * 1999-06-18 2004-08-24 Mcgill University Method and apparatus for providing background acoustic noise during a discontinued/reduced rate transmission mode of a voice transmission system
CN101303855A (zh) * 2007-05-11 2008-11-12 华为技术有限公司 一种舒适噪声参数产生方法和装置
CN101335003A (zh) * 2007-09-28 2008-12-31 华为技术有限公司 噪声生成装置、及方法
CN102136271A (zh) * 2011-02-09 2011-07-27 华为技术有限公司 舒适噪声生成器、方法及回声抵消装置
CN102760441A (zh) * 2007-06-05 2012-10-31 华为技术有限公司 一种背景噪声编码/解码装置、方法和通信设备
CN103093756A (zh) * 2011-11-01 2013-05-08 联芯科技有限公司 舒适噪声生成方法及舒适噪声生成器
CN103680509A (zh) * 2013-12-16 2014-03-26 重庆邮电大学 一种语音信号非连续传输及背景噪声生成方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3464371B2 (ja) * 1996-11-15 2003-11-10 ノキア モービル フォーンズ リミテッド 不連続伝送中に快適雑音を発生させる改善された方法
DE19730130C2 (de) * 1997-07-14 2002-02-28 Fraunhofer Ges Forschung Verfahren zum Codieren eines Audiosignals
US6163608A (en) * 1998-01-09 2000-12-19 Ericsson Inc. Methods and apparatus for providing comfort noise in communications systems
KR100348899B1 (ko) * 2000-09-19 2002-08-14 한국전자통신연구원 캡스트럼 분석을 이용한 하모닉 노이즈 음성 부호화기 및부호화 방법
US6947888B1 (en) 2000-10-17 2005-09-20 Qualcomm Incorporated Method and apparatus for high performance low bit-rate coding of unvoiced speech
US20030093270A1 (en) * 2001-11-13 2003-05-15 Domer Steven M. Comfort noise including recorded noise
US8767974B1 (en) * 2005-06-15 2014-07-01 Hewlett-Packard Development Company, L.P. System and method for generating comfort noise
CN101193090B (zh) * 2006-11-27 2011-12-28 华为技术有限公司 信号处理方法及其装置
RU2469419C2 (ru) * 2007-03-05 2012-12-10 Телефонактиеболагет Лм Эрикссон (Пабл) Способ и устройство для управления сглаживанием стационарного фонового шума
CN101335000B (zh) * 2008-03-26 2010-04-21 华为技术有限公司 编码的方法及装置
CN101651752B (zh) * 2008-03-26 2012-11-21 华为技术有限公司 解码的方法及装置
GB2466675B (en) * 2009-01-06 2013-03-06 Skype Speech coding
BR112013020239B1 (pt) * 2011-02-14 2021-12-21 Fraunhofer-Gellschaft Zur Förderung Der Angewandten Forschung E.V. Geração de ruído em codecs de áudio
EP3239978B1 (en) 2011-02-14 2018-12-26 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Encoding and decoding of pulse positions of tracks of an audio signal
US9390722B2 (en) 2011-10-24 2016-07-12 Lg Electronics Inc. Method and device for quantizing voice signals in a band-selective manner
CN102664003B (zh) * 2012-04-24 2013-12-04 南京邮电大学 基于谐波加噪声模型的残差激励信号合成及语音转换方法
GB2532041B (en) * 2014-11-06 2019-05-29 Imagination Tech Ltd Comfort noise generation

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1194553A (zh) * 1996-11-14 1998-09-30 诺基亚流动电话有限公司 在不连续传输期间的安慰噪声参数的发送
CN1200000A (zh) * 1996-11-15 1998-11-25 诺基亚流动电话有限公司 在不连续传输期间产生安慰噪声的改进方法
CN1194507A (zh) * 1997-03-25 1998-09-30 菲利浦电子有限公司 产生舒适噪声的设备和包括其部件的语音编解码器
US6782361B1 (en) * 1999-06-18 2004-08-24 Mcgill University Method and apparatus for providing background acoustic noise during a discontinued/reduced rate transmission mode of a voice transmission system
CN1514998A (zh) * 2001-01-31 2004-07-21 �����ɷ� 语音不活动期间话音传输系统间互操作性的方法和装置
US20020120439A1 (en) * 2001-02-28 2002-08-29 Telefonaktiebolaget Lm Ericsson (Publ) Method and apparatus for providing comfort noise in communication system with discontinuous transmission
CN101303855A (zh) * 2007-05-11 2008-11-12 华为技术有限公司 一种舒适噪声参数产生方法和装置
CN102760441A (zh) * 2007-06-05 2012-10-31 华为技术有限公司 一种背景噪声编码/解码装置、方法和通信设备
CN101335003A (zh) * 2007-09-28 2008-12-31 华为技术有限公司 噪声生成装置、及方法
CN102136271A (zh) * 2011-02-09 2011-07-27 华为技术有限公司 舒适噪声生成器、方法及回声抵消装置
CN103093756A (zh) * 2011-11-01 2013-05-08 联芯科技有限公司 舒适噪声生成方法及舒适噪声生成器
CN103680509A (zh) * 2013-12-16 2014-03-26 重庆邮电大学 一种语音信号非连续传输及背景噪声生成方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
宋知用: "《MATLAB在语音信号分析与合成中的应用》", 30 November 2013, 北京航空航天大学出版社 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106531175A (zh) * 2016-11-13 2017-03-22 南京汉隆科技有限公司 一种网络话机柔和噪声产生的方法
CN106531175B (zh) * 2016-11-13 2019-09-03 南京汉隆科技有限公司 一种网络话机柔和噪声产生的方法
US11646044B2 (en) * 2018-03-09 2023-05-09 Yamaha Corporation Sound processing method, sound processing apparatus, and recording medium
TWI715139B (zh) * 2019-08-06 2021-01-01 原相科技股份有限公司 聲音播放裝置及其透過遮噪音訊遮蓋干擾音之方法

Also Published As

Publication number Publication date
US10134406B2 (en) 2018-11-20
KR20190060887A (ko) 2019-06-03
EP3131094A4 (en) 2017-05-10
US10734003B2 (en) 2020-08-04
KR102217709B1 (ko) 2021-02-18
ES2798310T3 (es) 2020-12-10
EP4485458A3 (en) 2025-01-22
CN104978970B (zh) 2019-02-12
JP6636574B2 (ja) 2020-01-29
US20190057704A1 (en) 2019-02-21
JP6368029B2 (ja) 2018-08-01
KR101868926B1 (ko) 2018-06-19
EP3671737A1 (en) 2020-06-24
US9728195B2 (en) 2017-08-08
JP2017510859A (ja) 2017-04-13
JP2018165834A (ja) 2018-10-25
KR20180066283A (ko) 2018-06-18
EP4485458A2 (en) 2025-01-01
US20170018277A1 (en) 2017-01-19
WO2015154397A1 (zh) 2015-10-15
US20170323648A1 (en) 2017-11-09
EP3131094A1 (en) 2017-02-15
KR20160125481A (ko) 2016-10-31
KR102132798B1 (ko) 2020-07-10
EP3131094B1 (en) 2020-04-22

Similar Documents

Publication Publication Date Title
US10734003B2 (en) Noise signal processing method, noise signal generation method, encoder, decoder, and encoding and decoding system
US9251800B2 (en) Generation of a high band extension of a bandwidth extended audio signal
CN102436820B (zh) 高频带信号编码方法及装置、高频带信号解码方法及装置
CN104217727B (zh) 信号解码方法及设备
WO2013078974A1 (zh) 非激活音信号参数估计方法及舒适噪声产生方法及系统
CN101281748B (zh) 用编码索引实现的空缺子带填充方法及编码索引生成方法
KR101872138B1 (ko) 디바이스에서 코딩 기술들을 스위칭하는 장치 및 방법들
CN101483495B (zh) 一种背景噪声生成方法以及噪声处理装置
CN101339767A (zh) 一种背景噪声激励信号的生成方法及装置
JP7258936B2 (ja) 快適雑音生成モード選択のための装置および方法
HK40057033B (zh) 在声音信号编码器和解码器中使用的方法、设备和存储器
HK1226546B (zh) 在装置处切换译码技术的设备及方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant