CN1291375C - 声信号编码方法和设备、解码方法和设备 - Google Patents
声信号编码方法和设备、解码方法和设备 Download PDFInfo
- Publication number
- CN1291375C CN1291375C CNB028025245A CN02802524A CN1291375C CN 1291375 C CN1291375 C CN 1291375C CN B028025245 A CNB028025245 A CN B028025245A CN 02802524 A CN02802524 A CN 02802524A CN 1291375 C CN1291375 C CN 1291375C
- Authority
- CN
- China
- Prior art keywords
- sound
- signal
- time
- domain signal
- substep
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/032—Quantisation or dequantisation of spectral components
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/08—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
- G10L19/087—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters using mixed excitation models, e.g. MELP, MBE, split band LPC or HVXC
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
- G10L19/18—Vocoders using multiple modes
- G10L19/20—Vocoders using multiple modes using sound class specific coding, hybrid encoders or object based coding
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B20/00—Signal processing not specific to the method of recording or reproducing; Circuits therefor
- G11B20/10—Digital recording or reproducing
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/93—Discriminating between voiced and unvoiced parts of speech signals
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
本发明涉及一种声信号编码设备(100),该设备中有一个声音/噪声判断块(110),用于判断输入的声时间连续信号是声音还是噪声。如果是声音,则由一个声音成分提取块(121)提取出一个声音成分信号,而该声音成分参数由一个标准化/量化块(122)标准化和量化。此外,由一个频谱变换块(131)将从声时间连续信号中减去声音成分信号而得到的剩余时间连续信号变换成频谱信息,该频谱信息由一个标准化/量化块(132)进行标准化和量化。一个代码串产生块(140)利用量化后的声音成分参数和量化后的剩余成分频谱信息产生一个代码串。
Description
技术领域
本发明涉及一种对声信号编码的方法和设备,以及一种对声信号解码的方法和设备,其中,声信号被编码和被传输或者被记录到记录介质上,或者该编码的声信号在解码一方被接收或再现并被解码。。
背景技术
对于高效率地对数字音频信号或语音信号进行编码存在许多技术。这些技术的例子包括子频带编码(SBC),该技术例如将时域音频信号分割到多个频带上,并作为非分组(no-blocking)频带分割系统,不经对时域信号分组,即从一个频带到另一个频带对信号编码;作为一种分组频带分割系统或通过正交变换将时域信号转换成频域信号的变换编码系统,将该频域信号从一个频带到另一个频带进行编码。还有一种结合子频带编码和变换编码的高效率编码技术。在这种情况下,时域信号由子频带编码被分配到多个频带上,而产生的基于频带的信号被正交变换成频域信号,该频域信号然后被从一个频带到另一个频带编码。
现有公知正交变换技术包括将数字输入音频信号划分成预定时间长度的块的技术,它通过分块并使用离散傅立叶变换(DFT)、离散余弦变换(DCT)或改进的DCT(MDCT)将信号从时间轴转换到频率轴上来处理所产生的块。对MDCT的讨论可见于J.P Princen和A.B.Bradley的“Subband/Transform Coding Using Filter Bank Designs Based on Time DomainAliasing Cancellation”(利用基于时域消除混叠滤波器组的子频带/变换编码),ICASSP,1987,Univ.of Surrey Royal Melbourne Inst.of Tech.。
在使用滤波器或正交变换对分解在一个一个频带上的信号进行量化时,有可能控制频带对量化噪声的敏感性,而且通过利用这种特性作为掩蔽效应(masking effect)能够实现在心理声学上更有效的编码。如果在量化之前,利用每个频带信号成分的最大绝对值对各个频带上的信号成分进行标准化,则可以进一步提高编码的效率。
在对由划分频谱所产生的频率成分进行量化时,公知的是将频谱划分成考虑到人类声音系统的特性的宽度。即将音频信号依照频带宽度划分到多个(如32个)频带上,并随频率的增加而增加。在编码基于频带的数据时,将各比特固定地或自适应地分配在一个一个频带上。当将自适应的比特分配给MDCT产生的系数数据时,将MDCT系数数据用一个自适应分配的比特数从由基于块的MDCT所产生一个频带到另一个频带上进行编码。
应该注意到,在对声时域信号进行编码和解码的正交变换中,包含在声音声信号中的、其能量集中在一个特定的频率上的噪声对人耳特别刺耳,因此可以证明其是在心理声学上高度有害的。为此,需要使用充足的比特数来对声音成分进行编码。然而,如果量化步骤如上所述是固定地从一个频带到另一个频带确定的话,则由于比特被统一分配到编码单元包含的声音成分的全部频谱成分上,编码的效率是低下的。
为了克服这种不足,例如在国际专利公开WO94/28633或者日本专利公开7-168593中提出了一种技术,其中,频谱成分被划分成声音成分和非声音成分,并且仅对声音成分实施更精确的量化步骤。
在这种技术中,具有本地高能量水平的频谱成分、即声音成分T被从图1A中所示频率轴上的频谱中消除。去除了声音成分的噪声成分的频谱如图1B所示。使用充分优化的量化步骤对声音和噪声成分进行量化。
但是在诸如MDCT的正交变换技术中,预先假定在一个域中被分析的波形在该被分析的域之外周期性地重复。因此,观测的是实际上不存在的频率成分。例如,如果输入了一个特定频率的正弦波,并利用MDCT对其进行正交变换,则所产生的频谱不但包含了固有频率而且包含了环境频率,如图1A所示。因此,如果该正弦波被高精度地表示,则不但固有的单独频率而且在频率轴上多个相邻于该固有频率的频谱成分也需要用充分的量化步骤来量化,尽管在上述技术中仅试图对声音成分进行高精度量化,如图1A所示。结果是,需要更多的比特,因而降低了编码效率。
发明内容
根据上述现有技术状况,本发明要解决的技术问题是,提供一种对声信号进行编码的方法和设备、一种对声信号进行解码的方法和设备,由此,可以避免由于存在于本地频率中的声音成分而造成的编码效率的降低。
按照本发明的对声时域信号进行编码的声信号编码方法包括:声音成分编码步骤,从声时域信号提取出声音成分并对这样提取出的声音成分进行编码;剩余成分编码步骤,对在声音成分编码步骤中通过从声时域信号中提取声音成分信号后而得到的剩余时域信号进行编码;以及代码串产生步骤,基于从声音成分编码步骤所获得的编码信息和从剩余成分编码步骤所获得的编码信息来产生并输出代码串。
利用这种声信号编码方法,可将声音成分信号从声时域信号中提取出来,并对该声音成分信号以及从声时域信号提取了声音成分信号后的剩余时域信号进行编码。
按照本发明的对声信号解码的声信号解码方法中,声音成分信号被从声时域信号中提取出来并被编码;输入和解码对相应于在声时域信号提取了声音成分信号后的剩余时域信号进行编码所得到的一个代码串,该方法包括:一个分解代码串的代码串分解步骤、一个依照由代码串分解步骤中得到的声音成分信息对声音成分时域信号进行解码的声音成分解码步骤、一个依照由代码串分解步骤中得到的剩余成分信息对剩余成分时域信号进行解码的剩余成分解码步骤、以及一个将在声音成分解码步骤得到的声音成分时域信号与在剩余成分解码步骤得到的剩余成分时域信号相加,以恢复声时域信号的相加步骤。
利用这种声信号解码方法,一种代码串被解码以恢复声时域信号,该代码串是由从声时域信号中提取声音成分信号,和对该声音成分信号以及在声时域信号提取了声音成分信号和的剩余时域信号进行编码而得到的。
按照本发明的对声时域信号进行编码的声信号编码方法包括:频带分解步骤,将声时域信号分解到多个频带上;声音成分信号编码步骤,从至少一个频带的声时域信号中提取出声音成分信号,并编码这样提取出来的声音成分信号;以及一个剩余成分编码步骤,对由声音成分信号编码步骤从至少一个频率范围的声时域信号中提取出声音成分信号后的剩余时域信号进行编码;以及代码串产生步骤,基于从声音成分编码步骤所获得的编码信息和从剩余成分编码步骤所获得的编码信息来产生并输出代码串。
利用这种声信号编码方法,声音成分信号被从声时域信号频谱被分解到的多个频带中的至少一个频带的声时域信号中提取出来,而在从声时域信号提取声音成分信号后得到的剩余时域信号被编码。
按照本发明的对声时域信号解码的声信号解码方法,其中,将声时域信号分解到多个频带上、将声音成分信号从至少一个频带上的声时域信号中提取出并将其编码、输入一个从依次对至少一个频带上的声时域信号中提取声音成分信号后得到的剩余时域信号编码得到的代码串,并对该代码串进行解码,该方法包括:一个分解代码串的代码串分解步骤,一个依照由代码串分解步骤中得到的声音成分信息对至少一个频带上的声音成分时域信号进行合成的声音成分解码步骤,一个依照由代码串分解步骤中得到的剩余成分信息对至少一个频带产生剩余成分时域信号的剩余成分解码步骤,一个将在声音成分解码步骤得到的声音成分时域信号与在剩余成分解码步骤得到的剩余成分时域信号相加的相加步骤,以及一个频带合成步骤,对每个频带的解码信号进行频带合成以恢复声时域信号。
利用这种声信号解码方法,声音成分信号被从声时域信号频谱被分解到的多个频带中的至少一个频带的声时域信号中提取出来,而在从声时域信号中提取声音成分信号后得到的剩余时域信号被编码,以形成一代码串,该代码串被解码以恢复声时域信号。
按照本发明的对声信号进行编码的声信号编码方法,包括:第一声信号编码步骤,用第一编码方法对声时域信号进行编码,该第一编码方法包括声音成分编码步骤,从声时域信号提取出声音成分并对这样提取出的声音成分进行编码;剩余成分编码步骤,对在声音成分编码步骤中从声时域信号中提取声音成分信号后而得到的剩余时域信号进行编码;和代码串产生步骤,从声音成分编码步骤得到的信息和从剩余成分编码步骤得到的信息中产生一个代码串。第二声信号编码步骤,用第二编码方法对声时域信号进行编码,和一个编码效率判定步骤,比较第一声信号编码步骤的编码效率和第二声信号编码步骤的编码效率,以选出具有较高编码效率的代码串。
利用这种声信号编码方法,从由第一声信号编码处理按照从声时域信号中提取声音成分信号的第一编码方法对声时域信号进行编码、和对由从声时域信号中提取声音成分信号后得到的剩余时域信号进行编码得到一代码串,或者由按照第二编码方法对声时域信号进行编码的第二声信号编码处理得到的代码串中,选择出一个具有较高编码效率的代码串。
按照本发明的对代码串进行解码的声信号解码方法,按如下方式选择输入的一个代码串,即由第一编码步骤得到的代码串或者由第二编码步骤得到的代码串中具有较高编码效率的代码串被选作输入代码串并被编码,第一编码步骤是这样的一个步骤,其中按照从声时域信号中提取声音成分信号和对声音成分信号编码得到的信息以及从对由从声时域信号中提取声音成分信号后得到的剩余时域信号进行编码的信息产生一个代码串的第一编码方法对声时域信号进行编码,第二编码步骤是这样的一个步骤,其中,按照第二编码方法对声时域信号进行编码,该方法是这样一种方法,其中,如果输入由第一声信号编码步骤产生的代码串,则按照第一声信号解码步骤恢复声时域信号,该第一声信号解码步骤包括:一个将该代码串分解成声音成分信息和剩余成分信息的代码串分解子步骤、一个依照在代码串分解子步骤得到声音成分信息产生声音成分时域信号的声音成分解码步骤、一个依照在代码串分解子步骤得到剩余成分信息产生剩余成分时域信号的剩余成分解码步骤,和一个将声音成分时域信号与剩余成分时域信号相加的相加子步骤,以及其中,如果输入由第二声信号编码步骤得到的代码串,则按照对应于第二声信号编码步骤的第二声信号解码步骤恢复声时域信号。
通过这种声信号解码设备,从由第一声信号编码处理按照从声时域信号中提取声音成分信号的第一编码方法对声时域信号进行编码、和对由从声时域信号中提取声音成分信号后得到的剩余时域信号进行编码得到一代码串,或者由按照第二编码方法对声时域信号进行编码的第二声信号编码处理得到的代码串中,输入具有较高编码效率的代码串,并利用相应于在编码器一侧所进行的操作将其解码。
按照本发明的对声时域信号编码的声信号编码设备,包括用于从声时域信号中提取声音成分信号并对这样提取的信号进行编码的声音成分编码装置;用于对由声音成分编码装置从声时域信号中提取声音成分信息后得到的剩余时域信号进行编码的剩余成分编码装置;以及代码串产生装置,用于基于从声音成分编码装置中所获得的编码信息和从剩余成分编码装置中所获得的编码信息来产生并输出代码串。
利用这种声信号编码设备,声音成分信号被从声时域信号中提取出来,且声音成分信号以及由声音成分编码装置从声时域信号中提取声音成分信号后得到的剩余时域信号被编码。
按照本发明的声信号解码设备,输入一个由从声时域信号中提取声音成分信号、并编码该声音成分信号和从声时域信号中提取声音成分信号后得到的剩余时域信号而得到的代码串并对其解码,其包括:一个代码串分解装置,用于分解代码串;一个声音成分解码装置,用于依照由代码串分解装置得到声音成分信息对声音成分时域信号进行解码;一个剩余成分解码装置,用于依照由代码串分解装置得到剩余成分信息对剩余时域信号进行解码;和一个相加装置,用于将由声音成分解码装置得到的声时域信号和由剩余成分解码装置得到的剩余时域信号相加,以恢复声时域信号。
利用这种声信号解码设备,对由从声时域信号中提取声音成分信号、对该声音成分信号以及由声音成分编码装置从声时域信号中提取声音成分信号后得到的剩余时域信号进行编码得到一个代码串进行解码,以恢复声时域信号。
附图说明
本发明的其它目的、特性和优点通过下面对附图所示本发明的实施方式的描述将更加清楚。
图1A和图1B表示提取声音成分的一种常规技术,图1A示出了去除声音成分之前的频谱,而图1B示出了去除声音成分后噪声成分的频谱。
图2示出了一种实施本发明的声信号编码设备的结构。
图3A至图3C示出了一种将提取出来的时域信号与前一帧和与下一帧平滑地连接的方法,图3A示出了MDCT中的帧,图3B示出了一个从中提取声音成分的域,而图3C示出了用于合成紧临的前一帧和下一帧的窗口函数。
图4示出了所述声信号编码设备的声音成分编码单元的结构。
图5示出了所述声音成分编码单元的第一种结构,其中,量化误差包含在剩余时域信号中。
图6示出了所述声音成分编码单元的第二种结构,其中,量化误差包含在剩余时域信号中。
图7示出了使用被提取的多个正弦波形的最大幅度值为参考确定标准化系数的一个例子。
图8是一个表示具有图6所示的声音成分编码单元的声信号编码设备的操作序列的流程图。
图9A和图9B说明纯声音波形参数,图9A示出了一个使用正弦波形和余弦波形的频率和幅度的例子,而图9B示出了一个使用频率、幅度和相位的例子。
图10是一个表示具有图5所示的声音成分编码单元的声信号编码设备的操作序列的流程图。
图11示出了实现本发明的声信号解码设备的一种结构。
图12示出了所述声信号解码设备的声音成分解码单元的一种结构。
图13是一个表示所述声信号解码设备的操作序列的流程图。
图14示出了所述声信号解码设备的剩余成分编码单元的另一种结构。
图15示出了对应于图14所示剩余成分编码单元的剩余信号解码单元一种结构。
图16示出了所述声信号编码设备和声信号解码设备的第二种示意结构。
图17示出了所述声信号编码设备和声信号解码设备第三种示意结构。
具体实施方式
下面,参考附图详细说明本发明的几个优选实施方式。
图2示出了本发明声信号编码设备的一种实施方式的示意结构,其中,示出了一个声信号编码设备100,其包括一个声音噪声检验单元110、一个声音成分编码单元120、一个剩余成分编码单元130、一个代码串产生单元140和一个时域信号保持单元150。
声音噪声检验单元110检验输入的声时域信号S是声音信号还是噪声信号,以便根据检验的结果输出一个声音/噪声检验码T/N来启闭下游的处理。
声音成分编码单元120从输入信号中提取声音成分,以便对声音成分信号进行编码,它包括一个声音成分提取单元121,用于从被声音噪声检验单元110确定为声音的输入信号中提取一个声音成分参数N-TP,和一个标准化/量化单元122,用于对从声音成分提取单元121得到的声音成分参数N-TP进行标准化和量化,以输出一个量化后的声音成分参数N-QTP。
剩余成分编码单元130对剩余时域信号RS进行编码,该剩余时域信号RS是由声音成分提取单元121从被声音噪声检验单元110确定为声音的输入信号中、或被声音噪声检验单元110确定为噪声的输入信号中提取声音成分而产生的。剩余成分编码单元130包括,一个正交变换单元131,用于通过例如改进的离散余弦变换(MDCT)将这些时域信号变换成频谱信息NS,和一个标准化/量化单元132,用于对从正交变换单元131得到的频谱信息NS进行标准化和量化,以输出量化的频谱信息QNS。
代码串产生单元140基于来自声音成分编码单元120和剩余成分编码单元130的信息,产生并输出代码串C。
时域信号保持单元150保持输入到剩余成分编码单元130的时域信号。时域信号保持单元150中的处理将在下面解释。
因此,本实施方式的声信号编码设备100,根据输入的声时域信号是声音还是噪声,从一帧到另一帧,启闭下游的编码处理技术。即声信号编码设备使用后面将解释的通用谐波分析(GHA),提取声音信号的声音成分信号并对其参数进行编码,而对从声音信号和噪声信号中提取声音信号成分后得到的剩余信号的编码是利用例如MDCT进行正交变换、并随后对变换后的信号进行编码实现的。
同时,在通常用于正交变换的MDCT中,一用于分析(编码单元)的帧需要与紧接其前的帧和紧接其后的帧各重叠半个帧,如图3A所示。此外,在通用谐波技术分析中用于分析的帧,在声音成分编码处理中可能被赋予各与紧接其前的帧和紧接其后的帧重叠的半个帧,以便使被提取的时域信号可以平滑地与紧邻其前的帧和紧邻其后的帧中提取的时域信号连接。
但是,由于如上所述在MDCT分析帧中存在半帧的重叠,在第一帧的分析期间域A的时域信号不得与在第二帧的分析期间域A的时域信号不同。因此,在剩余成分编码处理中,在域A期间对声音成分的提取需要在第一帧已经被正交变换的时间点上完成。因此,需要完成下列处理。
首先,在对声音成分编码时,通过在第二帧的域中使用通用谐波分析进行纯声音分析,如图3B所示。然后,在所产生的参数的基础上进行波形提取。域的提取与第一帧重叠。在第一帧的域中使用通用谐波分析进行的纯声音分析已经结束,这样使得该域上的波形提取是基于在第一和第二帧中分别得到的参数进行的。如果第一帧已经被判定为噪声,则波形提取仅基于在第二帧得到的参数。
其次,在每一帧提取的时域信号被如下合成:即将在每一帧上进行参数分析的时域信号与一个在相加中提供单位的窗口函数相乘,如下面方程(1)所示的汉宁函数(Hanning function):
其中,0 t<L,以便使时域信号的合成如图3C所示从第一帧到第二帧平滑过渡。在方程(1)中,L表示帧的长度,即一个编码单元的长度。
所合成的时域信号被从输入信号中提取出来。即剩余时域信号在第一帧和第二帧的重叠域中。这些剩余时域信号起到第一帧后半帧的剩余时域信号的作用。对第一帧的剩余成分的编码,是通过由第一帧的后半帧的剩余时域信号形成剩余时域信号,以及通过已经被保持的第一帧的前半帧的剩余时域信号,正交变换第一帧的剩余时域信号并对由此产生的频谱信息进行标准化和量化实现的。通过利用第一帧的声音成分信息和第一帧的剩余成分信息产生码串,可以使声音成分和剩余成分的合成在解码时在一帧内完成。
同时,如果第一帧是噪声信号,则第一帧中缺少声音成分参数。因此,上面提到窗口函数仅仅与在第二帧中提取出的时域信号相乘。这样产生的时域信号被从输入信号中提取出来,而剩余时域信号类似地起到了第一帧后半帧中的剩余时域信号的作用。
上述方法能够使得平滑声音成分时域信号的提取没有间断点。此外,能够避免在对剩余成分编码的MDCT中帧与帧间的不匹配。
为了进行上述处理,声信号编码设备100包括一在剩余成分编码单元130之前的时域信号保持单元150,如图2所示。该时域信号保持单元150保持每半帧的剩余时域信号。声音成分编码单元120包括将在后面解释的参数保持部分2115、2117和2319,以及输出波形参数和提取出的前一帧的波形信息。
如图2所示的声音成分编码单元120可以被特殊地配置成如图4所示。为了进行在声音成分提取中的频率分析、声音成分合成和声音成分提取,应用了由维纳(Wiener)提出的通用谐波分析。该技术是这样一种分析技术,其中,在分析块中产生最小剩余能量的正弦波被从原始时域信号中提取出来,并对所产生的剩余信号重复使用这种处理。利用这种技术,可在时域上不受分析窗口的影响将频率成分逐一地提取出来。此外,频率分辨率可以随意设定,以便能够实现比用快速傅立叶变换(FFT)或MDCT更精确的频率分析。
图4示出了声音成分编码单元2100,它包括声音成分提取单元2110和标准化/量化单元2120。声音成分提取单元2110和标准化/量化单元2120与图2所示的成分提取单元121和标准化/量化单元122相似。
在声音成分编码单元2100中,纯声音分析单元2111从输入的声时域信号S中分析使剩余信号能量最小化的纯声音成分。该纯声音分析单元然后将纯声音波形参数TP发送至纯声音合成单元2112和参数保持单元2115。
纯声音合成单元2112合成经纯声音分析单元2111分析的纯声音成分的纯声音波形时域信号TS。减法器2113从输入声时域信号S中提取由纯声音合成单元2112合成的纯声音波形时域信号TS。
结束条件判定单元2114检查由减法器2113提取纯声音而得到的剩余信号是否满足提取声音成分的结束条件,并影响重复提取纯声音的启闭,其中,将剩余信号作为提供给纯声音分析单元2111的下一个输入信号,直到结束条件得到满足。后面将解释该结束条件。
参数保持单元2115保持当前帧的纯声音波形参数TP和前一帧的纯声音波形参数PrevTP,以便在将当前帧的纯声音波形参数TP和前一帧的纯声音波形参数PrevTP送至被提取波形合成单元2116的同时,将前一帧的纯声音波形参数PrevTP送至标准化/量化单元2120。
被提取波形合成单元2116利用上述汉宁函数,用当前帧中的纯声音波形参数TP和前一帧中的纯声音波形参数PrevTP合成时域信号,以便为一个重叠域产生声音成分时域信号N-TS。减法器2117从输入的声时域信号S中提取出该声音成分时域信号N-TS,以便为重叠域输出剩余时域信号RS。这些剩余时域信号RS被送至图2所示的时域信号保持单元150并被保持。
标准化/量化单元2120对参数保持单元2115提供的前一帧的纯声音波形参数PrevTP进行标准化和量化,并输出量化后的前一帧的声音成分参数PrevN-QTP。
应该注意到,图4所示配置容易受到声音成分编码中的量化误差的影响。为了克服这一点,可以采用将量化误差包含在剩余时域信号中的配置,如图5和6所示。
作为将量化误差包含在剩余时域信号中的第一种配置,如图5所示,声音成分编码单元2200包括在声音成分提取单元2210中的标准化/量化单元2212,用于对声音信号信息进行标准化和量化。
在声音成分编码单元2200中,纯声音分析单元2211从输入的声时域信号S中分析使剩余信号最小化的纯声音成分,并将纯声音波形参数TP送至标准化/量化单元2212。
所述标准化/量化单元2212将纯声音分析单元2211提供的纯声音波形参数TP进行标准化和量化,并将量化后的纯声音波形参数QTP送至反向量化反向标准化单元2213和参数保持单元2217。
反向量化反向标准化单元2213对量化后的纯声音波形参数QTP进行反向量化和反向标准化,以将反向量化后的纯声音波形参数TP′送至纯声音合成单元2214和参数保持单元2117。
纯声音合成单元2214,根据反向量化后的纯声音波形参数TP′合成纯声音成分的纯声音波形时域信号Ts,以便在减法器2215从输入的声时域信号S中提取出由纯声音合成单元2214合成的纯声音波形时域信号TS。
结束条件判定单元2216检查由减法器2115提取纯声音而得到的剩余信号是否满足声音成分提取的结束条件,并影响重复纯声音提取的启闭,其中,将剩余信号作为提供给纯声音分析单元2211的下一个输入信号,直到结束条件得到满足。后面将解释该结束条件。
参数保持单元2217保持量化后的纯声音波形参数QTP和一个反向量化后的纯声音波形参数TP′,输出前一帧的量化后的声音成分参数PrevN-QTP,而将反向量化后的纯声音波形参数TP′和前一帧的反向量化后的纯声音波形参数PrevTP′送至被提取波形合成单元2218。
被提取波形合成单元2218,利用上述汉宁函数,用反向量化后的纯声音波形参数TP′和前一帧的反向量化后的纯声音波形参数PrevTP′合成时域信号,为重叠的域产生声音成分时域信号N-TS。减法器2219从输入的声时域信号S中提取出声音成分时域信号N-TS,以为重叠的域输出剩余时域信号RS。这些剩余时域信号RS被送至图2所示的时域信号保持单元150并被保持。
作为将量化误差包含在剩余时域信号中的第二种配置,如图6所示的声音成分编码单元2300也在声音成分提取单元2310中包括一标准化/量化单元2315,用于对声音信号信息进行标准化和量化。
在声音成分编码单元2300中,纯声音分析单元2311从输入的声时域信号S中分析使剩余信号能量最小化的纯声音成分。该纯声音分析单元将纯声音波形参数TP送至纯声音合成单元2312和标准化/量化单元2315。
该纯声音合成单元2312合成由纯声音分析单元2311分析的纯声音波形时域信号TS,而减法器2313从输入的声时域信号S中提取出由纯声音合成单元2312合成的纯声音波形时域信号TS。
结束条件判定单元2314检查由减法器2313提取纯声音而得到的剩余信号是否满足提取声音成分的结束条件,并影响重复提取纯声音的启闭,其中,将剩余信号作为提供给纯声音分析单元2311的下一个输入信号,直到结束条件得到满足。
标准化/量化单元2315将纯声音分析单元2311提供的纯声音波形参数TP进行标准化和量化,并将量化后的纯声音波形参数N-QTP送至反向量化反向标准化单元2316和参数保持单元2319。
反向量化反向标准化单元2316对量化后的纯声音波形参数N-QTP进行反向量化和反向标准化,并将反向量化后的纯声音波形参数N-TP′送至参数保持单元2319。
参数保持单元2319保持量化后的纯声音波形参数N-QTP和反向量化后的纯声音波形参数N-TP′,以输出前一帧的量化后的声音成分参数PrevN-QTP。参数保持单元还将当前帧的反向量化后的纯声音波形参数N-TP′和前一帧的反向量化后的纯声音波形参数PrevN-TP′送至被提取波形合成单元2317。
被提取波形合成单元2317,利用例如上述汉宁函数,用当前帧的反向量化后的纯声音波形参数N-TP′和前一帧的反向量化后的纯声音波形参数PrevN-TP′合成时域信号,为重叠的域产生声音成分时域信号N-TS。减法器2318从输入的声时域信号S中提取出该声音成分时域信号N-TS,以为重叠的域输出剩余时域信号RS。这些剩余时域信号RS被送至图2所示的时域信号保持单元150并被保持。
同时,在图5所示的结构中,幅度的标准化系数被固定在一个不小于能够设定的最大值的值。例如,如果输入信号的是记录在音乐光盘(CD)上的声时域信号,则用96dB作为标准化系数来进行量化。同时,标准化系数是一个固定值所以不需要包括在代码串中。
相反地,按照图4和图6中所示的结构,可以利用被提取出的多个正弦波形的最大幅度值作为参考来确定标准化系数,如图7所示。也就是说,从开头提供的多个标准化系数中选择出一个优化的标准化系数,并使用该标准化系数对全部正弦波形的幅度值进行量化。在这种情况下,说明用于量化的标准化系数的信息被包含在代码串中。在图4和图6所示结构的情况下,与图5所示结构相比,可以实现更高精度的量化,尽管增加了对应于说明标准化系数的信息值的比特数。
图2所示声信号编码设备100在声音成分编码单元120配置成图6所示的情况下的处理,参照图8所示流程图详细解释如下。
首先,在步骤S1声时域信号被输入给某个特定的分析域(样本的数目)。
在下一步骤S2,检查输入的声时域信号是否为声音。在可以设想多种判定方法的同时,可以仔细考虑的是,采用例如FFT这样的频谱分析处理输入的时域信号x(t),并当结果频谱X(k)的平均值AVE(X(k))和最大值Max(X(k))满足下列方程式(2)时,即当它们的比值大于当前门限Thtone时,给出输入信号是声音的判定:
如果在步骤S2中确定输入信号是声音的话,处理转到步骤S3。如果确定输入信号是噪声的话,处理转到步骤S10。
在步骤S3,从输入的时域信号中找出了剩余能量最小的频率成分。当从输入的时域信号xo(t)中提取出具有频率f的纯声音波形之后,剩余成分由下列方程(3)表示:
RSf(t)=xo(t)-Sfsin(2πft)-Cfcos(2πft)
...(3)
在上述方程(3)中,Sf和Cf可以由下列方程(4)和(5)表示:
其中,L表示分析域的长度(样本的数目)。
在这种情况下,剩余能量Ef由下列方程(6)给出:
上述分析将对全部频率f进行,以便找出给出最小剩余能量Ef的频率f1。
在下一步骤S4,将在步骤S3中得到的频率f1的纯声音波形,按照下列方程(7)从输入的时域信号xo(t)中提取出来:
x1(t)=x0(t)-Sf1sin(2πf1t)-Cf1cos(2πf1t)
...(7)
在步骤S5,检查提取的结束条件是否已经得到满足。提取的结束条件例如可以是:剩余时域信号不是声音信号、剩余时域信号的能量已经落到不小于输入时域信号能量的一个预定值、从纯声音提取形成的剩余时域信号下降的量不高于一个门限值等等。
如果在步骤S5中没有满足提取的结束条件,程序返回到步骤S3,其中,从方程(7)得到的剩余时域信号被设置为下一个输入的时域信号x1(t)。从步骤S3到步骤S5的处理被重复N次,直到提取的结束条件被满足。如果在步骤S5中提取的结束条件得到满足,则处理转到步骤S6。
在步骤S6,对所获得的N纯声音信息,即声音成分信息N-TP进行标准化和量化。例如,纯声音信息可以是图9A中所示的被提取的纯声音波形的频率fn、幅度Sfn或幅度Cfn,或者是图9B所示的频率fn、幅度Afn或相位Pfn,其中,0n<N。频率fn、幅度Sfn、幅度Cfn、幅度Afn和相位Pfn之间的关系如下列方程(8)和(9)所示:
Sfnsin(2πfnt)-Cfncos(2πf1t)=Afnsin(2πfnt+Pfn)(0≤t<L)
...(8)
在步骤S7,量化后的纯声音波形参数N-QTP被反向量化和反向标准化,以便得到反向量化后的纯声音波形参数N-TP′。在第一次标准化和量化声音成分信息以及随后的对该成分信息的反向量化和反向标准化中,可以与在此提取出的声音成分时域信号完全相同的时域信号,将在对声时域信号的解码处理中被相加。
在下一个步骤S8中,按照下列方程(11)为前一帧的反向量化后的纯声音波形参数PrevN-TP′和当前帧的反向量化后的纯声音波形参数N-TP′产生声音成分时域信号N-TS:
如上面描述的,这些声音成分时域信号N-TS在重叠的域中被合成,以便为重叠的域给出声音成分时域信号N-TS。
在步骤S9中,从输入的时域信号S中减去合成后的声音成分时域信号N-TS,如方程(12)所示:
RS(t)=S(t)-NTS(t)(0≤t<L)
...(12)
以便找出等效于剩余时域信号RS的半帧。
在步骤S10中,由等效于剩余时域信号RS的半帧或者等效于在步骤S2中被判定为噪声的输入信号的半帧和等效于已被保持的剩余时域信号RS的半帧或等效于输入信号的半帧形成此时要被编码的帧。对这些一帧信号用DFT或MDCT进行正交变换。在下一步骤S11将由此产生的频谱信息标准化和量化。
可以考虑自适应地改变标准化或量化剩余时域信号频谱信息的精度。在这种情况下,在步骤S12中进行检查,如量化步骤或量化效率这样的量化信息是否处于匹配状态。如果纯声音波形参数或剩余时域信号的频谱信息的量化步骤或量化效率不匹配,以使得例如由于过细的纯声音波形参数量化的步骤而达不到充分的量化步骤时,则将在步骤S13中改变纯声音波形参数的量化步骤。处理然后被转到步骤S6。如果在步骤S12中发现量化步骤或量化效率是匹配的,则处理转到步骤S14。
步骤S14中,依照纯声音波形参数、剩余时域信号或被发现为噪声的输入信号的频谱信息产生一个代码串。在步骤S15,该代码串被输出。
执行上述处理的本实施方式的声信号编码设备,能够在进行有效地对声音成分和剩余信号进行编码之前,从声时域信号中提取声音成分信号。
在对声信号编码设备100在声音成分编码单元120配置成图6所示情况下的处理,参照图8所示流程图进行了解释之后;对声信号编码设备100在声音成分编码单元120配置成图5所示情况下的处理,将借助图10所示流程图来解释。
在图10的步骤S21中,时域信号被输入在一个预定的分析域(样本的数目)。
在下一步骤S22,检查输入的时域信号在该分析域上是否为声音。判定技术与对图8中的相应解释类似。
在步骤S23,从输入的时域信号中找出使剩余频率最小的频率f1。
在下一步骤S24,纯声音波形参数TP被标准化和量化。该纯声音波形参数例如为:被提取出的纯声音波形的频率f1、幅度Sf1和幅度Cf1,或者频率f1、幅度Af1和相位Pf1。
在下一个步骤S25中,量化后的纯声音波形参数QTP被反向量化和反向标准化以获得纯声音波形参数TP′。
在下一个步骤S26,依照纯声音波形参数TP′、由下列方程(13)产生纯声音时域信号TS:
TS(t)=Sf1sin(2πf1t)+Cf1cos(2πf1t)
...(13)。
在下一步骤S27,在步骤S23中得到的频率f1的纯声音波形,按照下列方程(14)被从输入的时域信号xo(t)中提取出来:
x1(t)=x0(t)-TS(t)
...(14)
在下一个步骤S28,检查提取的结束条件是否已经得到满足。如果在步骤S28中没有满足提取的结束条件,程序返回到步骤S23。已注意到:从方程(14)得到的剩余时域信号变为下一个输入的时域信号x1(t)。从步骤S23到步骤S28的处理被重复N次,直到提取的结束条件被满足。如果在步骤S28中满足了提取的结束条件,则处理转到步骤S29。
在步骤S29中,等效于被提取的声音成分时域信号N-TS的半帧,依照前一帧的纯声音波形参数PrevN-TP′和当前帧的纯声音波形参数TP′被合成。
在下一个步骤S30,合成后的声音成分时域信号N-TS被从输入时域信号S中减去,以发现等效于剩余时域信号RS的半帧。
在步骤S31中,由等效于剩余时域信号RS的该半帧或者等效于在步骤S22被判定为噪声的输入信号的半帧,和由等效于已经保持的剩余时域信号RS的半帧或等效于输入信号的半帧形成一帧,并用DFT或MDCT进行正交变换。在下一步骤S32,所产生的频谱信息被标准化和量化。
可以考虑自适应地改变信息标准化和量化剩余时域信号频谱的精度。在这种情况下,在步骤S33中,对如量化步骤或量化效率这样的量化信息QI是否处于匹配状态进行检查。如果量化步骤或量化效率在纯声音波形参数和剩余时域信号的频谱信息之间不匹配,如由于纯声音波形参数量化步骤过高,而使得频谱信息中的充分量化步骤不能得到保证,则纯声音波形参数的量化步骤在步骤S34中将被改变。然后程序将返回到步骤S23。如果在步骤S33中发现量化步骤或量化效率是匹配的,则处理转到步骤S35。
步骤S35中,依照产生的纯声音波形参数、剩余时域信号或被发现为噪声的输入信号的频谱信息产生一个代码串。在步骤S36,这样产生的代码串被输出。
图11示出了一种实施本发明的声信号解码设备400的结构。如图11所示的声信号解码设备400,包括代码串分解单元410、声音成分解码单元420、剩余成分解码单元430和加法器440。
代码串分解单元410用于将输入代码串分解成声音成分信息N-QTP和剩余成分信息QNS。
声音成分解码单元420用于依照声音成分信息N-QTP来产生声音成分时域信号N-TS′,它包括:反向量化反向标准化单元421,用于对由代码串分解单元410得到的量化后的纯声音波形参数N-QTP进行反向量化/反向标准化,以及声音成分合成单元422,用于依照从反向量化反向标准化单元421得到的声音成分参数N-TP′合成声音成分时域信号N-TS′。
剩余成分解码单元430用于依照剩余成分信息QNS来产生剩余成分信息RS′,它包括:反向量化反向标准化单元431,用于对由代码串分解单元410得到的剩余成分信息QNS进行反向量化/反向标准化,和反向正交变换单元432,用于对由反向量化反向标准化单元431得到的频谱信息NS′进行反向正交变换,以便产生剩余时域信号RS′。
加法器440合成声音成分解码单元420的输出和剩余成分解码单元430的输出,以便输出恢复信号S′。
因此,本实施方式中的声信号解码设备400将输入代码串分解为声音成分信息和剩余成分信息,以便相应地进行解码处理。
例如,可以将声音成分解码单元420具体地配置为图12所示的配置,从中可见,声音成分解码单元500包括反向量化反向标准化单元510和声音成分合成单元520。反向量化反向标准化单元510和声音成分合成单元520分别等效于图11中的反向量化反向标准化单元421和声音成分合成单元422。
在声音成分解码单元500中,反向量化反向标准化单元510对输入的声音成分信息N-QTP进行反向量化和反向标准化,并将纯声音波形参数TP′0、TP′1、...、TP′N与各自的声音成分参数N-TP′的纯声音波形一起,分别送至纯声音合成单元5210、5211、...、521N。
纯声音合成单元5210、5211、...、521N,基于由反向量化反向标准化单元510提供的纯声音波形参数TP′0、TP′1、...、TP′N,合成每个纯声音波形TS′0、TS′1、...、TS′N。
加法器522合成来自纯声音合成单元5210、5211、...、521N的纯声音波形TS′0、TS′1、...、TS′N,并将合成后的波形作为声音成分时域信号N-TS′输出。
图11所示的声信号解码设备400在声音成分解码单元420配置成图12所示情况下的处理,参照图13所示流程图详细解释如下。
首先,在步骤S41,输入由声信号编码设备100产生的代码串。在下一个步骤S42,该代码串被分解成声音成分信息和剩余信号信息。
在下一个步骤S43,检查在分解后的代码串中是否有任何声音成分参数。如果有声音成分参数,处理转到步骤S44,否则处理转到步骤S46。
在下一步骤S44,声音成分的参数被分别反向量化和反向标准化,以分别产生声音成分参数。
在下一个步骤S45,依照从步骤S44获得的参数将声音成分波形进行合成,以便产生声音成分时域信号。
在步骤S46,由步骤S42获得的剩余信号信息被反向量化和反向标准化,以便产生剩余时域信号的频谱。
在下一个步骤S47,由步骤S46获得的频谱信息被反向正交变换,以产生剩余成分时域信号。
在步骤S48,由步骤S45产生的声音成分时域信号和由步骤S47产生的剩余成分时域信号,被在时间轴上相加以产生恢复的时域信号,该信号然后在步骤S49中输出。
在上面描述的处理中,本实施方式的声信号解码设备400恢复了输入的声时域信号。
在图13中的步骤S43中,检查分解后的代码串中是否有任何声音成分参数。然而,也可以不进行这样的判决而直接将处理转到步骤S44。在这种情况下,如果不存在声音成分参数,则在步骤S48作为声音成分时域信号的合成为零。
可以考虑将图2所示的剩余成分编码单元130替换为图14所示配置。参照图14,剩余成分编码单元7100包括:正交变换单元7101,用于将剩余时域信号RS变换为频谱信息RSP;和标准化单元7102,用于将正交变换单元7101获得的频谱信息RSP进行标准化,以输出标准化信息N。也就是说,剩余成分编码单元7100仅对频谱信息进行标准化,而没有量化,并仅输出标准化的信息N到解码器一侧。
在这种情况下,该解码器被配置成如图15所示。即剩余成分解码单元7200包括:随机数产生器7201,用于通过表示任意适当的随机数分布的随机数产生伪频谱信息GSP;反向标准化单元7202,用于依照标准化信息对随机数产生器7201产生的伪频谱信息GSP进行反向标准化;和反向正交变换单元7203,用于对由反向标准化单元7202反向标准化的伪频谱信息RSP′进行反向正交变换,所述信息RSP′被认为是产生伪剩余时域信号RS′的伪频谱信息。
应注意到,在随机数产生器7201中产生随机数时,随机数的分布优选为一种接近于由正交变换和标准化常规声信号或噪声信号所得到的信息分布。还可以提供多个随机数分布并在编码时分析哪个是优化的分布,然后将优化分布的ID信息包含在代码串中,并在解码时参考、利用该ID信息的随机数分布产生随机数,以产生更接近的剩余时域信号。
按照上述实施方式,可以在声信号编码设备中提取出声音成分信号,并对声音成分和剩余成分实施有效的编码,使得在声信号解码设备中,能够利用与编码器使用的方法相应的方法对编码后的代码串进行解码。
本发明不局限在上述实施方式。作为第二种声信号编码器和解码器的示意结构,可将声时域信号S划分到多个频率范围,然后对每个频率范围进行编码处理并随后进行解码处理,再对各个频率范围进行合成。现在将其简单介绍如下:
在图16中,声信号编码设备810包括:频带分割滤波器单元811,用于将输入的声时域信号S分割成多个频带;频带信号编码单元812、813和814,用于从频带分割到多个频带上的输入信号中获得声音成分信息N-QTP和剩余成分信息QNS;和代码串产生单元815,用于分别从频带的声音成分信息N-QTP和/或剩余成分信息QNS中产生代码串C。
尽管频带信号编码单元812、813和814由一个声音噪声判定单元、一个声音成分编码单元和一个剩余成分编码单元组成,但对于仅有很少声音成分的高频频带,频带信号编码单元也可以如频带信号编码单元814表示的那样,仅由剩余成分编码单元组成。
声信号解码设备820包括:代码串分解单元821,其输入由声信号编码设备810中产生的代码串C并将该输入的代码串分解成分割在频带上的声音成分信息N-QTP和剩余成分信息QNS;频带信号解码单元822、823和824,用于分别为分割在频带上的声音成分信息N-QTP和剩余成分信息QNS产生时域信号;和频带合成滤波器单元825,用于将频带信号解码单元822、823和824产生的基于频带的恢复信号S′进行频带合成。
应注意到,频带信号解码单元822、823和824由上述声音成分解码单元、剩余成分解码单元和加法器组成。然而,也如编码器的情况,对于仅有很少声音成分的高频频带,频带信号解码单元也可仅由剩余成分解码单元组成。
作为第三种声信号编码器和声信号解码器的结构,如图17所示,可以考虑比较多个编码系统的编码效率值,并选择具有较高编码效率的编码系统的代码串C。现在将其简单介绍如下:
参照图17,声信号编码设备900包括:第一编码单元901,用于依照第一编码系统对输入的声时域信号S进行编码;第二编码单元905,用于依照第二编码系统对输入的声时域信号S进行编码;和编码效率判定单元909,用于确定第一编码系统和第二编码系统的编码效率。
第一编码单元901包括:声音成分编码单元902,用于对声时域信号S的声音成分进行编码;剩余成分编码单元903,用于对从声音成分编码单元902输出的剩余时域信号进行编码;和代码串产生单元904,用于从由声音成分编码单元902产生的声音成分信息N-QTP和剩余成分编码单元903产生的剩余成分信息QNS产生代码串C。
第二编码单元905包括:正交变换单元906,用于将输入的时域信号变换成频谱信息SP;标准化/量化单元907,用于对由正交变换单元906获得的频谱信息SP进行标准化/量化;代码串C产生单元908,用于从标准化/量化单元907获得的量化后的频谱信息QSP中产生代码串C。
编码效率判定单元909输入在代码串产生单元904和代码串产生单元908中产生的代码串C的编码信息CI。该编码效率判定单元比较第一编码单元901和第二编码单元905的编码效率,以便选择出实际输出代码串C并控制开关单元910。该开关单元910根据从编码效率判定单元909提供的开关代码F,转换代码串C之间的输出。如果选择了第一编码单元901的代码串C,则开关单元910这样转接:使得该代码串被提供给将在后面解释的第一解码单元921,反之,如果选择了第二编码单元905的代码串C,则开关单元910这样转接:使得该代码串被提供给同样将在后面解释的第二解码单元926。
在另一方面,声信号解码单元920包括:第一解码单元921,用于依照第一解码系统对输入的代码串C进行解码;和第二解码单元926,用于依照第二解码系统对输入的代码串C进行解码。
第一解码单元921包括:代码串分解单元922,用于将输入的代码串C分解为声音成分信息和剩余成分信息;声音成分解码单元923,用于从在代码串分解单元922获得的声音成分信息产生声音成分时域信号;剩余成分解码单元924,用于从在代码串分解单元922获得的剩余成分信息产生剩余成分时域信号;和加法器925,用于合成分别由声音成分解码单元923和剩余成分解码单元924中产生的声音成分时域信号和剩余成分时域信号。
第二解码单元926包括:代码串分解单元927,用于从输入的代码串C中获得量化后的频谱信息;反向量化反向标准化单元928,用于对从代码串分解单元927获得的量化后的频谱信息进行反向量和化反向标准化;和反向正交变换单元929,用于对由反向量化反向标准化单元928获得的频谱信息进行反向正交变换,以产生时域信号。
也就是说,声信号解码单元920,依照与在声信号编码设备900中所选定的编码系统相对应的解码系统,对输入的代码串C进行解码。
应该注意到,在本发明的范围内除了上述第二和第三种结构外还可以有许多变化形式。
在上述实施方式中,MDCT主要被用于正交变换。这仅仅是示例,也同样可以使用例如FFT、DFT或DCT。帧与帧之间的重叠也可以不局限于半帧。
此外,尽管前面的解释是按照硬件术语进行的,但也可以提供一种其上记录有表示上述编码和解码方法的程序的记录介质。还可以提供其上记录有由此获得的代码串或者对该代码串解码获得的信号的该种记录介质。
按照上面描述的本发明,通过从声时域信号中提取出声音成分信号,以及通过对声音成分信号和对由从声信号中提取出声音成分信号而获得的剩余时域信号进行编码,有可能抑制因为在本地频率中产生的声音成分造成的编码效率恶化的频谱的扩散。
Claims (29)
1.一种声信号编码方法,用于对声时域信号进行编码,其包括:
一个声音成分编码步骤,从所述声时域信号中提取声音成分信号并对该提取出的声音成分信号进行编码;
一个剩余成分编码步骤,对在所述声音成分编码步骤中、从所述声时域信号中提取所述声音成分信号后而获得的剩余时域信号进行编码;以及
代码串产生步骤,基于从声音成分编码步骤所获得的编码信息和从剩余成分编码步骤所获得的编码信息来产生并输出代码串。
2.根据权利要求1所述的声信号编码方法,还包括:
一个声音/噪声识别步骤,识别所述声时域信号是声音还是噪声;
在所述声音/噪声识别步骤被确定为噪声的所述声时域信号,在所述剩余成分编码步骤被编码。
3.根据权利要求1所述的声信号编码方法,其中,如果用于对所述声时域信号进行编码的编码单元在时间轴上相互重叠,则为了获得所述剩余时域信号,将一个由时间上在先的编码单元中获得的所述声音成分信号与由时间上在后的编码单元中获得的所述声音成分信号进行合成而产生的、包含所述重叠部分的信号从所述声时域信号中提取出来。
4.根据权利要求3所述的声信号编码方法,其中,所述声音成分编码步骤包括:
对被提取波形进行合成的子步骤,在对所述声时域信号编码中所使用的编码单元在时间轴上相重叠的情况下,合成由时间上在先的编码单元中所获得的所述声音成分信号和在一个重叠部分中的、时间上在后的编码单元中获得的所述声音成分信号,以产生合成后的信号;以及
相减输出子步骤,从所述声时域信号中减去所述合成后的信号,以输出所述剩余时域信号。
5.根据权利要求2所述的声信号编码方法,还包括:一个时域保持步骤,为所述剩余成分编码步骤保持一个输入。
6.根据权利要求1所述的声信号编码方法,其中,所述声音成分编码步骤包括:
一个纯声音分析子步骤,从所述声时域信号中分析出使剩余能量最小的纯声音;
一个纯声音合成子步骤,利用在所述纯声音分析子步骤中获得的纯声音波形参数,合成纯声音波形;
一个相减子步骤,从所述声时域信号中顺序地减去由所述纯声音合成子步骤合成的纯声音波形,以产生剩余信号;
一个结束条件判定子步骤,分析由所述相减子步骤获得的所述剩余信号,以基于一个预定条件检验纯声音分析子步骤的结束;和
一个标准化/量化子步骤,对由所述纯声音分析子步骤获得的纯声音波形参数进行标准化和量化。
7.根据权利要求1所述的声信号编码方法,其中,所述声音成分编码步骤包括:
一个纯声音分析子步骤,在所述声时域信号中分析使剩余能量最小的纯声音;
一个标准化/量化子步骤,对由所述纯声音分析子步骤获得的纯声音波形参数进行标准化和量化;
一个反向量化/反向标准化子步骤,对由所述标准化/量化子步骤获得的纯声音波形参数进行反向量化和反向标准;
一个纯声音波形合成子步骤,利用在所述反向量化/反向标准化子步骤中获得的纯声音波形参数,合成纯声音波形;
一个相减子步骤,从所述声时域信号中顺序地减去由所述纯声音合成步骤合成的纯声音波形,以获得剩余信号;和
一个结束条件判定子步骤,分析由所述相减子步骤获得的所述剩余信号,以基于一个预定条件决定纯声音分析子步骤的结束。
8.根据权利要求1所述的声信号编码方法,其中,所述声音成分编码步骤包括:
一个纯声音分析子步骤,在所述声时域信号中分析使剩余能量最小的纯声音;
一个纯声音合成子步骤,合成在所述纯声音分析子步骤中获得的纯声音波形;
一个相减子步骤,从所述声时域信号中顺序地减去由所述纯声音合成子步骤合成的纯声音波形,以产生剩余信号;
一个结束条件判定子步骤,分析由所述相减子步骤获得的所述剩余信号,以基于一个预定条件检验纯声音分析子步骤的结束;
一个标准化/量化子步骤,对由所述纯声音分析子步骤获得的纯声音波形参数进行标准化和量化;和
一个反向量化/反向标准化子步骤,对在所述标准化/量化子步骤获得的纯声音波形参数进行反向量化和反向标准。
9.根据权利要求6所述的声信号编码方法,其中,在所述结束条件判定子步骤中的结束条件是,所述剩余信号被判定为噪声。
10.根据权利要求6所述的声信号编码方法,其中,在所述结束条件判定子步骤中的结束条件是,所述剩余信号的能量已经落到不小于输入时域信号能量的一个预定值。
11.根据权利要求6所述的声信号编码方法,其中,在所述结束条件判定子步骤中的结束条件是,从所述纯声音提取形成的所述剩余信号的下降的量不高于一个门限值。
12.根据权利要求1所述的声信号编码方法,其中,所述剩余成分编码步骤包括:
一个正交变换子步骤,从在时间上在先的编码单元的一部分中的剩余时域信号和在时间上在后的编码单元的一部分中的剩余时域信号中,产生一个编码单元的剩余时域信号并对其进行正交变换;和
一个标准化/量化子步骤,对由所述正交变换子步骤获得的频谱信息进行标准化和量化。
13.根据权利要求1所述的声信号编码方法,其中,所述剩余成分编码步骤包括:
一个正交变换子步骤,由在时间上在先的编码单元的一部分中的剩余时域信号和在时间上在后的编码单元的一部分中的剩余时域信号产生一个编码单元的剩余信号,并对该剩余信号进行正交变换;和
一个标准化子步骤,对由所述正交变换子步骤获得的频谱信息进行标准化。
14、一种用于对声时域信号进行编码的声信号编码方法,包括:
对被提取波形进行合成的子步骤,在对所述声时域信号编码中所使用的编码单元在时间轴上相重叠的情况下,合成由时间上在先的编码单元中所获得的所述声音成分信号和在一个重叠部分中的、时间上在后的编码单元中获得的所述声音成分信号,以产生合成后的信号;以及
相减输出子步骤,从所述声时域信号中减去所述合成后的信号,以输出所述剩余时域信号。
15.一种声信号解码方法,用于对声信号进行解码,其中,从外部接收代码串,该方法包括:
一个代码串分解步骤,分解所述代码串;
一个声音成分解码步骤,依照由所述代码串分解步骤获得的声音成分信息对声音成分时域信号进行解码;
一个剩余成分解码步骤,依照由所述代码串分解步骤获得的剩余成分信息,对剩余成分时域信号进行解码;和
一个相加步骤,对由所述声音成分解码步骤获得的声音成分时域信号和由所述剩余成分解码步骤获得的剩余成分时域信号进行相加,以恢复所述声时域信号。
16.根据权利要求15所述的声信号解码方法,其中,所述声音成分解码步骤包括:
一个反向量化/反向标准化子步骤,对由所述代码串分解步骤获得的声音成分信息进行反向量化和反向标准化;和
一个声音成分合成子步骤,依照在所述反向量化/反向标准化子步骤中获得的声音成分信息对声音成分时域信号进行合成。
17.根据权利要求15所述的声信号解码方法,其中,所述剩余成分解码步骤包括:
一个反向量化/反向标准化子步骤,对由所述代码串分解步骤获得的剩余成分信息进行反向量化和反向标准化;和
一个反向正交变换子步骤,对由所述反向量化/反向标准化子步骤获得的剩余成分频谱信息进行反向正交变换,以产生剩余成分时域信号。
18.根据权利要求16所述的声信号解码方法,其中,所述声音成分合成子步骤包括:
一个纯声音波形合成子步骤,依照由所述反向量化/反向标准化子步骤获得的声音成分信息合成纯声音波形;和
一个相加子步骤,将多个由所述纯声音波形合成子步骤获得的纯声音波形相加,以合成所述声音成分时域信号。
19.根据权利要求15所述的声信号解码方法,其中,所述剩余成分信息是通过从时间上在先的编码单元中一部分中的剩余时域信号和从时间上在后的编码单元中一部分的剩余时域信号中产生一个编码单元的剩余时域信号、对该一个编码单元的剩余时域信号进行正交变换、并通过对产生的频谱信息进行标准化而获得的,其中,所述剩余成分解码步骤包括:
一个随机数产生子步骤,产生随机数;
一个反向标准化子步骤,依照与在编码器一侧的所述标准化步骤获得的标准化信息对所述随机数进行反向标准化,以产生述伪频谱信息;和
一个反向正交变换子步骤,对由所述反向标准化子步骤获得的所述伪频谱信息进行反向正交变换,以产生伪剩余成分时域信号。
20.根据权利要求19所述的声信号解码方法,其中,所述随机数产生子步骤产生这样的随机数,其分布接近于由正交变换和标准化常规声时域信号或噪声信号所获得的分布。
21.根据权利要求19所述的声信号解码方法,其中,代码串具有这样的ID信息,用来指明在编码器一侧选择的分布接近标准化了的频谱信息的分布,以及
其中,在所述随机数产生子步骤中,所述随机数的分布是基于所述ID信息产生的。
22.一种声信号编码方法,用于对声时域信号进行编码,其包括:
一个频带分割步骤,将所述声时域信号分割到多个频带上;
一个声音成分编码步骤,从至少一个频带上的所述声时域信号中提取声音成分信号,并对该提取出的声音成分信号进行编码;
一个剩余成分编码步骤,对由在所述声音成分编码步骤从至少一个频率范围内的声时域信号中提取所述声音成分信号后而获得的剩余时域信号进行编码;以及
代码串产生步骤,基于从声音成分编码步骤所获得的编码信息和从剩余成分编码步骤所获得的编码信息来产生并输出代码串。
23.一种声信号解码方法,其中,从外部接收代码串,所述方法包括:
一个代码串分解步骤,分解所述代码串;
一个声音成分解码步骤,在所述至少一个频带上,依照由所述代码串分解步骤获得的声音成分信息,合成声音成分时域信号;
一个剩余成分解码步骤,在所述至少一个频带上,依照由所述代码串分解步骤获得的剩余成分信息产生剩余成分时域信号;
一个相加步骤,将由所述声音成分解码步骤获得的声音成分时域信号和由所述剩余成分解码步骤获得的剩余成分时域信号相加;和
一个频带合成步骤,在各个频带上,对解码的信号进行频带合成,以恢复所述声时域信号。
24.一种用于对声信号编码的声信号编码方法,包括:
一个第一声信号编码步骤,对所述声时域信号利用第一编码方法进行编码,该方法包括:一个声音成分编码步骤,从所述声时域信号中提取声音成分信号,并对该声音成分信号进行编码;一个剩余成分编码步骤,对由在所述声音成分编码步骤从所述声时域信号中提取所述声音成分信号而获得的时域剩余信号进行编码;和一个代码串产生步骤,从所述声音成分编码步骤和所述剩余成分编码步骤获得的信息产生一个代码串;
一个第二声信号编码步骤,对所述声时域信号利用第二编码方法进行编码;和
一个编码效率判定步骤,对所述第一声信号编码步骤的编码效率和第二声信号编码步骤的编码效率进行比较,以选出一个具有较好编码效率的代码串。
25.根据权利要求24所述的声信号编码方法,其中,所述第二声信号编码步骤包括:
一个正交变换子步骤,对所述声时域信号进行正交变换;和
一个标准化/量化子步骤,对由所述正交变换子步骤获得的频谱信息进行标准化和量化;和
一个代码串产生子步骤,从所述标准化/量化子步骤获得的信息中产生一个代码串。
26.一种声信号解码方法,用于对一代码串进行解码,该代码串是按这样的方式被选择输入的,即将由第一声信号编码步骤编码的一个代码串或由第二声信号编码步骤编码的一个代码串中编码效率较高的一个被选择输入和解码,所述第一声信号编码步骤是这样一个步骤,其中,声信号通过第一编码方法被编码,该方法包括:由从声时域信号中提取声音成分信号和对该声音成分信号编码得到的信息、以及从对所述从声时域信号中依次提取所述声音成分信号后得到的剩余信号进行编码得到的信息产生一个代码串,所述第二声信号编码步骤是这样一个步骤,其中,声时域信号通过第二编码方法被编码,其中,
如果将由所述第一声信号编码步骤进行编码所产生的代码串作为输入,则利用第一声信号解码步骤恢复所述声时域信号,该第一声信号解码步骤包括:一个将所述代码串分解成声音成分信息和剩余成分信息的代码串分解步骤、一个依照在所述代码串分解步骤得到的声音成分信息产生声音成分时域信号的声音成分解码步骤、一个依照在所述代码串分解步骤得到的剩余成分信息产生剩余成分时域信号的剩余成分解码步骤,和一个将所述声音成分时域信号和所述剩余成分时域信号相加的相加步骤;
如果将在所述第二声信号编码步骤中进行编码所获得的代码串作为输入,则利用对应于所述第二声信号编码步骤的第二声信号解码子步骤恢复所述声时域信号。
27.根据权利要求26所述的声信号解码方法,其中,
所述第二声信号编码步骤从在对所述声时域信号进行正交变换获得的、被标准化和量化的频谱信息产生所述代码串;和
其中,所述第二声信号解码子步骤包括:一个代码串分解步骤,分解所述代码串以产生量化后的频谱信息;
一个反向量化/反向标准化子步骤,对所述量化后的频谱信息进行反向量化和反向标准化;和
一个反向正交变换子步骤,对由所述反向量化/反向标准化子步骤获得的频谱信息进行反向正交变换。
28.一种声信号编码设备,用于对声时域信号进行编码,包括:
声音成分编码装置,用于从所述声时域信号中提取声音成分信号,并对该提取出的声音成分信号进行编码;
剩余成分编码装置,用于对由在所述声音成分编码装置从所述声时域信号中提取所述声音成分信号后而获得的剩余时域信号进行编码;以及
代码串产生装置,用于基于从声音成分编码装置中所获得的编码信息和从剩余成分编码装置中所获得的编码信息来产生并输出代码串。
29.一种声信号解码设备,其中,一代码串被输入和解码,该代码串是通过从声时域信号中提取声音成分信号并对该声音成分信号编码,以及在对提取了所述声音成分信号的所述声时域信号中相对应的剩余信号进行编码而获得的,该设备包括:
一个代码串分解装置,用于分解所述代码串;
一个声音成分解码装置,用于依照由所述代码串分解装置获得的声音成分信息对声音成分时域信号进行解码;
一个剩余成分解码装置,用于依照由所述声音成分解码装置获得的剩余成分信息对剩余时域信号进行解码;和
一个相加装置,用于将由所述声音成分解码装置获得的声音成分时域信号和由所述剩余成分解码装置获得的剩余成分时域信号进行相加,以恢复所述声时域信号。
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2001182384A JP4622164B2 (ja) | 2001-06-15 | 2001-06-15 | 音響信号符号化方法及び装置 |
| JP182384/01 | 2001-06-15 | ||
| JP182384/2001 | 2001-06-15 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| CN1465044A CN1465044A (zh) | 2003-12-31 |
| CN1291375C true CN1291375C (zh) | 2006-12-20 |
Family
ID=19022496
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CNB028025245A Expired - Fee Related CN1291375C (zh) | 2001-06-15 | 2002-06-11 | 声信号编码方法和设备、解码方法和设备 |
Country Status (5)
| Country | Link |
|---|---|
| US (1) | US7447640B2 (zh) |
| JP (1) | JP4622164B2 (zh) |
| KR (1) | KR100922702B1 (zh) |
| CN (1) | CN1291375C (zh) |
| WO (1) | WO2002103682A1 (zh) |
Families Citing this family (22)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20050086762A (ko) * | 2002-11-27 | 2005-08-30 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | 정현파 오디오 코딩 |
| WO2006051451A1 (en) * | 2004-11-09 | 2006-05-18 | Koninklijke Philips Electronics N.V. | Audio coding and decoding |
| KR100707174B1 (ko) * | 2004-12-31 | 2007-04-13 | 삼성전자주식회사 | 광대역 음성 부호화 및 복호화 시스템에서 고대역 음성부호화 및 복호화 장치와 그 방법 |
| JP4635709B2 (ja) * | 2005-05-10 | 2011-02-23 | ソニー株式会社 | 音声符号化装置及び方法、並びに音声復号装置及び方法 |
| US7548853B2 (en) | 2005-06-17 | 2009-06-16 | Shmunk Dmitry V | Scalable compressed audio bit stream and codec using a hierarchical filterbank and multichannel joint coding |
| JP4606264B2 (ja) * | 2005-07-19 | 2011-01-05 | 三洋電機株式会社 | ノイズキャンセラ |
| US20070033042A1 (en) * | 2005-08-03 | 2007-02-08 | International Business Machines Corporation | Speech detection fusing multi-class acoustic-phonetic, and energy features |
| US7962340B2 (en) * | 2005-08-22 | 2011-06-14 | Nuance Communications, Inc. | Methods and apparatus for buffering data for use in accordance with a speech recognition system |
| US8620644B2 (en) | 2005-10-26 | 2013-12-31 | Qualcomm Incorporated | Encoder-assisted frame loss concealment techniques for audio coding |
| ES2663269T3 (es) * | 2007-06-11 | 2018-04-11 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Codificador de audio para codificar una señal de audio que tiene una porción similar a un impulso y una porción estacionaria |
| KR101411901B1 (ko) * | 2007-06-12 | 2014-06-26 | 삼성전자주식회사 | 오디오 신호의 부호화/복호화 방법 및 장치 |
| CN101488344B (zh) * | 2008-01-16 | 2011-09-21 | 华为技术有限公司 | 一种量化噪声泄漏控制方法及装置 |
| CN101521010B (zh) * | 2008-02-29 | 2011-10-05 | 华为技术有限公司 | 一种音频信号的编解码方法和装置 |
| CN101615395B (zh) | 2008-12-31 | 2011-01-12 | 华为技术有限公司 | 信号编码、解码方法及装置、系统 |
| WO2011083849A1 (ja) * | 2010-01-08 | 2011-07-14 | 日本電信電話株式会社 | 符号化方法、復号方法、符号化装置、復号装置、プログラムおよび記録媒体 |
| US10312933B1 (en) | 2014-01-15 | 2019-06-04 | Sprint Spectrum L.P. | Chord modulation communication system |
| PL3000110T3 (pl) * | 2014-07-28 | 2017-05-31 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Wybór jednego spośród pierwszego algorytmu kodowania i drugiego algorytmu kodowania z zastosowaniem redukcji harmonicznych |
| EP3182410A3 (en) * | 2015-12-18 | 2017-11-01 | Dolby International AB | Enhanced block switching and bit allocation for improved transform audio coding |
| WO2020141108A1 (en) | 2019-01-03 | 2020-07-09 | Dolby International Ab | Method, apparatus and system for hybrid speech synthesis |
| CN109817196B (zh) * | 2019-01-11 | 2021-06-08 | 安克创新科技股份有限公司 | 一种噪音消除方法、装置、系统、设备及存储介质 |
| CN113724725B (zh) * | 2021-11-04 | 2022-01-18 | 北京百瑞互联技术有限公司 | 一种蓝牙音频啸叫检测抑制方法、装置、介质及蓝牙设备 |
| KR20240161342A (ko) * | 2023-05-04 | 2024-11-12 | 한국전자통신연구원 | 오디오 신호의 부호화/복호화 방법 및 장치 |
Family Cites Families (23)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP3275249B2 (ja) * | 1991-09-05 | 2002-04-15 | 日本電信電話株式会社 | 音声符号化・復号化方法 |
| CN1038089C (zh) * | 1993-05-31 | 1998-04-15 | 索尼公司 | 信号编码或译码装置及信号编码或译码方法 |
| TW327223B (en) | 1993-09-28 | 1998-02-21 | Sony Co Ltd | Methods and apparatus for encoding an input signal broken into frequency components, methods and apparatus for decoding such encoded signal |
| JP3685823B2 (ja) * | 1993-09-28 | 2005-08-24 | ソニー株式会社 | 信号符号化方法及び装置、並びに信号復号化方法及び装置 |
| DE69428435T2 (de) * | 1993-11-04 | 2002-07-11 | Sony Corp., Tokio/Tokyo | Signalkodierer, signaldekodierer, aufzeichnungsträger und signalkodiererverfahren |
| CA2163371C (en) * | 1994-04-01 | 2005-09-20 | Kyoya Tsutsui | Information encoding method and apparatus, information decoding method and apparatus, information transmission method, and information recording medium |
| JP3465341B2 (ja) * | 1994-04-28 | 2003-11-10 | ソニー株式会社 | オーディオ信号符号化方法 |
| TW295747B (zh) * | 1994-06-13 | 1997-01-11 | Sony Co Ltd | |
| JPH07336231A (ja) * | 1994-06-13 | 1995-12-22 | Sony Corp | 信号符号化方法及び装置、信号復号化方法及び装置、並びに記録媒体 |
| JP3250376B2 (ja) * | 1994-06-13 | 2002-01-28 | ソニー株式会社 | 情報符号化方法及び装置並びに情報復号化方法及び装置 |
| JP3277699B2 (ja) * | 1994-06-13 | 2002-04-22 | ソニー株式会社 | 信号符号化方法及び装置並びに信号復号化方法及び装置 |
| JPH0934493A (ja) | 1995-07-20 | 1997-02-07 | Graphics Commun Lab:Kk | 音響信号符号化装置、音響信号復号装置および音響信号処理装置 |
| JPH09101799A (ja) * | 1995-10-04 | 1997-04-15 | Sony Corp | 信号符号化方法及び装置 |
| US5886276A (en) | 1997-01-16 | 1999-03-23 | The Board Of Trustees Of The Leland Stanford Junior University | System and method for multiresolution scalable audio signal encoding |
| TW429700B (en) * | 1997-02-26 | 2001-04-11 | Sony Corp | Information encoding method and apparatus, information decoding method and apparatus and information recording medium |
| US6064954A (en) * | 1997-04-03 | 2000-05-16 | International Business Machines Corp. | Digital audio signal coding |
| US6078880A (en) * | 1998-07-13 | 2000-06-20 | Lockheed Martin Corporation | Speech coding system and method including voicing cut off frequency analyzer |
| US6266644B1 (en) | 1998-09-26 | 2001-07-24 | Liquid Audio, Inc. | Audio encoding apparatus and methods |
| JP2000122676A (ja) * | 1998-10-15 | 2000-04-28 | Takayoshi Hirata | 音楽信号の波形符号化方式 |
| JP2000267686A (ja) * | 1999-03-19 | 2000-09-29 | Victor Co Of Japan Ltd | 信号伝送方式及び復号化装置 |
| JP3434260B2 (ja) | 1999-03-23 | 2003-08-04 | 日本電信電話株式会社 | オーディオ信号符号化方法及び復号化方法、これらの装置及びプログラム記録媒体 |
| JP2001007704A (ja) * | 1999-06-24 | 2001-01-12 | Matsushita Electric Ind Co Ltd | トーン成分データの適応オーディオ符号化方法 |
| JP2003508806A (ja) | 1999-08-27 | 2003-03-04 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 改善されたエンコーダ及びデコーダを備える伝送システム |
-
2001
- 2001-06-15 JP JP2001182384A patent/JP4622164B2/ja not_active Expired - Lifetime
-
2002
- 2002-06-11 KR KR1020037002141A patent/KR100922702B1/ko not_active Expired - Fee Related
- 2002-06-11 US US10/362,007 patent/US7447640B2/en not_active Expired - Lifetime
- 2002-06-11 CN CNB028025245A patent/CN1291375C/zh not_active Expired - Fee Related
- 2002-06-11 WO PCT/JP2002/005809 patent/WO2002103682A1/ja not_active Ceased
Also Published As
| Publication number | Publication date |
|---|---|
| US20040024593A1 (en) | 2004-02-05 |
| WO2002103682A1 (fr) | 2002-12-27 |
| KR100922702B1 (ko) | 2009-10-22 |
| KR20030022894A (ko) | 2003-03-17 |
| JP4622164B2 (ja) | 2011-02-02 |
| US7447640B2 (en) | 2008-11-04 |
| JP2002372996A (ja) | 2002-12-26 |
| CN1465044A (zh) | 2003-12-31 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN1291375C (zh) | 声信号编码方法和设备、解码方法和设备 | |
| CN1096148C (zh) | 信号编码方法和装置 | |
| CN1264138C (zh) | 复制语音信号、解码语音、合成语音的方法和装置 | |
| CN1185620C (zh) | 声音合成装置和方法以及电话装置 | |
| CN1127055C (zh) | 用于对宽带声音信号进行有效的编码的感觉加权设备与方法以及使用该设备的蜂窝通信系统 | |
| CN1065381C (zh) | 数字音频信号编码和/或译码方法 | |
| CN1212606C (zh) | 处理丢失帧的语音通信系统及方法 | |
| CN1288622C (zh) | 编码设备和解码设备 | |
| CN1237506C (zh) | 音响信号编码方法及设备、音响信号解码方法及设备 | |
| CN101048814A (zh) | 编码装置、解码装置、编码方法及解码方法 | |
| CN1101087C (zh) | 信号编码方法及装置、信号解码方法及装置和信号传送方法 | |
| CN1689069A (zh) | 声音编码设备和声音编码方法 | |
| CN1281006C (zh) | 信息编码/译码方法和装置和信息传输方法 | |
| CN1969319A (zh) | 信号编码 | |
| CN1256715C (zh) | 编码方法、编码装置、解码方法、和解码装置 | |
| CN1135527C (zh) | 语音编码方法和装置,输入信号判别方法,语音解码方法和装置以及程序提供介质 | |
| CN1571993A (zh) | 用于改善高频重建的方法 | |
| CN1639770A (zh) | 根据频率变换重建具有不完全频谱的音频信号的频谱 | |
| CN1155725A (zh) | 语音编码方法和装置 | |
| CN1677493A (zh) | 一种增强音频编解码装置及方法 | |
| CN1161750C (zh) | 语音编码译码方法和装置、电话装置、音调变换方法和介质 | |
| CN1849648A (zh) | 编码装置和译码装置 | |
| CN1702974A (zh) | 用于对数字信号编码/解码的方法和设备 | |
| CN101044553A (zh) | 可扩展编码装置、可扩展解码装置及其方法 | |
| CN1677492A (zh) | 一种增强音频编解码装置及方法 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| C06 | Publication | ||
| PB01 | Publication | ||
| C10 | Entry into substantive examination | ||
| SE01 | Entry into force of request for substantive examination | ||
| C14 | Grant of patent or utility model | ||
| GR01 | Patent grant | ||
| CF01 | Termination of patent right due to non-payment of annual fee | ||
| CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20061220 Termination date: 20210611 |