[go: up one dir, main page]

WO2004090869A1 - 符号変換方法及び装置 - Google Patents

符号変換方法及び装置 Download PDF

Info

Publication number
WO2004090869A1
WO2004090869A1 PCT/JP2004/004605 JP2004004605W WO2004090869A1 WO 2004090869 A1 WO2004090869 A1 WO 2004090869A1 JP 2004004605 W JP2004004605 W JP 2004004605W WO 2004090869 A1 WO2004090869 A1 WO 2004090869A1
Authority
WO
WIPO (PCT)
Prior art keywords
filter
decoded
string data
code
speech
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2004/004605
Other languages
English (en)
French (fr)
Inventor
Atsushi Murashima
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2004568351A priority Critical patent/JP4396524B2/ja
Priority to EP04724786A priority patent/EP1617411B1/en
Priority to CA002521445A priority patent/CA2521445C/en
Priority to DE602004014919T priority patent/DE602004014919D1/de
Priority to US10/552,824 priority patent/US7630889B2/en
Publication of WO2004090869A1 publication Critical patent/WO2004090869A1/ja
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/173Transcoding, i.e. converting between two coded representations avoiding cascaded coding-decoding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/26Pre-filtering or post-filtering
    • G10L19/265Pre-filtering, e.g. high frequency emphasis prior to encoding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/93Discriminating between voiced and unvoiced parts of speech signals

Definitions

  • the present invention relates to an encoding and decoding method for transmitting or storing an audio signal at a low bit rate, and in particular, a code obtained by encoding audio by a certain method can be re-decoded by another method.
  • the present invention relates to a code conversion method and apparatus for converting a code into a high-quality code with high sound quality and a low operation amount.
  • the speech signal is encoded by separating it into an LP (Li near Prediction) filter and an excitation signal that drives the filter.
  • LP Li near Prediction
  • the method is widely used.
  • One of the typical methods is CELP (Code Excited Linear Prediction).
  • CE LP an LP filter that represents the frequency characteristics of the input voice and has a P coefficient set is used as an adaptive codebook (Adaptive Godebook: AC B) that indicates the pitch period of the input voice and a fixed codebook that consists of random numbers and pulses. (Fixed Codebook: FCB)
  • FCB Fixed Codebook
  • ACB gain and FCB gain are multiplied by gains (ACB gain and FCB gain), respectively.
  • CELP see, for example, M. Schroeder, "Code excited linear prediction: High qua Iity speech at very low bit rates, Proc. Of IEEE Int. Conf. On Acoust., Speech and Signal Processing, pp. 937-940 , 1985.
  • FIG. 1 shows an example of a conventional transcoder based on tandem connection.
  • a code obtained by coding speech using a first speech coding method is converted into a second speech coding signal. It shall be converted to a code that can be decoded according to the method.
  • the second speech coding scheme is generally different from the first speech coding scheme.
  • the first audio coding method is simply referred to as method 1
  • the code obtained by coding the audio using the first audio coding method is referred to as first code string data.
  • the second audio coding method is simply referred to as method 2
  • a code obtained by coding audio using the second audio coding method is referred to as second code string data.
  • Code string data is input and output at a frame period (for example, a 20 millisecond period), which is a processing unit of audio encoding and decoding. See the above-mentioned paper by Schroeder or the 3GPP standard: "AMR Speech codec;
  • the input terminal 10, the audio decoding circuit 1 50 0, the audio encoding circuit 1 60 0, and the output terminal 20 are connected in series in this order.
  • the audio decoding circuit 1 500 decodes the audio from the first code string data input via the input terminal 10 by a decoding method conforming to the method 1, and uses the decoded audio as the first decoded audio.
  • the speech encoding circuit 106 0 receives the first decoded speech output from the speech decoding circuit 1 500 and inputs a first decoded speech by the second speech encoding method.
  • the data is output as the second code string data via the output terminal 20.
  • the signal characteristics of the decoded speech signal obtained by performing the first decoding of the input first code string data by the speech decoding circuit of method 1 are deteriorated by the encoding.
  • the decoded speech signal is not suitable for re-encoding, the decoded speech signal is directly re-encoded by the speech encoding circuit of method 2, so the second code obtained by these code conversions
  • the speech quality of the final decoded speech is degraded.
  • An object of the present invention is to provide a code conversion method for decoding and re-encoding coded speech, which is capable of reducing deterioration of speech quality in a finally obtained speech signal.
  • Another object of the present invention is to provide a code conversion apparatus for decoding and re-encoding coded speech, which can reduce deterioration in speech quality in a finally obtained speech signal. It is in.
  • a first object of the present invention is a code conversion method for converting first code string data conforming to a first speech coding scheme into second code string data conforming to a second speech coding scheme. Decoding a first code string data to generate a first decoded speech; correcting a signal characteristic of the first decoded speech to generate a second decoded speech; And a step of re-encoding the decoded speech of the second speech codec according to the Z-th speech encoding method to generate second code string data.
  • the signal characteristics are corrected by a filter having a variable characteristic according to the characteristics of the first decoded voice. Is preferred. Further, in the step of generating the second decoded speech, it is preferable that the signal characteristics of the first decoded speech are corrected to signal characteristics suitable for re-encoding.
  • a second object of the present invention is to provide a code conversion apparatus for converting first code string data conforming to a first speech coding scheme into second code string data conforming to a second speech coding scheme.
  • An audio decoding circuit for decoding the first code string data to generate a first decoded audio, and a signal characteristic for generating a second decoded audio by correcting the signal characteristics of the first decoded audio.
  • the present invention is achieved by a code conversion device including: a correction circuit; and a speech encoding circuit that re-encodes a second decoded speech using a second speech encoding scheme to generate second code string data.
  • the signal characteristic correction circuit corrects the signal characteristic of the first decoded audio to a signal characteristic suitable for re-encoding to generate the second decoded audio. Further, it is preferable that the signal characteristic correction circuit corrects the signal characteristic of the first decoded voice by using a filter having a characteristic that varies in accordance with the characteristic of the first decoded voice to generate the second decoded voice.
  • the filter used to correct the signal characteristics of the first decoded speech preferably has an inverse filter of the post-filter in the first decoding method, and a characteristic of enhancing a high frequency component of the frequency. Filter or both Filter.
  • the characteristic of the filter is at least one of frame type information included in the first code string data, a size of the code string data, or a feature amount that can be calculated from the first decoded voice. Can be changed using
  • the decoded speech signal obtained by decoding by the speech decoding circuit of method 1 generally has signal characteristics that are not suitable for re-encoding due to deterioration due to coding.
  • the sound quality degradation of the audio signal decoded from the second code string data after the code conversion is conspicuous.
  • the signal characteristics of the decoded audio signal obtained by decoding the first code stream data by the audio decoding circuit of the method 1 are corrected, and then the corrected decoded audio signal is converted to the sound of the method 2.
  • Re-encoding is performed by the voice encoding circuit. As a result, according to the present invention, sound quality deterioration in the audio signal decoded from the second code string data after code conversion is reduced.
  • FIG. 1 is a block diagram showing a configuration of a conventional transcoder using tandem connection.
  • FIG. 2 is a flowchart showing a procedure of a code conversion process according to the present invention.
  • FIG. 3 is a block diagram showing a configuration of the transcoder according to the first embodiment of the present invention.
  • FIG. 4 is a block diagram showing the configuration of the transcoder according to the second embodiment of the present invention.
  • FIG. 5 is a block diagram showing a configuration of another example of the code conversion device based on the present invention.
  • FIG. 2 shows a flow of processing based on the code conversion method of the present invention.
  • the code conversion method based on the present invention has the following steps (a) to (c).
  • the first decoded speech is corrected to a signal characteristic suitable for re-encoding using a filter, and a second decoded speech is generated (steps S102, 103).
  • the second decoded speech is encoded by the second encoding method to generate a second code stream (step S104).
  • the decoded speech signal obtained by decoding the first code string data by the speech decoding circuit of method 1 is corrected to signal characteristics suitable for re-encoding using a filter.
  • the corrected decoded audio signal is re-encoded by the audio encoding circuit of method 2.
  • the second code sequence after code conversion resulting from the fact that the decoded speech having signal characteristics that are not suitable for re-encoding due to degradation due to encoding is re-encoded by the speech encoding circuit of method 2 as it is It is possible to reduce sound quality deterioration in a sound signal decoded from data.
  • FIG. 3 showing the transcoder according to the first embodiment of the present invention, the same or equivalent elements as those in FIG. 1 are denoted by the same reference numerals.
  • the code conversion device shown in FIG. 3 includes an input terminal 10, an audio decoding circuit 105 to which the first code string data is supplied from the input terminal 10, and an output of the audio decoding circuit 105.
  • the audio decoding circuit 10050 generates a first decoded audio from the first code string data by the decoding method of the scheme 1.
  • the signal characteristic correction circuit 2007 corrects the first decoded voice to a signal characteristic suitable for re-encoding using a filter, and generates a second decoded voice.
  • the audio encoding circuit 1060 encodes the second decoded audio by a second encoding method to generate second code string data.
  • the input terminal 10, the output terminal 20, the audio decoding circuit 1050 and the audio encoding circuit 1060 are the same as those shown in FIG.
  • the signal characteristic correction circuit 2700 inputs the first decoded voice output from the voice decoding circuit 1550 and drives the filter represented by the transfer function F ( Z ) with the first decoded voice.
  • the signal obtained as a result is output as a second decoded speech to speech encoding circuit 106.
  • the filter F (z) has such signal characteristics as to correct the first decoded speech to signal characteristics suitable for re-encoding.
  • Speech decoding circuits often have a post filter to improve subjective sound quality. Although used, re-encoding post-filtered decoded speech degrades sound quality. Therefore, by applying the inverse filter of the post filter to the decoded speech, the sound quality can be improved.
  • the transfer function of the post filter is P (z)
  • the filter F (z) may be a filter having a frequency characteristic that emphasizes high frequency components.
  • F (z) can be represented by, for example, equation (2).
  • u is a coefficient (for example, 0.2) indicating the degree of enhancement of the high frequency component.
  • F 1 ( Z ) and F 2 (z) described above may be combined. In this case, F
  • the filter characteristic of the signal characteristic correction circuit in the transcoder according to the above-described embodiment is variable according to the characteristic of the audio signal.
  • FIG. 4 showing the code conversion apparatus of the second embodiment the same or equivalent elements as those in FIG. 3 are denoted by the same reference numerals.
  • the speech decoding circuit 1550 shown in FIG. 3 is composed of a code separation circuit 310 and a speech decoding circuit 3050. Can be regarded as having. Similarly, it is assumed that the speech coding circuit 1 060 shown in FIG. 3 includes a code multiplexing circuit 3020 and a speech coding circuit 3006. Done.
  • the code separation circuit 3010 separates the header and the payload from the first code string data input via the input terminal 10.
  • the header contains frame type information. By referring to the frame type information, it is possible to distinguish whether the signal decoded from the code string data corresponds to a voice section or a silent section.
  • frame type information see, for example, “3GPP standard: AMR Speech codec frame structure” (3GPP TS 26.101).
  • the payload is composed of a code corresponding to the audio parameter.
  • the audio parameters in the data include, for example, LP coefficient, ACB, FCB, ACB, and gain (ACB gain and FCB gain) LP code, ACB, FCB, code corresponding to gain in the first code string data Are the first LP coefficient code, the first ACB code, the first FCB code, and the first gain code, respectively.
  • the code separation circuit 3010 sends the frame type information to the signal characteristic correction circuit 3070. And outputs the first LP coefficient code, the first ACB code, the first FCB code, and the first gain code to the speech decoding circuit 3050.
  • the speech decoding circuit 3050 receives the first LP coefficient code, the first ACB code, the first FCB code, and the first gain code output from the code separation circuit 3010 as inputs, and forms a system based on these codes.
  • the audio is decoded by the first decoding method, and the decoded audio is output to the signal characteristic correction circuit 3070 as the first decoded audio.
  • the speech encoding circuit 3060 receives the second decoded speech output from the signal characteristic correction circuit 3070, encodes the decoded speech by the second encoding method, and encodes the LP coefficient code, the ACB code, the FCB code, and the gain code. Get. These codes are output to the code multiplexing circuit 3020 as a second LP coefficient code, a second ACB code, a second FCB code, and a second gain code, respectively.
  • the code multiplexing circuit 3020 receives the second P-factor code, the second ACB code, the second FCB code, and the second gain code output from the audio coding circuit 3060 and multiplexes them.
  • the code string data obtained by the conversion is output via the output terminal 20 as second code string data.
  • the signal characteristic correction circuit 3070 outputs the first decoded signal output from the audio decoding circuit 3050.
  • the filter represented by the variable transfer function F (z) according to the frame type information is driven by the first decoded speech and obtained.
  • the filter F (z) can be expressed by the following equation.
  • the filter F (z) is expressed by equation (5).
  • F (z) When the filter F (z) is a filter having a frequency characteristic that emphasizes high frequency components, F (z) can be represented by, for example, the following equation.
  • the filter F ( Z ) is represented by Expression (7).
  • F 1 (z) and F 2 (z) may be combined.
  • F (z) can be expressed by the following equation.
  • the frame type information is used to make the filter characteristics variable according to the characteristics of the audio signal, but the size of the first code string data may be used instead of the frame type inertia y.
  • a feature amount that can be calculated from the first decoded speech may be used.
  • the feature quantity represents the characteristics of the audio signal, and includes, for example, pitch periodicity, spectrum inclination, power, and the like.
  • the filter characteristic F (z) may be changed between the case where the feature amount corresponds to speech and the case where the feature amount corresponds to non-speech as in the above example.
  • the simplest example is to associate relatively high power with voice and low power with non-voice as follows.
  • Th is a certain constant.
  • the coefficients u and V may take continuous values as a function of E.
  • FIG. 5 schematically illustrates a device configuration in a case where the code conversion process in each of the above embodiments is implemented by a computer.
  • the computer 100 executing the program read from the recording medium 600, the first code obtained by encoding the audio by the first encoding / decoding device is transmitted by the second encoding / decoding device.
  • the recording medium 600 includes: (a) a process of generating a first decoded voice from the first code string data by the decoding method of the method 1 (B) correcting the first decoded speech to a signal characteristic suitable for re-encoding by using a filter, and generating a second decoded speech; (c) A program for executing a process of re-encoding the second decoded speech by the second encoding method to generate second code string data is recorded.
  • This program is read from the recording medium 600 to the memory 300 via the recording medium reading device 500 and the interface 400, and is executed.
  • the program may be stored in a non-volatile memory such as a flash memory such as a mask ROM, and the recording medium includes a non-volatile memory, a CD-ROM, a FD, a digital versatile disk (DVD), a magnetic tape (a town tape). ), A medium such as a portable hard disk drive (HDD).
  • a program may be prepared in a server device, and the program may be downloaded to a computer via a communication network.
  • the scope of the present invention includes, in addition to a recording medium on which such a program is recorded, a program product including such a program, and a communication medium for carrying such a program and transmitting it by wire or wirelessly. Is also included.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

 第1の音声符号化方式に準拠する第1の符号列データを、第2の音声符号化方式に準拠する第2の符号列データへ変換する符号変換方法は、第1の符号列データを復号して第1の復号音声を生成するステップと、第1の復号音声の信号特性を補正して第2の復号音声を生成するステップと、第2の復号音声を第2の音声符号化方式により符号化して第2の符号列データを生成するステップと、を有する。

Description

明 細 書
符号変換方法及び装置
技術分野:
本発明は、 音声信号を低ビットレ一卜で伝送あるいは蓄積するための符号化及 ぴ復号方法に関し、 特に、 音声をある方式により符号化して得た符号を、 他の方 式によリ復号可能な符号に高音質かつ低演算量で変換する、 符号変換方法及び装 置に関する。
背景技術:
音声信号を中ビッ卜レートあるいは低ビットレートで高能率に符号化する方法 として、 音声信号を LP (線形予測(Li near Prediction)) フィルタとそれを駆動 する励振信号とに分離して符号化する方法が広く用いられている。 その代表的な 方法の一つに、 C E L P (Code Excited Linear Prediction)がある。 CE L Pで は、 入力音声の周波数特性を表すし P係数が設定された LPフィルタを、 入力音 声のピッチ周期を表す適応コードブック (Adaptive Godebook: AC B) と乱数や パルスからなる固定コードブック (Fixed Codebook: FCB) との和で表される 励振信号により駆動することで、 合成音声信号が得られる。 このとき、 ACB成 分と FCB成分には、 各々、 ゲイン (A CBゲインと FCBゲイン) が乗算され る。 C E L Pに関しては、 例えば、 M. Schroeder, "Code excited linear prediction: High qua I ity speech at very low bit rates, Proc. of IEEE Int. Conf. on Acoust. , Speech and Si nal Processing, pp. 937-940, 1985を参照さ れたい。
ところで、 例えば 3 G (Third Generation)移動体網と有線バケツ卜網との間の 相互接続を想定した場合、 それぞれの網で用いられる標準音声符号化方式が異な るため、 これらの網を直接接続できないという問題がある。 これに対する解法と してはタンデム接続が考えられる。
図 1は、 タンデム接続に基づく従来の符号変換装置の一例を示すものであり、 ここでは、 第 1の音声符号化方式を用いて音声を符号化して得た符号を、 第 2の 音声符号化方式によって復号可能な符号に変換するものとする。 第 2の音声符号 化方式は、 一般に、 第 1の音声符号化方式とは異なっている。 以下、 説明の簡単 のために、 第 1の音声符号化方式のことを単に方式 1と呼び、 第 1の音声符号化 方式を用いて音声を符号化して得た符号のことを第 1の符号列データと呼ぶ。 同 様に、 第 2の音声符号化方式のことを単に方式 2と呼び、 第 2の音声符号化方式 を用いて音声を符号化して得た符号のことを第 2の符号列データと呼ぶ。 符号列 データは、 音声符号化復号の処理単位であるフレーム周期 (例えば 2 0ミリ秒周 期) で入出力されるものとする。 音声の符号化方法及び復号方法に閏しては 上 記の Schroederの論文、 あるいは 3 G P P規格: "AMR Speech codec; Transcod i ng funct i ons" (3GPP TS 26. 090)を参照されたい。
以下、 図 1を参照して、 タンデム接続に基づく従来の符号変換装置について説 明する。
符号変換装置では、 入力端子 1 0、 音声復号回路 1 0 5 0、 音声符号化回路 1 0 6 0、 出力端子 2 0がこの順で直列に接続している。 音声復号回路 1 0 5 0は、 入力端子 1 0を介して入力される第 1の符号列データから方式 1に準拠した復号 方法により音声を復号し、 復号された音声を第 1の復号音声として音声符号化回 路 1 0 6 0へ出力する。 音声符号化回路 1 0 6 0は、 音声復号回路 1 0 5 0から 出力される第 1の復号音声を入力し、 これを第 2の音声符号化方法によリ符号化 して得られる符号列データを第 2の符号列データとして出力端子 2 0を介して出 力する。
しかしながら、 上述したタンデム接続による従来の符号変換装置は、 入力され た第 1の符号列データを方式 1の音声復号回路によリー旦復号して得られる復号 音声信号の信号特性が符号化による劣化のため再符号化に適さないものであるに もかかわらず、 その復号音声信号をそのまま方式 2の音声符号化回路によリ再符 号化するため、 これらの符号変換により得られる第 2の符号列データを方式 2に よって復号した場合に、 最終的な復号音声における音声品質が劣化するという課 題を有している。
発明の開示:
本発明の目的は、 符号化音声の復号と再符号化とを行う符号変換方法であって、 最終的に得られる音声信号における音声品質の劣化を低減できる符号変換方法を 提供することにある。 04 004605 本発明の別の目的は、 符号化音声の復号と再符号化とを行う符号変換装置であ つて、 最終的に得られる音声信号における音声品質の劣化を低減できる符号変換 装置を提供することにある。
本発明の第 1の目的は 第 1の音声符号化方式に準拠する第 1の符号列データ を、 第 2の音声符号化方式に準拠する第 2の符号列データへ変換する符号変換方 法であって、 '第 1の符号列データを復号して第 1の復号音声を生成するステップ と、 第 1の復号音声の信号特性を補正して第 2の復号音声を生成するステップと、 第 2の復号音声を第 Zの音声符号化方式によリ符号化して第 2の符号列データを 生成するス亍ップと、 を有する符号変換方法によって達成される。
本発明の符号変換方法においては、 第 2の復号音声を生成するステップにおい て、 第 1の復号音声の特性に応じた可変する特性をもつフィルタによって信号特 性の補正が行われるようにすることが好ましい。 また、 第 2の復号音声を生成す るステップにおいて、 第 1の復号音声の信号特性が、 再符号化に適した信号特性 に補正されるようにすることが好ましい。
本発明の第 2の目的は、 第 1の音声符号化方式に準拠する第 1の符号列データ を、 第 2の音声符号化方式に準拠する第 2の符号列データへ変換する符号変換装 置であって、 第 1の符号列データを復号して第 1の復号音声を生成する音声復号 回路と、 第 1の復号音声の信号特性を補正して第 2の復号音声を生成する信号特 性補正回路と、 第 2の復号音声を第 2の音声符号化方式によリ符号化して第 2の 符号列データを生成する音声符号化回路と、 を有する符号変換装置によって達成 される。
本発明の符号変換装置において、 信号特性補正回路は、 第 1の復号音声の信号 特性を、 再符号化に適した信号特性に補正して、 第 2の復号音声を生成すること が好ましい。 また信号特性補正回路は、 第 1の復号音声の特性に応じて可変する 特性をもつフィルタにより、 第 1の復号音声の信号特性を補正して第 2の復号音 声を生成することが好ましい。
本発明において、 第 1の復号音声の信号特性を補正するために用いられるフィ ルタは、 好ましくは、 第 1の復号方法におけるポストフィルタの逆フィルタ、 周 波数の高域成分を強調する特性をもつフィルタ、 あるいは、 その両者を接続した フィルタである。 また、 フィル夕の特性は、 好ましくは、 第 1の符号列データに 含まれるフレームタイプ情報、 その符号列データの大きさ、 あるいは第 1の復号 音声から計算可能な特徴量のうちの少なくとも 1つを用いて変化させられる。
方式 1の音声復号回路にょリ復号して得られる復号音声信号は、 一般には、 符 号化による劣化のために再符号化に適さない信号特性を有してぉリ、 そのままで は、 方式 2の音声符号化回路によって再符号化した場合には、 その符号変換後の 第 2の符号列データから復号される音声信号における音質劣化が目立つ。 本発明 では、 第 1の符号列デ一夕から方式 1の音声復号回路にょリ復号して得られる復 号音声信号の信号特性に補正し、 その後、 補正された復号音声信号を方式 2の音 声符号化回路により再符号化する。 その結果、 本発明によれば、 符号変換後の第 2の符号列データから復号される音声信号における音質劣化が低減される。
図面の簡単な説明:
図 1は、 タンデム接続による従来の符号変換装置の構成を示すブロック図であ る。
図 2は、 本発明に基づく符号変換の処理手順を示すフローチャートである。
図 3は、 本発明の第 1の実施形態の符号変換装置の構成を示すブロック図であ る。
図 4は、 本発明の第 2の実施形態の符号変換装置の構成を示すプロック図であ る。
図 5は、 本発明に基づく符号変換装置の別の例の構成を示すブロック図である。 発明を実施するための最良の形態:
図 2は、 本発明の符号変換方法に基づく処理の流れを示している。 本発明の基 づく符号変換方法は、 以下の (a ) 〜 ( c ) のステップを有する。
( a ) :第 1の符号列データから方式 1の復号方法により第 1の復号音声を生 成する (ステップ S 1 0 1 )
( b ) :第 1の復号音声を再符号化に適した信号特性にフィル夕を用いて補正 し、 第 2の復号音声を生成する (ステップ S 1 0 2, 1 0 3 ) 。
( c ) :第 2の復号音声を第 2の符号化方法により符号化して第 2の符号列デ 一夕を生成する (ステップ S 1 0 4 ) 。 本発明では、 このように、 第 1の符号列データから方式 1の音声復号回路によ リ復号して得られる復号音声信号を、 フィルタを用いて再符号化に適した信号特 性に補正し、 補正された復号音声信号を方式 2の音声符号化回路により再符号化 する。 このため、 符号化による劣化のために再符号化に適さない信号特性をもつ 復号音声をそのまま方式 2の音声符号化回路で再符号化することに起因する 符 号変換後の第 2の符号列データから復号される音声信号における音質劣化を軽減 できる。
次に、 本発明に基づく符号変換装置について説明する。 本発明の第 1の実施形 態の符号変換装置を示す図 3において、 図 1におけるものと同一または同等の要 素には、 同一の参照符号が付されている。
図 3に示す符号変換装置は、 入力端子 1 0と、 入力端子 1 0から第 1の符号列 データが供給される音声復号回路 1 0 5 0と、 音声復号回路 1 0 5 0の出力が供 給される信号特性補正回路 2 0 7 0と、 信号特性補正回路 2 0 7 0の出力が供給 される音声符号化回路 1 0 6 0と、 音声符号化回路 1 0 6 0から出力される第 2 の符号列データを外部に出力するための出力端子 2 0と、 を備えている。 音声復 号回路 1 0 5 0は、 第 1の符号列データから方式 1の復号方法により第 1の復号 音声を生成する。 信号特性補正回路 2 0 7 0は、 第 1の復号音声を再符号化に適 した信号特性にフィルタを用いて補正し、 第 2の復号音声を生成する。 音声符号 化回路 1 0 6 0は、 第 2の復号音声を第 2の符号化方法により符号化して第 2の 符号列データを生成する。 入力端子 1 0、 出力端子 2 0、 音声復号回路 1 0 5 0 及び音声符号化回路 1 0 6 0については、 図 1に示したものと同じである。
以下、 図 1に示した従来の符号変換装置との構成上の相違点である信号特性補 正回路 2 0 7 0について、 詳しく説明する。
信号特性補正回路 2 0 7 0は、 音声復号回路 1 0 5 0から出力される第 1の復 号音声を入力し、 伝達関数 F ( Z )で表されるフィルタを第 1の復号音声で駆動し て得られる信号を第 2の復号音声として、 この第 2の復号音声を音声符号化回路 1 0 6 0へ出力する。 ここで、 フィルタ F ( z )は、 第 1の復号音声を、 再符号化 に適した信号特性に補正するような信号特性をもつ。
音声復号回路には、 多くの場合、 主観音質を改善するためにポストフィルタが 用いられているが、 ポストフィルタが施された復号音声を再符号化すると、 音質 が劣化する。 そこで、 復号音声に、 ポストフィルタの逆フィルタを施すことによ リ音質を改善できる。 ポストフィルタの伝達関数を P (z)とするとき、 フィルタ
F (Z)は、 式(1)で表すことができる。
F (2) = F 1 (z)= 1 P ) (1)
ここで、 ポストフィルタの詳細については 例えば、 3GPP TS 26.090の第 6.2節 の記載が参照される。
また、 前述の音質劣化では、 音のこも 感が大きな要因である場合が多い。 そ こで、 フィルタ F (z)を、 周波数の高域成分を強調するような周波数特性をもつ フィルタとしてもよい。 この場合、 F (z)は、 例えば、 式(2)で表すことができる。
F (z) = F 2 (z)= 1 - u (1 /z) (2)
ここで、 uは高域成分の強調の度合いを表す係数 (例えば、 0. 2) である。 さらに、 上述した F 1 (Z)と F 2 (z)とを組み合わせてもよい。 この場合、 F
(z)は、 式 (3)で表すことができる。
F (z) = F 3 (z) = F 1 (z) F 3 (z)= ( 1 - u (1 Xz)) /P (z)
(3)
以上から明らかなように、 本実施形態では、 従来の符号変換装置を構成する音 声復号回路及び音声符号化回路を改造する必要がないため、 標準方式に準拠した 音声復号回路と音声符号化回路をそのまま利用することができる、 という利点が ある。
次に、 本発明の第 2の実施形態の符号変換装置について説明する。 この第 2の 実施形態では、 上述した実施形態の符号変換装置における信号特性補正回路のフ ィルタ特性を音声信号の特性に応じて可変としている。 第 2の実施形態の符号変 換装置を示す図 4において、 図 3におけるものと同一または同等の要素には、 同 —の参照符号が付されている。
図 4に示すように、 第 2の実施形態の符号変換装置では、 図 3に示した音声復 号回路 1 0 5 0は、 符号分離回路 3 0 1 0と音声復号回路 3050とから構成さ れているとみなすことができる。 同様に、 図 3に示した音声符号化回路 1 060 は、 符号多重回路 30 20と音声符号化回路 3 06 0とから構成されているとみ なされる。
符号分離回路 301 0は、 入力端子 1 0を介して入力した第 1の符号列データ から、 ヘッダとペイロードとを分離する。 ヘッダには、 フレームタイプ情報が含 まれている。 フレームタイプ情報を参照することによリ、 その符号列データから 復号される信号が、 音声区間に相当するものか無音区間に相当するものであるか を区別することができる。 ここで、 フレームタイプ情報の詳細については、 例え ば、 3 G P P規格: AMR Speech codec frame structure" (3GPP TS 26.101)を参 照されたい。 ペイロードは、 音声パラメータに対応する符号からなる。 符号列デ ータにおける音声パラメータには、 例えば、 LP係数、 ACB、 FCB, ACB, ゲイン (ACBゲイン及び FCBゲイン) がある。 第 1の符号列データでの L P 係数、 ACB、 FCB、 ゲインに対応する符号を、 それぞれ、 第 1の LP係数符 号、 第 1の AC B符号、 第 1の FCB符号、 第 1のゲイン符号とする。 符号分離 回路 301 0は、 フレームタイプ情報を信号特性補正回路 3070へ出力し、 第 1の L P係数符号、 第 1の A C B符号、 第 1の F C B符号及び第 1のゲイン符号 を音声復号回路 3050へ出力する。
音声復号回路 3050は、 符号分離回路 301 0から出力される第 1の LP係 数符号、 第 1の ACB符号、 第 1の FCB符号及び第 1のゲイン符号を入力とし て、 これらの符号から方式 1の復号方法により音声を復号し、 復号された音声を 第 1の復号音声として信号特性補正回路 3070へ出力する。
音声符号化回路 3060は、 信号特性補正回路 3070から出力される第 2の 復号音声を入力し、 これを第 2の符号化方法により符号化して LP係数符号、 A CB符号、 FCB符号及びゲイン符号を得る。 そしてこれらの符号をそれぞれ第 2の L P係数符号、 第 2の AC B符号、 第 2の FCB符号及び第 2のゲイン符号 として、 符号多重回路 3020へ出力する。
符号多重回路 3020は、 音声符号化回路 3060から出力される第 2のし P 係数符号、 第 2の AC B符号、 第 2の FCB符号及び第 2のゲイン符号を入力と して、 これらを多重化して得られる符号列データを第 2の符号列データとして出 力端子 20を介して出力する。
信号特性補正回路 3070は、 音声復号回路 3050から出力される第 1の復 号音声と符号分離回路 30 1 0から出力されるフレームタイプ情報を入力として、 フレームタィプ情報に応じて可変な伝達関数 F ( z )で表されるフィルタを第 1の 復号音声で駆動して得られる信号を、 第 2の復号音声として、 音声符号化回路 3
060へ出力する。
ここで、 第 1の実施形態と同様に、 音声復号回路 3050におけるポストフィ ルタの伝達闋数を P (z)とするとき フィルタ F (z)は以下のような式で表すこ とができる。
フレームタイプ情報が音声に対応するときは、 フィルタ F (z)は、 式 (4)で表さ れる。
F(z) = F 1 (z)= 1ZP(z) (4)
フレームタイプ情報が非音声に対応するときは、 フィルタ F (z)は、 式 (5)で表 される。
F (Z) = F 1 (z)= 1 (5)
また、 フィルタ F (z)を、 周波数の高域成分を強調するような周波数特性を有 するフィルタとする場合、 F (z)は例えば以下のような式で表すことができる。
フレームタイプ情報が音声に対応するときは、 フィルタ F (z)は、 式 (6)で表さ れる。
F (z) = F 2 (z) = 1 -u (1 XZ) (6)
フレームタイプ情報が非音声に対応するときは、 フィルタ F (Z)は、 式 (7)で表 される。
F (z) = F 2 (Z)= 1 - V (1 /z) (7)
ここで、 u, vは高域成分強調の度合いを表す係数であり、 例えば、 u = 0. 2, V = 0. 1である。 さらに、 F 1 ( z)と F 2 ( z)とを組み合わせてもよい。 この場合、 F (z)は以下の式で表すことができる。
フレームタイプ情報が音声に対応するときは、 フィルタ F (z)は、 式 (8)で表さ れる。
F (z) = F 3 (z) = F 1 (z) F Z (∑) = (1 -u (1 /z)) /P (E)
(8)
フレームタイプ情報が非音声に対応するときは、 フィルタ F (z)は、 式(9)で表 される。
F(Z) = F3 (z) = F 1 (Z) F2 (z)= 1 -v (1 /z) (9)
上述の例では、 フィルタ特性を音声信号の特性に応じて可変とするのに際して フレームタィプ情報を用いているが、 フレームタィプ惰報の代わ yに第 1の符号 列データの大きさを用いてもよいし、 あるいは、 第 1の復号音声から計算可能な 特徴量を用いてもよい。 特徴量は 音声信号の特性を表すものであって、 例えば、 ピッチ周期性、 スぺクトルの傾き、 電力などが含まれる。 特徴量が音声に対応す るときと、 非音声に対応するときとで、 フィルタ特性 F (z)を上述の例のように 変えればよい。
例えば、 特徴量として電力を考えた場合、 最も簡単な例としては、 以下のよう に、 電力が相対的に大きいときを音声に対応づけ、 小さいときを非音声に対応づ けることが考えられる。
電力 Eが音声に対応するときは、 フィルタ F(z)は、 式(10)で表される。
F(Z) = F3 (Z) = F 1 (Z) F2 (Z) = (1 -U (1 /Z))/P(Z), E>T h
(10) 電力 Eが非音声に対応するときは、 フィルタ F(Z)は、 式(11)で表される。
F(z) = F3 (z) = F 1 (2) F2(z)= 1 -v (1 Xz), E<T h
(11) ここで、 T hはある定数である。 また、 係数 u, Vは Eの関数として連続値を 取るようにしてもよい。
上述した各符号変換装置は、 ディジタル信号プロセッサ (D S P) などのコン ピュータ制御で実現するようにしてもよい。 図 5は、 上記の各実施形態における 符号変換処理をコンピュータで実現する場合の装置構成を模式的に示している。 記録媒体 600から読み出されたプログラムを実行するコンピュータ 1 00に おいて、 第 1の符号化復号装置により音声を符号化して得た第 1の符号を、 第 2 の符号化復号装置によリ復号可能な第 2の符号へ変換する符号変換処理を実行す るにあたり、 記録媒体 600には、 (a) 第 1の符号列データから方式 1の復号 方法により第 1の復号音声を生成する処理と、 (b) 第 1の復号音声を再符号化 に適した信号特性にフィルタを用いて補正し、 第 2の復号音声を生成する処理と、 ( c ) 第 2の復号音声を第 2の符号化方法によリ符号化して第 2の符号列データ を生成する処理を実行させるためのプログラムが記録されている。
記録媒体 600からこのプログラムを記録媒体読出装置 500及びインタフエ ース 400を介してメモリ 300に読み出して実行する。 プログラムは、 マスク ROM等、 フラッシュメモリ等の不撢発性メモリに格納してもよく、 記録媒体は 不揮発性メモリを含むほか、 CD-ROM, FD, Digital Versatile Disk (DVD) , 磁気 テープ (町)、 可搬型ハードディスクドライブ (HDD)等の媒体であってもよい。 さら に、 そのようなプログラムをサーバ装置に用意しておき、 通信ネットワークを介 してそのプログラムをコンピュータにダウンロードするようにしてもよい。 本発 明の範疇には、 そのようなプログラムを記録した記録媒体のほか、 そのようなプ ログラムからなるプログラムプロダク ト、 そのようなプログラムを担持して有線 あるいは無線で送信するための通信媒体等も含まれる。

Claims

請求の範囲
1 . 第 1の音声符号化方式に準拠する第 1の符号列データを、 第 2の音声 符号化方式に準拠する第 2の符号列データへ変換する符号変換方法であって、 前記第 1の符号列データを復号して第 1の復号音声を生成するステップと、 前記第 1の復号音声の信号特性を補正して第 2の復号音声を生成するステップ と、
前記第 2の復号音声を前記第 2の音声符号化方式によリ符号化して前記第 2の 符号列データを生成するステップと、
を有する符号変換方法。
2 . 前記第 2の復号音声を生成する前記ステップにおいて、 前記第 1の復 号音声の特性に応じた可変する特性をもつフィルタによって前記信号特性の補正 が行われる、 請求項 1に記載の符号変換方法。
3 . 前記第 1の符号列データに含まれるフレームタイプ情報、 前記第 1の 符号列データの大きさ、 及び前記第 1の復号音声から計算可能な特徴量のうちの 少なくとも 1つを用いてフィルタの特性を変化させる、 請求項 2に記載の方法。
4 . 前記フィルタ力 ポストフィルタの逆フィルタ、 周波数の高域成分を 強調する特性をもつ強調フィルタ、 あるいは、 前記逆フィルタ及び前記強調フィ ルタを接続したフィルタである、 請求項 2または 3に記載の符号変換方法。
5 . 前記第 2の復号音声を生成する前記ステップにおいて、 前記第 1の復 号音声の信号特性が、 再符号化に適した信号特性に補正される、 請求項 1に記載 の符号変換方法。
6 . 前記第 2の復号音声を生成する前記ステップにおいて、 前記第 1の復 号音声の特性に応じた可変する特性をもつフィルタによって前記信号特性の補正 が行われる、 請求項 5に記載の符号変換方法。
7 . 前記第 1の符号列データに含まれるフレームタイプ情報、 前記第 1の 符号列データの大きさ、 及び前記第 1の復号音声から計算可能な特徴量のうちの 少なくとも 1つを用いて前記フィルタの特性を変化させる、 請求項 6に記載の方 法。
8 . 前記フィルタが、 ポストフィルタの逆フィルタ、 周波数の高域成分を 強調する特性をもつ強調フィルタ、 あるいは、 前記逆フィルタ及び前記強調フィ ルタを接続したフィルタである、 請求項 6または 7に記載の符号変換方法。
9 . 第 1の音声符号化方式に準拠する第 1の符号列データを、 第 2の音声 符号化方式に準拠する第 2の符号列デ一タへ変換する符号変換装置であって、 前記第 1の符号列データを復号して第 1の復号音声を生成する音声復号回路と、 前記第 1の復号音声の信号特性を補正して第 2の復号音声を生成する信号特性 補正回路と、
前記第 2の復号音声を前記第 2の音声符号化方式によリ符号化して前記第 2の 符号列データを生成する音声符号化回路と、
を有する符号変換装置。
1 0 . 前記信号特性補正回路は、 前記第 1の復号音声の特性に応じて可変す る特性をもつフィルタにより、 前記第 1の復号音声の信号特性を補正する、 請求 項 9に記載の符号変換装置。
1 1 . 前記第 1の符号列データに含まれるフレームタィプ情報、 前記第 1の 符号列データの大きさ、 及び前記第 1の復号音声から計算可能な特徴量のうちの 少なくとも 1つを用いてフィルタの特性が変化させられる、 請求項 1 0に記載の
1 2 . 前記フィルタ力 ボス卜フィルタの逆フィルタ、 周波数の高域成分を 強調する特性をもつ強調フィルタ、 あるいは、 前記逆フィルタ及び前記強調フィ ルタを接続したフィルタである、 請求項 1 0または 1 1に記載の符号変換装置。
1 3 . 前記信号特性補正回路は、 前記第 1の復号音声の信号特性を再符号化 に適した信号特性に補正して前記第 2の復号音声を生成する、 請求項 9に記載の 符号変換装置。
1 4 . 前記信号特性補正回路は、 前記第 1の復号音声の特性に応じて可変す る特性をもつフィルタにより、 前記第 1の復号音声の信号特性を補正する、 請求 項 1 3に記載の符号変換装置。
1 5 . 前記第 1の符号列データに含まれるフレームタィプ惰報、 前記第 1の 符号列データの大きさ、 及び前記第 1の復号音声から計算可能な特徴量のうちの 少なくとも 1つを用いてフィルタの特性が変化させられる、 請求項 1 4に記載の 符号変換装置。
1 6 . 前記フィルタが、 ボス卜フィルタの逆フィルタ、 周波数の高域成分を 強調する特性をもつ強調フィルタ、 あるいは、 前記逆フィルタ及び前記強調フィ ルタを接続したフィルタである、 請求項 1 4または 1 5に記載の符号変換装置。
1 7 . コンピュータに、
第 1の音声符号化方式に準拠する第 1の符号列デ一'タを複号して、 第 1の復号 音声を生成するステップと、
前記第 1の復号音声の信号特性を補正して第 2の復号音声を生成するステツプ と、
前記第 2の復号音声を第 2の音声符号化方式により符号化して、 前記第 2の音 声符号化方式に準拠する前記第 2の符号列データを生成するステツプと、
を実行させるプログラム。
1 8 . コンピュータに、
第 1の音声符号化方式に準拠する第 1の符号列データを復号して、 第 1の復号 音声を生成するステップと、
前記第 1の復号音声の特性に応じた可変する特性をもつフィルタによって前記 第 1の復号音声の信号特性を補正して、 第 2の復号音声を生成するステップと、 前記第 2の復号音声を第 2の音声符号化方式によリ符号化して、 前記第 2の音 声符号化方式に準拠する前記第 2の符号列データを生成するステツプと、
を実行させるプログラム。
1 9 . コンピュータに、
第 1の音声符号化方式に準拠する第 1の符号列データを復号して、 第 1の復号 音声を生成するステップと、
前記第 1の復号音声の信号特性を、 再符号化に適した信号特性に補正して第 2 の復号音声を生成するステップと、
前記第 2の復号音声を第 2の音声符号化方式によリ符号化して、 前記第 2の音 声符号化方式に準拠する前記第 2の符号列データを生成するステツプと、
を実行させるプログラム。
2 0 . コンピュータに、 第 1の音声符号化方式に準拠する第 1の符号列データを復号して、 第 1の復号 音声を生成するステップと、
前記第 1の復号音声の特性に応じた可変する特性をもつフィルタによって、 前 記第 1の復号音声の信号特性を再符号化に適した信号特性に補正して第 2の復号 音声を生成するステップと、
前記第 2の復号音声を第 2の音声符号化方式によリ符号化して、 前記第 2の音 声符号化方式に準拠する前記第 2の符号列データを生成するステツプと、
を実行させるプログラム。
2 1 . コンピュータが読み取り可能か記録媒体であって、 請求項 1 7乃至 2 0のいずれか 1項に記載のプログラムを格納した記録媒体。
PCT/JP2004/004605 2003-04-08 2004-03-31 符号変換方法及び装置 Ceased WO2004090869A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2004568351A JP4396524B2 (ja) 2003-04-08 2004-03-31 符号変換方法及び装置
EP04724786A EP1617411B1 (en) 2003-04-08 2004-03-31 Code conversion method and device
CA002521445A CA2521445C (en) 2003-04-08 2004-03-31 Code conversion method and apparatus
DE602004014919T DE602004014919D1 (de) 2003-04-08 2004-03-31 Codeumsetzungsverfahren und einrichtung
US10/552,824 US7630889B2 (en) 2003-04-08 2004-03-31 Code conversion method and device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003-104454 2003-04-08
JP2003104454 2003-04-08

Publications (1)

Publication Number Publication Date
WO2004090869A1 true WO2004090869A1 (ja) 2004-10-21

Family

ID=33156853

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/004605 Ceased WO2004090869A1 (ja) 2003-04-08 2004-03-31 符号変換方法及び装置

Country Status (8)

Country Link
US (1) US7630889B2 (ja)
EP (1) EP1617411B1 (ja)
JP (1) JP4396524B2 (ja)
KR (1) KR20050122240A (ja)
CN (1) CN100578616C (ja)
CA (1) CA2521445C (ja)
DE (1) DE602004014919D1 (ja)
WO (1) WO2004090869A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009038115A1 (ja) * 2007-09-21 2009-03-26 Nec Corporation 音声符号化装置、音声符号化方法及びプログラム
WO2009038170A1 (ja) * 2007-09-21 2009-03-26 Nec Corporation 音声処理装置、音声処理方法、プログラム及び音楽・メロディ配信システム
WO2009038158A1 (ja) * 2007-09-21 2009-03-26 Nec Corporation 音声復号装置、音声復号方法、プログラム及び携帯端末

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004151123A (ja) * 2002-10-23 2004-05-27 Nec Corp 符号変換方法、符号変換装置、プログラム及びその記憶媒体
JP4827661B2 (ja) * 2006-08-30 2011-11-30 富士通株式会社 信号処理方法及び装置
EP1903559A1 (en) * 2006-09-20 2008-03-26 Deutsche Thomson-Brandt Gmbh Method and device for transcoding audio signals
CN101989429B (zh) 2009-07-31 2012-02-01 华为技术有限公司 转码方法、装置、设备以及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08146997A (ja) * 1994-11-21 1996-06-07 Hitachi Ltd 符号変換装置および符号変換システム
JPH0950298A (ja) * 1995-08-07 1997-02-18 Mitsubishi Electric Corp 音声符号化装置及び音声復号化装置
JP2001242891A (ja) * 2000-02-28 2001-09-07 Nec Corp 符号化音声信号形式変換装置
JP2001331199A (ja) * 2000-05-23 2001-11-30 Ntt Docomo Inc 音声処理方法及び音声処理装置
JP2002202799A (ja) * 2000-10-30 2002-07-19 Fujitsu Ltd 音声符号変換装置

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5467367A (en) * 1991-06-07 1995-11-14 Canon Kabushiki Kaisha Spread spectrum communication apparatus and telephone exchange system
US5694519A (en) * 1992-02-18 1997-12-02 Lucent Technologies, Inc. Tunable post-filter for tandem coders
US5581654A (en) * 1993-05-25 1996-12-03 Sony Corporation Method and apparatus for information encoding and decoding
DE4342425A1 (de) * 1993-12-13 1995-06-14 Philips Patentverwaltung Verfahren und Anordnung zum Übertragen von Sprachsignalen
JP3277699B2 (ja) * 1994-06-13 2002-04-22 ソニー株式会社 信号符号化方法及び装置並びに信号復号化方法及び装置
JP3250376B2 (ja) * 1994-06-13 2002-01-28 ソニー株式会社 情報符号化方法及び装置並びに情報復号化方法及び装置
JP3058028B2 (ja) 1994-10-31 2000-07-04 三菱電機株式会社 画像符号化データ再符号化装置
SE504010C2 (sv) * 1995-02-08 1996-10-14 Ericsson Telefon Ab L M Förfarande och anordning för prediktiv kodning av tal- och datasignaler
JP2806308B2 (ja) * 1995-06-30 1998-09-30 日本電気株式会社 音声復号化装置
JP3426871B2 (ja) * 1995-09-18 2003-07-14 株式会社東芝 音声信号のスペクトル形状調整方法および装置
JP2940464B2 (ja) * 1996-03-27 1999-08-25 日本電気株式会社 音声復号化装置
JP3183826B2 (ja) 1996-06-06 2001-07-09 三菱電機株式会社 音声符号化装置及び音声復号化装置
JP3357795B2 (ja) 1996-08-16 2002-12-16 株式会社東芝 音声符号化方法および装置
JPH10116097A (ja) 1996-10-11 1998-05-06 Olympus Optical Co Ltd 音声再生装置
JP3282661B2 (ja) * 1997-05-16 2002-05-20 ソニー株式会社 信号処理装置および方法
EP0926658A4 (en) * 1997-07-11 2005-06-29 Sony Corp INFORMATION DECODERS AND DECODING METHOD, INFORMATION CODERS AND CODING METHOD AND DISTRIBUTION MEDIUM
JPH11187372A (ja) 1997-12-22 1999-07-09 Kyocera Corp 多地点テレビ会議システム
FI980132A7 (fi) * 1998-01-21 1999-07-22 Nokia Mobile Phones Ltd Adaptoituva jälkisuodatin
US6661923B1 (en) * 1998-02-26 2003-12-09 Sony Corporation Coding device, coding method, decoding device, decoding method, program recording medium and data recording medium
US7006787B1 (en) * 2000-02-14 2006-02-28 Lucent Technologies Inc. Mobile to mobile digital wireless connection having enhanced voice quality
JP4231987B2 (ja) 2001-06-15 2009-03-04 日本電気株式会社 音声符号化復号方式間の符号変換方法、その装置、そのプログラム及び記憶媒体

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08146997A (ja) * 1994-11-21 1996-06-07 Hitachi Ltd 符号変換装置および符号変換システム
JPH0950298A (ja) * 1995-08-07 1997-02-18 Mitsubishi Electric Corp 音声符号化装置及び音声復号化装置
JP2001242891A (ja) * 2000-02-28 2001-09-07 Nec Corp 符号化音声信号形式変換装置
JP2001331199A (ja) * 2000-05-23 2001-11-30 Ntt Docomo Inc 音声処理方法及び音声処理装置
JP2002202799A (ja) * 2000-10-30 2002-07-19 Fujitsu Ltd 音声符号変換装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1617411A4 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009038115A1 (ja) * 2007-09-21 2009-03-26 Nec Corporation 音声符号化装置、音声符号化方法及びプログラム
WO2009038170A1 (ja) * 2007-09-21 2009-03-26 Nec Corporation 音声処理装置、音声処理方法、プログラム及び音楽・メロディ配信システム
WO2009038158A1 (ja) * 2007-09-21 2009-03-26 Nec Corporation 音声復号装置、音声復号方法、プログラム及び携帯端末
JPWO2009038170A1 (ja) * 2007-09-21 2011-01-06 日本電気株式会社 音声処理装置、音声処理方法、プログラム及び音楽・メロディ配信システム
JPWO2009038158A1 (ja) * 2007-09-21 2011-01-06 日本電気株式会社 音声復号装置、音声復号方法、プログラム及び携帯端末
JPWO2009038115A1 (ja) * 2007-09-21 2011-01-06 日本電気株式会社 音声符号化装置、音声符号化方法及びプログラム

Also Published As

Publication number Publication date
CA2521445A1 (en) 2004-10-21
EP1617411B1 (en) 2008-07-09
CN100578616C (zh) 2010-01-06
EP1617411A4 (en) 2007-05-02
US7630889B2 (en) 2009-12-08
EP1617411A1 (en) 2006-01-18
JP4396524B2 (ja) 2010-01-13
US20060217980A1 (en) 2006-09-28
CN1784716A (zh) 2006-06-07
JPWO2004090869A1 (ja) 2006-07-06
KR20050122240A (ko) 2005-12-28
CA2521445C (en) 2009-12-22
DE602004014919D1 (de) 2008-08-21

Similar Documents

Publication Publication Date Title
CN1735927B (zh) 用于高质量语音编码转换的方法和装置
CN102648493B (zh) 音频信号处理方法和设备
JP5340965B2 (ja) 定常的な背景雑音の平滑化を行うための方法及び装置
US8055499B2 (en) Transmitter and receiver for speech coding and decoding by using additional bit allocation method
JP2002221994A (ja) 音声信号の符号列のパケット組立方法、装置及びパケット分解方法、装置並びにこれらの方法を実行するプログラム、プログラムを記録する記録媒体
JP3722366B2 (ja) パケット構成方法及び装置、パケット構成プログラム、並びにパケット分解方法及び装置、パケット分解プログラム
WO2004090869A1 (ja) 符号変換方法及び装置
WO2004097798A1 (ja) 音声復号化装置、音声復号化方法、プログラム、記録媒体
KR100796836B1 (ko) 코드 변환 방법, 장치 및 이 방법을 실행하는 컴퓨터용 프로그램이 기록된 기록 매체
CN105009210B (zh) 合成音频信号的装置与方法、解码器、编码器、系统以及计算机程序
WO2006011445A1 (ja) 信号復号化装置
JP4238535B2 (ja) 音声符号化復号方式間の符号変換方法及び装置とその記憶媒体
JP4597360B2 (ja) 音声復号装置及び音声復号方法
US7747431B2 (en) Code conversion method and device, program, and recording medium
JP2004151424A (ja) トランスコーダ及び符号変換方法
JP2004061646A (ja) Tfo機能を有する音声符号化器および方法
HK1092579A (en) Code conversion method and device
JP4764956B1 (ja) 音声符号化装置及び音声符号化方法
WO2004038696A1 (ja) 符号変換方法とそのための符号変換装置
JP2003223177A (ja) 音声符号化装置、音声復号化装置、音声符号化方法及び音声復号化方法
HK1087830A (en) Code conversion method and device, program, and recording medium

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2004568351

Country of ref document: JP

AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2521445

Country of ref document: CA

WWE Wipo information: entry into national phase

Ref document number: 2006217980

Country of ref document: US

Ref document number: 10552824

Country of ref document: US

Ref document number: 1020057019054

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 2004724786

Country of ref document: EP

Ref document number: 20048123218

Country of ref document: CN

WWP Wipo information: published in national office

Ref document number: 1020057019054

Country of ref document: KR

WWP Wipo information: published in national office

Ref document number: 2004724786

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 10552824

Country of ref document: US

WWG Wipo information: grant in national office

Ref document number: 2004724786

Country of ref document: EP