JP2018124304A - Speech coding apparatus, speech decoding apparatus, speech coding method, speech decoding method, program, and recording medium - Google Patents
Speech coding apparatus, speech decoding apparatus, speech coding method, speech decoding method, program, and recording medium Download PDFInfo
- Publication number
- JP2018124304A JP2018124304A JP2017013846A JP2017013846A JP2018124304A JP 2018124304 A JP2018124304 A JP 2018124304A JP 2017013846 A JP2017013846 A JP 2017013846A JP 2017013846 A JP2017013846 A JP 2017013846A JP 2018124304 A JP2018124304 A JP 2018124304A
- Authority
- JP
- Japan
- Prior art keywords
- speech
- band
- frequency
- code
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
【課題】広帯域音声の品質を向上する。【解決手段】帯域分割フィルタ12は、入力音声を低域音声と高域音声とに帯域分割する。高域音声符号化部14は、復号低域音声に基づいて高域音声を符号化して高域符号を生成する。低域音声符号化部13は、低域音声を符号化して高域符号を埋め込んだ低域符号を生成する。ただし、低域符号は、ITU-T G.726方式と互換性を持つものとする。低域音声復号部16は、低域符号を復号して復号低域音声を生成する。符号送出部17は、低域符号を音声符号として出力する。【選択図】図3The present invention improves the quality of wideband speech. A band division filter (12) divides an input sound into a low frequency sound and a high frequency sound. The high frequency audio encoding unit 14 encodes the high frequency audio based on the decoded low frequency audio to generate a high frequency code. The low frequency speech encoding unit 13 encodes the low frequency speech and generates a low frequency code in which the high frequency code is embedded. However, the low-frequency code is assumed to be compatible with the ITU-T G.726 system. The low frequency audio decoding unit 16 decodes the low frequency code and generates decoded low frequency audio. The code sending unit 17 outputs the low frequency code as a voice code. [Selection] Figure 3
Description
この発明は、デジタル通信ネットワークを利用した音声・音響信号(以下、単に音声とも呼ぶ)通信に関し、特に、入力音声を符号化する音声符号化技術および受信した音声符号から音声を生成する音声復号技術に関する。 The present invention relates to voice / acoustic signal (hereinafter, also simply referred to as voice) communication using a digital communication network, and in particular, a voice encoding technique for encoding input voice and a voice decoding technique for generating voice from a received voice code. About.
アナログ電話を代表とする従来からの電話システムで伝送できる音声の周波数帯域は、およそ300Hzから3.4kHzである。これは用件を伝えるのに必要な音声品質と、伝送に必要な情報量とのバランスを考慮して、国際電気通信連合(ITU-T: International Telecommunication Union Telecommunication Standardization Sector)によって決められ、広く世界で採用されていることによる。一般に、周波数帯域の上限が4kHz以下の音声を狭帯域信号(または狭帯域音声、電話音声とも呼ぶ)、4kHzを超えて7kHz程度の音声を広帯域信号(または広帯域音声)と呼ぶ。音声をデジタル信号のパルス符号変調(PCM: Pulse Code Modulation)方式で表現する場合、サンプリング定理により、狭帯域信号は8kHzでサンプリングし、広帯域信号は16kHzでサンプリングすることが望ましい。これらのことから、8kHzでサンプリングされた信号を狭帯域信号と呼び、16kHzでサンプリングされた信号を広帯域信号と呼ぶこともある。 The frequency band of voice that can be transmitted by a conventional telephone system represented by an analog telephone is about 300 Hz to 3.4 kHz. This is determined by the International Telecommunication Union Telecommunication Standardization Sector (ITU-T) in consideration of the balance between the voice quality necessary to convey a message and the amount of information necessary for transmission. By being adopted in. In general, a voice whose upper limit of the frequency band is 4 kHz or less is called a narrowband signal (or also called narrowband voice or telephone voice), and a voice exceeding 4 kHz and about 7 kHz is called a wideband signal (or wideband voice). When voice is expressed by a pulse code modulation (PCM) method of a digital signal, it is desirable to sample a narrowband signal at 8 kHz and a wideband signal at 16 kHz according to the sampling theorem. For these reasons, a signal sampled at 8 kHz is sometimes called a narrowband signal, and a signal sampled at 16 kHz is sometimes called a wideband signal.
最近の音響技術の発展及びデジタル信号処理技術の進歩により、日常生活で使われる機器の音声の品質が向上している。このような状況において、電話の音声にも広帯域化を求める声がある。 With the recent development of acoustic technology and advancement of digital signal processing technology, the sound quality of equipment used in daily life has improved. In such a situation, there is a voice that calls for wider bandwidth in the voice of a telephone.
デジタル通信ネットワークを利用して音声信号を効率的に伝送するために、音声符号化の手法が用いられる。狭帯域信号用の音声符号化(狭帯域音声符号化とも呼ぶ)には、ITU-T G.711やITU-T G.726などの国際標準方式がある。また、広帯域信号用の音声符号化(広帯域音声符号化とも呼ぶ)には、ITU-T G.711.1やITU-T G.722などの国際標準方式がある。音声通信を行う端末(以下、端末)は、いずれか一つ以上の音声符号化方式に対応した符号化装置と復号装置とを備える。端末が複数の音声符号化方式に対応しているときは、通信の開始時にその通信に用いる符号化方式を切り替える。従来、符号化方式の切り替えには、SIPやH.323と呼ばれる呼制御プロトコル(シグナリングとも呼ばれる)が用いられ、通信を行う端末同士が共通で対応する符号化方式を、あらかじめ決められた優先順位に基づいて選択していた。例えば、双方の端末がG.711.1とG.711に対応していれば広帯域音声符号化であるG.711.1で通信を行い、一方がG.711.1とG.711、他方がG.722とG.711に対応している場合は、両端末は広帯域音声に対応しているが、音声符号化はG.711が用いられ、狭帯域音声で通信を行う。 In order to efficiently transmit a voice signal using a digital communication network, a voice coding method is used. There are international standard schemes such as ITU-T G.711 and ITU-T G.726 for speech coding for narrowband signals (also called narrowband speech coding). In addition, there are international standard systems such as ITU-T G.711.1 and ITU-T G.722 for speech coding for wideband signals (also called wideband speech coding). A terminal (hereinafter referred to as a terminal) that performs voice communication includes an encoding device and a decoding device that support at least one of the voice encoding schemes. When the terminal supports a plurality of audio encoding systems, the encoding system used for the communication is switched at the start of communication. Conventionally, a call control protocol called SIP or H.323 (also called signaling) is used for switching the coding method, and a coding method that is commonly supported by communicating terminals is determined in a predetermined priority order. Had chosen based on. For example, if both terminals support G.711.1 and G.711, communication is performed using G.711.1, which is wideband speech coding, one is G.711.1 and G.711, the other is G.722 and G. In the case of corresponding to .711, both terminals support wideband audio, but G.711 is used for audio encoding, and communication is performed using narrowband audio.
通信の開始時に呼制御プロトコルを用いて符号化方式を切り替えるのは、符号化方式間に互換性がないためであるが、呼制御プロトコルによる符号化方式の切り替えは、端末間の音声通信の確立を複雑化し、接続トラブルが発生する原因になっている。また、通信ネットワークとしてインターネットを利用するIP電話などでは、比較的自由に呼制御プロトコルによる符号化方式の切り換えができるが、従来から利用されている企業内通信網や通信事業者間相互接続網を経由する音声通信では、通信経路上にG.711しか通さない設備があると、端末が複数の符号化方式に対応していてもG.711しか利用できない問題がある。 The reason why the coding method is switched using the call control protocol at the start of communication is because the coding methods are not compatible, but the switching of the coding method based on the call control protocol establishes voice communication between terminals. Is complicated, causing connection problems. In addition, IP telephones that use the Internet as a communication network can be switched relatively freely using the call control protocol. However, the existing intra-company communication networks and interconnection networks between communication carriers can be used. In the voice communication that goes through, if there is equipment that allows only G.711 on the communication path, there is a problem that only G.711 can be used even if the terminal supports a plurality of encoding methods.
この問題に対して、特許文献1には、G.711と完全な互換性を有する広帯域音声符号化が実現可能であることが記載されている。G.711と完全な互換性を有する広帯域音声符号化方式であれば、符号化方式の切り替え手続きは極めて簡略化され、通信経路上にG.711しか通さない設備があっても、広帯域音声を通過させることができる。
With respect to this problem,
図1を参照して、特許文献1に記載された音声符号化装置を示す。音声符号化装置に入力された音声は入力バッファ81に蓄積され、10ミリ秒〜20ミリ秒程度の長さのフレームに区切られて帯域分割フィルタ82に送られる。帯域分割フィルタ82は入力音声を低域音声と高域音声とに分割する。低域音声は低域音声符号化部83へ送られ、高域音声は高域音声符号化部84へ送られる。高域音声符号化部84は、高域音声を符号化して高域符号を生成し、その高域符号を低域音声符号化部83へ送る。低域音声符号化部83は、低域音声と高域符号とを受け取り、G.711符号のLSB(Least Significant Bit)またはMSB(Most Significant Bit)に高域符号を1または0のビット列として埋め込んだ低域符号を生成し、その低域符号をパケット構成部85へ送る。パケット構成部85は、低域音声符号化部83から低域符号を受け取り、その低域符号を用いてパケットを構成する。パケット送出部86は、パケット構成部85で作成されたパケットの情報を受け取り、音声パケットとしてパケット通信網に送出する。
Referring to FIG. 1, a speech encoding device described in
図2を参照して、特許文献1に記載された音声復号装置を示す。音声符号化装置から出力された音声パケットは、音声復号装置のパケット受信部91が受信し、受信バッファ92へ蓄積される。受信バッファ92から出力された音声パケットは低域音声復号部94で復号される。また、高域符号抽出部95は音声符号から高域符号を抽出する。高域音声復号部96は、抽出された高域符号から高域音声成分を復号する。チェックサム検出部93は、受信バッファ92から出力された音声符号を、高域符号が低域符号のLSBまたはMSBに埋め込まれているかどうかの判定を行い、埋め込まれている場合には、スイッチ97を高域音声復号部96側にセットし、高域音声成分を帯域合成フィルタ98に送る。チェックサム検出部93での判定の結果、高域符号が低域符号のLSBまたはMSBに埋め込まれていないと判定された場合には、スイッチ97を高域なし側にセットする。つまり、高域音声成分は生成されない。帯域合成フィルタ98は、低域音声復号部94の出力と、高域音声復号部96の出力を広帯域の音声信号に合成して出力する。
With reference to FIG. 2, the speech decoding apparatus described in
しかしながら、特許文献1には、G.711と完全な互換性を有する広帯域音声符号化を実現するための一部の構成が記載されているにとどまる。具体的には、高域音声符号化部84は、単に高域音声を符号化することだけが記載されており、高域音声復号部96は、単に高域符号から高域音声成分を復号することだけが記載されている。G.711と完全な互換性を有する広帯域音声符号化を実現するためには、復号装置から再生される広帯域音声の品質が十分に良好であること、少なくともG.711方式で復号された狭帯域音声よりも高い品質の広帯域音声が再生できることが必要である。また、同様の考え方によって、G.726と完全な互換性を有する広帯域音声符号化の実現が期待されるが、特許文献1にはG.726との互換性実現に関して具体的に記載されていない。
However,
この発明の目的は、上述のような点に鑑みて、広帯域音声の音声通信において、再生される広帯域音声の品質を向上することができる音声符号化技術を提供することである。 In view of the above points, an object of the present invention is to provide a speech coding technique capable of improving the quality of reproduced wideband speech in speech communication of wideband speech.
上記の課題を解決するために、この発明の第一の態様の音声符号化装置は、入力音声を低域音声と高域音声とに帯域分割する帯域分割部と、復号低域音声に基づいて高域音声を符号化して高域符号を生成する高域音声符号化部と、低域音声を符号化して高域符号を埋め込んだ低域符号を生成する低域音声符号化部と、低域符号を復号して復号低域音声を生成する低域音声復号部と、低域符号を音声符号として出力する符号送出部と、を含み、低域符号は、ITU-T G.726方式と互換性を持つものである。 In order to solve the above-described problem, the speech coding apparatus according to the first aspect of the present invention is based on a band dividing unit that divides an input speech into a low-frequency speech and a high-frequency speech, and a decoded low-frequency speech. A high-frequency speech encoding unit that encodes high-frequency speech to generate a high-frequency code, a low-frequency speech encoding unit that encodes low-frequency speech and generates a low-frequency code embedded with the high-frequency code, and a low frequency Includes a low-frequency audio decoding unit that decodes a code to generate decoded low-frequency audio, and a code sending unit that outputs the low-frequency code as an audio code, and the low-frequency code is compatible with the ITU-T G.726 system It has sex.
この発明の第二の態様の音声復号装置は、第一の態様の音声符号化装置が出力する音声符号を受信する符号受信部と、音声符号を復号して復号低域音声を生成する低域音声復号部と、音声符号に埋め込まれた高域符号を抽出する高域符号抽出部と、復号低域音声に基づいて高域符号を復号して復号高域音声を生成する高域音声復号部と、復号低域音声と復号高域音声とを合成して復号音声を出力する帯域合成部と、を含む。 The speech decoding apparatus according to the second aspect of the present invention includes a code receiving unit that receives the speech code output from the speech encoding apparatus according to the first aspect, and a low frequency that decodes the speech code and generates decoded low frequency speech. A speech decoding unit, a high frequency code extracting unit that extracts a high frequency code embedded in the speech code, and a high frequency speech decoding unit that generates a decoded high frequency speech by decoding the high frequency code based on the decoded low frequency speech And a band synthesizing unit that synthesizes the decoded low frequency sound and the decoded high frequency sound and outputs the decoded sound.
この発明によれば、音声符号化において、広帯域音声の再生に必要な情報をできるだけ損なわないようにしつつ少ないビットで高域音声を符号化することができる。また、音声復号において、聴覚的に品質劣化の少ない高域音声を生成することによって、高い品質の広帯域音声を再生することができる。すなわち、広帯域音声の音声通信において、再生される広帯域音声の品質を向上することができる。 According to the present invention, high-frequency speech can be encoded with a small number of bits while maintaining as much as possible the information necessary for reproducing wideband speech in speech encoding. In speech decoding, high-quality wideband speech can be reproduced by generating high-frequency speech that is audibly low in quality degradation. That is, the quality of the reproduced wideband voice can be improved in the wideband voice communication.
以下、この発明の実施の形態について詳細に説明する。なお、図面中において同じ機能を有する構成部には同じ番号を付し、重複説明を省略する。 Hereinafter, embodiments of the present invention will be described in detail. In addition, the same number is attached | subjected to the component which has the same function in drawing, and duplication description is abbreviate | omitted.
文中で使用する記号「−」は、本来直前の文字の真上に記載されるべきものであるが、テキスト記法の制限により、当該文字の直後に記載する。数式中においてはこれらの記号は本来の位置、すなわち文字の真上に記述している。 The symbol “ − ” used in the sentence should be described immediately above the character immediately before, but is described immediately after the character due to restrictions on text notation. In the mathematical expression, these symbols are described in their original positions, that is, directly above the characters.
この発明の実施形態では、入力音声を音声符号に符号化して出力する音声符号化装置と、音声符号化装置により出力された音声符号を復号して復号音声を出力する音声復号装置とを説明する。音声符号化装置は、1フレーム分の入力音声を音声符号に変換して出力したら、次のフレームの入力音声の処理を行い、フレームの時間周期でこれを繰り返す。音声復号装置は、1フレーム分の音声符号を処理して復号音声を出力したら、次のフレームの音声符号の処理を行い、フレームの時間周期でこれを繰り返す。 In an embodiment of the present invention, a speech encoding device that encodes input speech into speech codes and outputs the speech, and a speech decoding device that decodes speech codes output by the speech encoding device and outputs decoded speech are described. . When the speech encoding apparatus converts the input speech for one frame into a speech code and outputs it, it processes the input speech of the next frame and repeats this in the time period of the frame. When the speech decoding apparatus processes the speech code for one frame and outputs the decoded speech, it performs the speech code processing of the next frame and repeats this in the time period of the frame.
実施形態の音声符号化装置は、図3に示すように、入力バッファ11、帯域分割フィルタ(帯域分割部とも呼ぶ)12、低域音声符号化部13、高域音声符号化部14、遅延部15、低域音声復号部16、および符号送出部17を備える。この音声符号化装置が後述する各ステップの処理を行うことにより実施形態の音声符号化方法が実現される。
As shown in FIG. 3, the speech encoding apparatus according to the embodiment includes an input buffer 11, a band division filter (also referred to as a band division unit) 12, a low frequency
実施形態の音声復号装置は、図4に示すように、符号受信部21、低域音声復号部22、高域符号抽出部23、遅延部24、高域音声復号部25、および帯域合成フィルタ(帯域合成部とも呼ぶ)26を備える。この音声復号装置が後述する各ステップの処理を行うことにより実施形態の音声復号方法が実現される。
As shown in FIG. 4, the speech decoding apparatus according to the embodiment includes a code receiving unit 21, a low frequency
音声符号化装置および音声復号装置は、例えば、中央演算処理装置(CPU: Central Processing Unit)、主記憶装置(RAM: Random Access Memory)などを有する公知又は専用のコンピュータに特別なプログラムが読み込まれて構成された特別な装置である。各装置は、例えば、中央演算処理装置の制御のもとで各処理を実行する。各装置に入力されたデータや各処理で得られたデータは、例えば、主記憶装置に格納され、主記憶装置に格納されたデータは必要に応じて読み出されて他の処理に利用される。また、各装置の各処理部の少なくとも一部が集積回路等のハードウェアによって構成されていてもよい。 A speech encoding device and a speech decoding device, for example, have a special program read into a known or dedicated computer having a central processing unit (CPU), a main storage device (RAM), and the like. It is a special device constructed. Each device executes each process under the control of the central processing unit, for example. Data input to each device and data obtained by each process are stored in, for example, a main storage device, and the data stored in the main storage device is read out as necessary and used for other processing. . Further, at least a part of each processing unit of each device may be configured by hardware such as an integrated circuit.
図5を参照して、実施形態の音声符号化方法の処理手続きを説明する。 With reference to FIG. 5, the processing procedure of the speech coding method of the embodiment will be described.
ステップS11において、音声符号化装置へ音声が入力される。入力音声xは入力バッファ11に蓄えられ、10ミリ秒〜20ミリ秒程度の長さのフレームに区切られ、帯域分割フィルタ12に送られる。入力音声xは広帯域音声であり、サンプリング周波数が16kHzとする。入力音声xは、帯域分割フィルタ12によって、サンプリング周波数が8kHzの低域音声xLと高域音声xHとに分割される。低域音声xLは低域音声符号化部13へ送られ、高域音声xHは高域音声符号化部14へ送られる。帯域分割フィルタ12は、G.711.1やG.722で利用される直交ミラーフィルター(QMF: Quadrature Mirror Filter)を用いることができる。または、適当なローパスフィルタとハイパスフィルタを用いて、入力音声xにローパスフィルタをかけて1/2サンプル数に間引きした信号を低域音声xLとし、入力音声xにハイパスフィルタをかけて1/2サンプル数に間引きした信号を高域音声xHとしてもよい。
In step S11, speech is input to the speech coding apparatus. The input sound x is stored in the input buffer 11, divided into frames having a length of about 10 milliseconds to 20 milliseconds, and sent to the
ステップS12において、高域音声符号化部14は、後述の低域音声復号部16から受け取った復号低域音声x− Lを利用して高域音声xHを符号化し、高域符号cHを遅延部15へ送る。高域音声符号化部14の処理の詳細は後述する。遅延部15は高域符号cHを1フレーム分記憶するメモリを持ち、1フレーム前の高域符号を低域音声符号化部13へ送るとともに、受け取った高域符号を記憶する。なお、後述のように、遅延部15は省略することができるため、高域音声符号化部14の出力である高域符号と、遅延部15の出力である1フレーム前の高域符号とは区別せず、単に高域符号cHと呼ぶこととする。
In step S12, the high frequency
ステップS13において、低域音声符号化部13は、従来の音声符号化装置が備える低域音声符号化部83と同じ構成を用いることができる。すなわち、低域音声xLと高域符号cHとを受け取り、G.711符号のLSBまたはMSBに高域符号を1または0のビット列として埋め込んだ低域符号cLを出力する。低域音声符号化部13の出力は、符号送出部17へ送られるとともに、低域音声復号部16へも送られる。
In step S13, the low frequency
ステップS14において、低域音声復号部16は、低域音声符号化部13から受け取った低域符号cLを復号し、復号低域音声x− Lを高域音声符号化部14へ送る。低域音声復号部16は、従来の音声復号装置が備える低域音声復号部94と同じ構成を用いることができる。
In step S <b> 14, the low frequency
ステップS15において、符号送出部17は、低域音声符号化部13から受け取った低域符号cLを音声符号として通信ネットワークに送出する。
In step S15, the
音声符号化装置から送出された音声符号cLは、G.711と完全なビット互換性を有し、従来のG.711方式に対応した音声復号装置が音声符号cLを受信した場合は、G.711復号方式によって狭帯域音声を再生することができ、この発明の音声復号装置が音声符号cLを受信した場合は、後述する音声復号方法によって広帯域音声を再生することができる。また、音声符号cLは既存のG.711のみに対応した通信ネットワークを通過することができる。 The speech code c L sent from the speech encoding device has complete bit compatibility with G.711, and when the speech decoding device corresponding to the conventional G.711 scheme receives the speech code c L , G.711 can play narrowband speech by decoding scheme, if the speech decoding apparatus receives a voice code c L of the present invention, it is possible to reproduce a wideband speech by the speech decoding method described later. Moreover, the voice code c L can pass through the communication network corresponding to only the existing G.711.
図6を参照して、実施形態の音声復号方法の処理手続きを説明する。 With reference to FIG. 6, the processing procedure of the speech decoding method of the embodiment will be described.
ステップS21において、符号受信部21は、通信ネットワークから音声符号cLを受信し、低域音声復号部22および高域符号抽出部23へ送る。
In step S <b> 21, the code receiving unit 21 receives the speech code c L from the communication network and sends it to the low frequency
ステップS22において、低域音声復号部22は、音声符号cLをG.711方式で復号し、復号低域音声x− Lを遅延部24へ送る。遅延部24は復号低域音声x− Lを1フレーム分記憶するメモリを持ち、1フレーム前の復号低域音声を高域音声復号部25および帯域合成フィルタ26へ送るとともに、受け取った復号低域音声を記憶する。なお、後述のように、遅延部24は省略することができるため、低域音声復号部22の出力である復号低域音声と、遅延部24の出力である1フレーム前の復号低域音声とは区別せず、単に復号低域音声x− Lと呼ぶこととする。
In step S <b> 22, the low frequency
ステップS23において、高域符号抽出部23は、音声符号cLから高域符号cHを抽出する。高域符号抽出部23の構成は、従来の高域符号抽出部95と同じ構成を用いることができる。すなわち、G.711符号のLSBまたはMSBに埋め込まれた1または0のビット列を高域符号cHに戻す。高域符号cHは高域音声復号部25へ送られる。
In step S23, the high frequency
ステップS24において、高域音声復号部25は、復号低域音声x− Lを利用して高域符号cHを復号し、復号高域音声x− Hを帯域合成フィルタ26へ送る。高域音声復号部25の処理の詳細は後述する。
In step S <b> 24, the high frequency
ステップS25において、帯域合成フィルタ26は、復号低域音声x− Lおよび復号高域音声x− Hから広帯域の復号音声x−を合成して出力する。帯域合成フィルタ26は、帯域分割フィルタ12と同様に、G.711.1やG.722で利用されている直交ミラーフィルター(QMF: Quadrature Mirror Filter)を用いることができる。
In step S25, the band synthesis filter 26, the decoded low-band speech x - L and the decoded high-band speech x - from H wideband decoded speech x - a synthesized and output. As the band division filter 26, a quadrature mirror filter (QMF: Quadrature Mirror Filter) used in G.711.1 and G.722 can be used as in the
音声復号装置は、特許文献1に記載されているようにチェックサム検出部93およびスイッチ97を備えるように構成し、受信した音声符号cLに高域符号cHが埋め込まれているか否かを判定し、埋め込まれている場合は広帯域音声を出力し、埋め込まれていない場合は狭帯域音声を出力する切り替え処理を行うことも可能である。
The speech decoding apparatus is configured to include a
音声符号化装置が備える遅延部15および音声復号装置が備える遅延部24は省略してもよい。音声符号化装置は、高域符号cHが埋め込まれた低域符号cLを復号して高域音声xHを符号化するフィードバック構造のため、遅延部15を省略すると、音声符号化装置における復号低域音声x− Lと音声復号装置における復号低域音声x− Lとを一致させることができなくなる。しかしながら、そのずれは聴感上では区別がつかない程度の違いであり、実用上の問題は少ない。各遅延部を省略すると、音声通信における遅延時間を1フレーム分短くできる。
The
以下、音声符号化装置が備える高域音声符号化部14の詳細な構成を説明する。高域音声符号化部14は、図7に示すように、帯域分割フィルタ(高域帯域分割部とも呼ぶ)31H、帯域分割フィルタ(低域帯域分割部とも呼ぶ)31L、パワー計算部32H,32L、線形予測部33H,33L、相対ゲイン計算部34、係数符号化部35、ゲイン符号化部36、およびマルチプレクサ(多重化部とも呼ぶ)37を備える。
Hereinafter, a detailed configuration of the high frequency
高域音声符号化部14には、高域音声xHおよび復号低域音声x− Lが入力される。入力音声のサンプリング周波数が16kHz、フレーム長が10ミリ秒である場合を例として説明すると、高域音声xHおよび復号低域音声x− Lはともにサンプリング周波数が8kHz、フレーム長が10ミリ秒であり、1フレームのサンプル数は80サンプルとなる。
The high frequency
帯域分割フィルタ31Lは、復号低域音声x− Lをサンプリング周波数がそれぞれ4kHzのLL帯域音声x− LLとLH帯域音声x− LHとに分割する。帯域分割フィルタ31Lは、音声符号化装置の帯域分割フィルタ12と同じものを用いてもよいし、帯域分割フィルタ12とはタップ数や特性の異なる帯域分割フィルタを用いてもよい。LL帯域音声x− LLは高域音声符号化部14では利用しないため、帯域分割フィルタ31LはLH帯域音声x− LHのみを出力するように構成してもよい。LH帯域音声x− LHは、線形予測部33Lおよびパワー計算部32Lへ入力される。
線形予測部33Lは、LH帯域音声x− LHに線形予測分析を適用して、p次のLH帯域線形予測係数aLH(i)(ただし、i=1, 2, …, p)を出力する。ここで、pは一般に4〜10程度の値を用いる。なお、p次の線形予測係数はp個の値の組であるが、以下では、特定のiのときの線形予測係数を示す場合を除いて、インデックスiを省略し、単にaLHと表記する。aLHはベクトルとみなすこともでき、線形予測係数ベクトルとも呼ぶ。 The linear prediction unit 33 L applies linear prediction analysis to the LH band speech x − LH and outputs a p-order LH band linear prediction coefficient a LH (i) (where i = 1, 2,..., P). To do. Here, a value of about 4 to 10 is generally used for p. Note that the p-th order linear prediction coefficient is a set of p values, but in the following, except for the case of indicating a linear prediction coefficient at a specific i, the index i is omitted and simply expressed as a LH . . a LH can also be regarded as a vector and is also called a linear prediction coefficient vector.
パワー計算部32Lは、LH帯域音声x− LHの1フレーム分のパワーPLHを計算する。このとき、前後のフレームを含めた平均パワー、例えば、1フレーム前の信号と1フレーム後の信号を合わせた3フレーム分のパワー、またはその1/3を1フレーム分のパワーとしてもよい。以下、1フレーム分のパワーの計算については同様とする。
The
帯域分割フィルタ31Hは、高域音声xHをサンプリング周波数がそれぞれ4kHzのHL帯域音声xHLとHH帯域音声xHHとに分割する。帯域分割フィルタ31Hは、音声符号化装置の帯域分割フィルタ12と同じものを用いてもよいし、帯域分割フィルタ12とはタップ数や特性の異なる帯域分割フィルタを用いてもよい。HH帯域音声xHHは高域音声符号化部14では利用しないため、帯域分割フィルタ31HはHL帯域音声xHLのみを出力するように構成してもよい。HL帯域音声xHLは、線形予測部33Hおよびパワー計算部32Hへ入力される。
The
線形予測部33Hは、HL帯域音声xHLに線形予測分析を適用して、p次のHL帯域線形予測係数aHL(i)(ただし、i=1, 2, …, p)を出力する。以下では、LH帯域線形予測係数aLHと同様に、インデックスiを省略して単にaHLと表記する。aHLもaLHと同様にベクトルとみなすことができ、線形予測係数ベクトルとも呼ぶ。 The linear prediction unit 33 H applies linear prediction analysis to the HL band speech x HL and outputs a p-th order HL band linear prediction coefficient a HL (i) (where i = 1, 2,..., P). . Hereinafter, like the LH band linear prediction coefficient a LH , the index i is omitted, and is simply expressed as a HL . a HL can also be regarded as a vector like a LH, and is also called a linear prediction coefficient vector.
パワー計算部32Hは、HL帯域音声xHLの1フレーム分のパワーPHLを計算する。
The
相対ゲイン計算部34は、次式で定義される相対ゲインGHLを計算する。相対ゲインGHLはHL帯域音声xHLのLH帯域音声x− LHに対する相対ゲインであり、LH帯域音声x− LHの各サンプルに相対ゲインGHLを乗じた信号のパワーが、HL帯域音声xHLのパワーPHLと同じになる。
The
係数符号化部35は、LH帯域線形予測係数aLHを用いてHL帯域線形予測係数aHLをM1ビットで符号化し、係数符号c1をゲイン符号化部36およびマルチプレクサ37へ送る。M1の定め方については後述する。
The
ゲイン符号化部36は、LH帯域線形予測係数aLHおよび係数符号c1を用いて相対ゲインGHLをM2ビットで符号化し、ゲイン符号c2をマルチプレクサ37へ送る。M2の定め方については後述する。
The
M1, M2の定め方を説明する。特許文献1によれば、低域音声160サンプルあたり16ビット、すなわち80サンプルあたり8ビットの高域符号を低域符号に埋め込んでも、復号低域音声の主観品質は高域符号を埋め込まない場合に比べて劣化しないとされている。したがって、フレーム長が10ミリ秒(80サンプル)の場合は、M1+M2≦8となるように、M1, M2を決めるのがよい。一例として、M1=4, M2=4とする。
How to define M 1 and M 2 will be described. According to
係数符号化部35は、LH帯域線形予測係数aLHとHL帯域線形予測係数aHLとには相関があることを利用して、HL帯域線形予測係数aHLを符号化する。例えば、LH帯域線形予測係数aLHの値からHL帯域線形予測係数aHLの値を推定し、HL帯域線形予測係数aHLと推定値a'HLとの誤差を符号化するとよい。なお、推定は音声データベースを用いた統計的な手法を用いる。
係数符号化部35は、図8に示すように、LSP変換部351、LSP変換部352、LSP推定部353、および誤差符号化部354を備える。LSP変換部351は、HL帯域線形予測係数aHLをHL帯域線スペクトル対(以下、線スペクトル対をLSPと呼ぶ)fHLに変換する。LSPは線形予測パラメータの一種で、p次の線形予測係数とp次のLSPは相互に変換が可能である。LSPの表記についても線形予測係数の表記と同様に、インデックスi(i=1, 2, …, p)を省略することとし、インデックスiを省略したときはベクトルとみなすことができる。LSP変換部352は、LH帯域線形予測係数aLHをLH帯域LSPfLHに変換する。LSP推定部353は、LH帯域LSPfLHを用いてHL帯域LSPfHLの値を推定する。推定ルールは、音声データベースを用いた統計的な手法を用いることができ、例えば、変換関数を定義しておいてもよいし、LH帯域LSPfLHの分布とHL帯域LSPfHLの分布の対応関係を統計的に調べて定義しておいてもよい。誤差符号化部354は、HL帯域LSPfHLとHL帯域LSPの推定値f'HLとの誤差を、例えばベクトル量子化の手法を使って符号化し、係数符号c1を出力する。
The
ゲイン符号化部36では、LH帯域線形予測係数aLHと係数符号c1との組み合わせと、相対ゲインGHLとの間に相関があることを利用して、相対ゲインGHLを符号化する。例えば、LH帯域線形予測係数aLHと係数符号c1との組み合わせから相対ゲインGHLの値を推定し、相対ゲインGHLと推定値G'HLとの誤差を対数尺度(またはデシベル単位)で符号化するとよい。なお、推定は音声データベースを用いた統計的な手法を用いればよい。
The
マルチプレクサ37は、係数符号化部35の出力する係数符号c1とゲイン符号化部36の出力するゲイン符号c2とを入力とし、高域符号cHとして出力する。
The
線形予測分析を含む音声の分析に関する詳細は、下記参考文献1に記載されている。
〔参考文献1〕古井貞煕著、「ディジタル音声処理」、東海大学出版会、pp. 60-98
Details on speech analysis including linear prediction analysis are described in
[Reference 1] Sadahiro Furui, “Digital Audio Processing”, Tokai University Press, pp. 60-98
以下、音声復号装置が備える高域音声復号部25の詳細な構成を説明する。高域音声復号部25は、図9に示すように、デマルチプレクサ(符号分離部とも呼ぶ)40、帯域分割フィルタ(帯域分割部とも呼ぶ)41、パワー計算部42、線形予測部43、逆フィルタ44、複製部45、係数復号部46、相対ゲイン復号部47、合成フィルタ48、パワー計算部49、ゲイン計算部50、乗算部(HL帯域乗算部とも呼ぶ)51、相対ゲイン予測部52、係数予測部53、乱数部54、合成フィルタ55、パワー計算部56、ゲイン計算部57、乗算部(HH帯域乗算部とも呼ぶ)58、および帯域合成フィルタ(帯域合成部とも呼ぶ)59を備える。
Hereinafter, a detailed configuration of the high frequency
高域音声復号部25には、復号低域音声x− Lおよび高域符号cHが入力される。高域符号cHは、デマルチプレクサ40へ入力される。復号低域音声x− Lは、帯域分割フィルタ41へ入力される。
The high frequency
帯域分割フィルタ41は、高域音声符号化部14の帯域分割フィルタ31Lと同じ構成とし、復号低域音声x− Lをサンプリング周波数がそれぞれ4kHzのLL帯域音声x− LLとLH帯域音声x− LHとに分割する。LL帯域音声x− LLは高域音声復号部25では利用しないため、帯域分割フィルタ41はLH帯域音声x− LHのみを出力するように構成してもよい。LH帯域音声x− LHは、線形予測部43およびパワー計算部42へ入力される。
The band division filter 41 has the same configuration as that of the
線形予測部43は、LH帯域音声x− LHに線形予測分析を適用して、p次のLH帯域線形予測係数aLHを出力する。LH帯域線形予測係数aLHは、逆フィルタ44、係数復号部46、相対ゲイン復号部47、および係数予測部53へ入力される。
パワー計算部42は、高域音声符号化部14のパワー計算部32Lと同様に、LH帯域音声x− LHの1フレーム分のパワーPLHを計算する。パワーPLHは、ゲイン計算部50およびゲイン計算部57へ入力される。
逆フィルタ44は、LH帯域線形予測係数aLHをフィルタ係数とするFIRフィルタであり、LH帯域音声x− LHからLH帯域線形予測残差eLHを求め、複製部45へ送る。ここで、x− LH(j)はLH帯域音声x− LHの第jサンプルを、eLH(j)はLH帯域線形予測残差の第jサンプルを、j=1は現フレームの先頭サンプルを、j=Nは現フレームの最後のサンプルを表すとすると、eLH(j)は次式で表される。
The
1フレームが80サンプルからなるときは、N=80である。なお、j-iが負のときは、過去のフレーム内のサンプル位置を現フレームの先頭サンプルを基準とした相対サンプル位置として表すものとする。1フレーム分のサンプル値の組を表すときは、インデックスjを省略して表記する。 When one frame is composed of 80 samples, N = 80. When j-i is negative, the sample position in the past frame is represented as a relative sample position with respect to the first sample of the current frame. When representing a set of sample values for one frame, the index j is omitted.
複製部45は、次式のように、LH帯域線形予測残差eLHを複製してHL帯域駆動音源eHLを出力する。HL帯域駆動音源eHLは、合成フィルタ48へ入力される。
The duplicating
デマルチプレクサ40は、高域符号cHを係数符号c1とゲイン符号c2とに分割する。係数符号c1は、係数復号部46、相対ゲイン復号部47、相対ゲイン予測部52、および係数予測部53へ入力される。ゲイン符号c2は、相対ゲイン復号部47および相対ゲイン予測部52へ入力される。
係数復号部46は、LH帯域線形予測係数aLHを用いて係数符号c1を復号し、HL帯域復号線形予測係数a− HLを出力する。係数復号部46は、図10に示すように、LSP変換部461、LSP推定部462、再構成部463、および係数変換部464を備える。LSP変換部461およびLSP推定部462は、係数符号化部35のLSP変換部352およびLSP推定部353と同じである。再構成部463は、係数符号c1およびHL帯域LSPの推定値f'HLを用いて、誤差符号化に対応する復号方法によって、HL帯域復号LSPf− HLを再構成する。係数変換部464は、HL帯域復号LSPf− HLをHL帯域復号線形予測係数a− HLに変換して出力する。HL帯域復号線形予測係数a− HLは合成フィルタ48へ入力される。
The
相対ゲイン復号部47は、LH帯域線形予測係数aLHと係数符号c1との組み合わせを用いてゲイン符号c2を復号し、復号相対ゲインG− HLを求める。復号相対ゲインG− HLはゲイン計算部50へ入力される。復号方法は高域音声符号化部14のゲイン符号化部36の符号化方法に対応する方法を用い、例えば、LH帯域線形予測係数aLHと係数符号c1との組み合わせから相対ゲインGHLの値を推定し、ゲイン符号c2が表す誤差を相対ゲインの推定値G'HLに対数尺度上で加算、もしくはリニア尺度で乗算する方法により、復号相対ゲインG− HLを求めることができる。
The relative
合成フィルタ48は、係数復号部46から受け取ったHL帯域復号線形予測係数a− HLをフィルタ係数とするIIRフィルタ(ARフィルタとも呼ぶ)であり、HL帯域駆動音源eHLからHL帯域合成音声yHLを出力する。HL帯域合成音声yHLはパワー計算部49および乗算部51へ入力される。
パワー計算部49は、HL帯域合成音声yHLの1フレーム分のパワーPHLを計算する。パワーPHLはゲイン計算部50へ入力される。
The
ゲイン計算部50は、復号相対ゲインG− HL、パワーPLH、およびパワーPHLを用いて、次式で表されるゲインgHLを計算する。ゲインgHLは乗算部51へ入力される。
The
乗算部51は、HL帯域合成音声yHLにゲインgHLを乗じて、復号HL帯域音声x− HLを計算する。復号HL帯域音声x− HLは帯域合成フィルタ59へ入力される。
Multiplication unit 51 multiplies the gain g HL to HL band synthesized speech y HL, decoding HL band speech x - calculating the HL. The decoded HL band speech x - HL is input to the
相対ゲイン予測部52は、係数符号c1およびゲイン符号c2を用いて、予測相対ゲインG− HHを予測して求める。予測相対ゲインG− HHはゲイン計算部57へ入力される。
The relative
係数予測部53は、LH帯域線形予測係数aLHおよび係数符号c1を用いて、HH帯域線形予測係数a− HHを予測して求める。HH帯域線形予測係数a− HHは合成フィルタ55へ入力される。
乱数部54は、ガウス乱数を生成し、1フレーム長の乱数信号列eHHを出力する。乱数信号列eHHは合成フィルタ55へ入力される。
The
合成フィルタ55は、HH帯域線形予測係数a− HHをフィルタ係数とするIIRフィルタであり、乱数信号列eHHからHH帯域合成音声yHHを出力する。HH帯域合成音声yHHはパワー計算部56および乗算部58へ入力される。
The
パワー計算部56は、HH帯域合成音声yHHの1フレーム分のパワーPHHを計算する。パワーPHHはゲイン計算部57へ入力される。
ゲイン計算部57は、予測相対ゲインG− HH、パワーPLH、およびパワーPHHを用いて、次式で表されるゲインgHHを計算する。ゲインgHHは乗算部57へ入力される。
The
乗算部58は、HH帯域合成音声yHHにゲインgHHを乗じて、復号HH帯域音声x− HHを計算する。復号HH帯域音声x− HHは帯域合成フィルタ59へ入力される。
帯域合成フィルタ59は、高域音声符号化部14の帯域分割フィルタ31Hに対応する(つまり逆変換としての)帯域合成フィルタであり、復号HL帯域音声x− HLおよび復号HH帯域音声x− HHを用いて、復号高域音声x− Hを生成し出力する。なお、復号HL帯域音声x− HLおよび復号HH帯域音声x− HHのサンプリング周波数はいずれも4kHzであり、復号高域音声x− Hのサンプリング周波数は8kHzである。
The
この発明における音声符号化装置および音声復号装置のポイントを説明する。 The points of the speech coding apparatus and speech decoding apparatus in the present invention will be described.
音声符号化装置では、広帯域音声を低域音声と高域音声とに帯域分割し、低域音声をさらにLL帯域の信号とLH帯域の信号とに、高域音声をさらにHL帯域の信号とHH帯域の信号とに帯域分割する。すなわち、広帯域音声は、LL帯域、LH帯域、HL帯域、HH帯域の4つの帯域に分割される。 In the speech coding apparatus, wideband speech is band-divided into low-frequency speech and high-frequency speech, low-frequency speech is further divided into LL-band signals and LH-band signals, high-frequency speech is further transformed into HL-band signals and HH. Band division into band signals. That is, the wideband voice is divided into four bands of LL band, LH band, HL band, and HH band.
復号低域音声の品質を低下させずに低域符号に高域音声の情報を埋め込むには、高域音声をできるだけ少ないビット数で符号化する必要がある。そこで、HL帯域のスペクトル包絡情報とパワーの情報を、復号低域音声の品質を低下させない程度の少ないビット数で符号化して、低域符号に埋め込む。これらの情報を少ないビット数で符号化するために、パラメータ間の相関を最大限利用して符号化する。このとき、HH帯域の情報は送らないこととする。 In order to embed high-frequency speech information in a low-frequency code without degrading the quality of the decoded low-frequency speech, it is necessary to encode the high-frequency speech with as few bits as possible. Therefore, the spectral envelope information and power information of the HL band are encoded with a small number of bits that do not deteriorate the quality of the decoded low-frequency speech and are embedded in the low-frequency code. In order to encode these pieces of information with a small number of bits, encoding is performed by utilizing the correlation between parameters to the maximum. At this time, information on the HH band is not sent.
音声復号装置では、低域符号からHL帯域のスペクトル包絡情報とパワーの情報を抽出し、HL帯域の信号とHH帯域の信号とを生成する。一般に、線形予測を用いた音声符号化手法では、スペクトル包絡情報と、合成フィルタを駆動する音源情報と、パワーを表す情報とが必要であるが、音声符号化装置は合成フィルタを駆動する音源情報を送らないため、音声復号装置で得られる別の情報から合成フィルタを駆動する音源情報を擬似生成する必要がある。そこで、LH帯域の線形予測残差信号がHL帯域の合成フィルタを駆動する音源情報と同じであるとみなし、LH帯域の線形予測残差信号でHL帯域の合成フィルタを駆動することによりHL帯域の信号を生成する。また、HH帯域については、音声符号化装置から情報を送らないため、音声復号装置で得られるLH帯域およびHL帯域の情報からHH帯域の信号を擬似生成する。具体的には、HH帯域のスペクトル包絡情報とパワーを表す情報を、LH帯域およびHL帯域の情報から統計的な手法によって予測し、合成フィルタはガウス乱数で駆動する。 In the speech decoding apparatus, HL band spectrum envelope information and power information are extracted from the low band code, and an HL band signal and an HH band signal are generated. In general, a speech coding method using linear prediction requires spectral envelope information, excitation information for driving a synthesis filter, and information representing power. However, a speech coding apparatus uses excitation information for driving a synthesis filter. Therefore, it is necessary to pseudo-generate sound source information for driving the synthesis filter from other information obtained by the speech decoding apparatus. Therefore, it is assumed that the linear prediction residual signal in the LH band is the same as the sound source information that drives the synthesis filter in the HL band, and driving the synthesis filter in the HL band by driving the HL band synthesis filter with the linear prediction residual signal in the LH band. Generate a signal. In addition, since no information is sent from the speech coding apparatus for the HH band, a pseudo HH band signal is generated from the LH band and HL band information obtained by the speech decoding apparatus. Specifically, spectral envelope information of the HH band and information representing power are predicted from the information of the LH band and the HL band by a statistical method, and the synthesis filter is driven with a Gaussian random number.
上記手法により、高域音声は10ミリ秒あたり8ビットで表現され、音声復号装置から聴感的に十分に良好な品質の広帯域音声を再生することができる。なお、再生される広帯域音声は聴感的に良好な品質であるが、入力音声とのSN比、特に高域のSN比は高くない。SN比が高くないにもかかわらず聴感的に良好となるのは、人間の聴覚特性が、高域についてはスペクトル包絡とパワーが入力音声に近い状態で再現されていれば、線形予測の駆動音源、すなわちスペクトルの微細構造や位相には鈍感であることによる。また、高域のスペクトル包絡やパワーが少ないビットで再現性の高い符号化ができること、特にHH帯域については情報を送らなくてもスペクトル包絡やパワーが再現できることは、高域のスペクトル包絡やパワーが低域のスペクトル包絡やパワーと高い相関を持つことを利用して実現している。 By the above method, the high frequency sound is expressed by 8 bits per 10 milliseconds, and the wideband sound having sufficiently good quality can be reproduced from the sound decoding device. Note that the reproduced wideband sound has good perceptual quality, but the SN ratio with the input sound, particularly the high-frequency SN ratio is not high. The reason why the human auditory characteristic is good even though the S / N ratio is not high is that if the human auditory characteristics are reproduced in a state where the spectral envelope and power are close to those of the input speech in the high frequency range, the driving sound source of linear prediction That is, it is insensitive to the fine structure and phase of the spectrum. In addition, high-frequency spectral envelope and high-reproducibility coding with less power, especially that the HH band can be reproduced without sending information, the high-frequency spectral envelope and power It is realized by utilizing the high correlation with the low-frequency spectrum envelope and power.
[変形例A]
上記実施形態は、G.711と完全な互換性を有する広帯域音声符号化装置および広帯域音声復号装置の例であるが、これを以下に示すように、G.726と完全な互換性を有する広帯域音声符号化装置および広帯域復号装置に変形することができる。
[Modification A]
The above embodiment is an example of a wideband speech coding apparatus and wideband speech decoding apparatus that are fully compatible with G.711. As shown below, this is a wideband that is fully compatible with G.726. It can be modified to a speech encoding device and a wideband decoding device.
図11は、実施形態の低域音声符号化部13として特許文献1に記載された音声符号化部を用いた構成例である。低域音声符号化部13は、図11に示すように、音声信号バッファ131、ビット解析部132、スイッチ133、G.711全コード探索部134、G.711偶数コード探索部135、G.711奇数コード探索部136、および音声符号バッファ137を備える。音声信号バッファ131は、低域音声xLをフレームと呼ばれる一定時間毎に区切って出力する。ビット解析部132は、フレーム毎に高域符号cHをビット列に分解し、各ビットの値に応じてスイッチ133を制御する。フレームの各サンプル点のうち、あらかじめ定めた前記ビット列の各ビットに対応するサンプル点では、当該ビットの値が0ならば、G.711偶数コード探索部135が、G.711の偶数符号に対応する128コードから、入力された音声サンプル値に量子化値の近いコードを探索し、探索結果に従ってLSBが当該ビットの値を表すG.711の音声符号を出力する。前記各ビットに対応するサンプル点において、当該ビットの値が1ならば、G.711奇数コード探索部136が、G.711の奇数符号に対応する128コードから、入力された音声サンプル値に量子化値の近いコードを探索し、探索結果に従ってLSBが当該ビットの値を表すG.711の音声符号を出力する。前記各ビットに対応するサンプル点以外では、G.711全コード探索部134が、G.711の全256コードから、入力された音声サンプル値に量子化値の近いコードを探索し、探索結果に従ってG.711の音声符号を出力する。音声符号バッファ137は、前記G.711の音声符号を1フレーム分まとめて音声符号(低域符号でもある)cLとして出力する。
FIG. 11 is a configuration example using the speech encoding unit described in
図12は、G.726と完全な互換性を有する広帯域音声符号化を実現するための低域音声符号化部の変形例である。変形例の低域音声符号化部13Aは、低域音声符号化部13と同様に、音声信号バッファ131、ビット解析部132、音声符号バッファ137を備え、さらに、G.726互換エンコーダ140を備える。G.726互換エンコーダ140は、スイッチ143、G.726全コード探索部144、G.726偶数コード探索部145、G.726奇数コード探索部146、適応予測部148、および差分信号計算部149を備える。G.726は適応差分パルス符号変調(Adaptive Differential Pulse Code Modulation; ADPCM)方式と呼ばれる。G.726では、適応予測部148が、過去の音声サンプルの量子化値を用いて現在の音声サンプル値を予測し、差分信号計算部149が、音声信号バッファ131から送られた現在の音声サンプル値と適応予測部148から送られた音声サンプルの予測値との差分信号を計算することで、前記差分を1サンプルあたり2〜5ビットで量子化する。デジタルコードレス電話機など、一般的には1サンプルあたり4ビットで量子化するモード(32kbit/sモードとも呼ばれる)が使われることが多いため、以下の説明では1サンプルあたり4ビットのモードを例に説明する。
FIG. 12 shows a modified example of the low-frequency speech encoding unit for realizing wideband speech encoding that is completely compatible with G.726. Similar to the low frequency
フレームの各サンプル点のうち、あらかじめ定めた前記ビット列の各ビットに対応するサンプル点では、当該ビットの値が0ならば、G.726偶数コード探索部145が、G.726の偶数符号に対応する8コードから、前記差分信号に量子化値の近いコードを探索し、探索結果に従ってLSBが当該ビットの値を表すG.726の音声符号を出力する。前記各ビットに対応するサンプル点において、当該ビットの値が1ならば、G.726奇数コード探索部146が、G.726の奇数符号に対応する8コードから、前記差分信号に量子化値の近いコードを探索し、探索結果に従ってLSBが当該ビットの値を表すG.726の音声符号を出力する。前記各ビットに対応するサンプル点以外では、G.726全コード探索部144が、G.726の全16コードから、前記差分信号に量子化値の近いコードを探索し、探索結果に従ってG.726の音声符号を出力する。前記G.726の音声符号は音声符号バッファ137に送られるとともに、適応予測部148に送られる。
Among the sample points of the frame, at the sample point corresponding to each bit of the predetermined bit string, if the value of the bit is 0, the G.726 even
前記以外のG.726の詳細については、ITU-T G.726に記載されている。また、G.726は1サンプルあたりの量子化ビット数が少ないため、高域符号を埋め込んだ低域符号を生成すると、低域符号を復号した復号低域音声の雑音感がG.711の場合よりも増す問題がある。この雑音感を軽減する方法として、図13に示すように、参考文献2に記載された「量子化ノイズの耳障り感を効果的に低減する方法」を組み合わせることができる。
〔参考文献2〕特許第5014493号公報
Details of G.726 other than the above are described in ITU-T G.726. In addition, since G.726 has a small number of quantization bits per sample, when a low frequency code in which a high frequency code is embedded is generated, the sense of noise of the decoded low frequency audio obtained by decoding the low frequency code is G.711. There are more problems. As a method of reducing this noise sensation, as shown in FIG. 13, “a method of effectively reducing the harshness of quantization noise” described in
[Reference Document 2] Japanese Patent No. 5014493
送信する低域音声符号を偶数コードと奇数コードのように全コードを半数ずつに分けて探索範囲を切り換え、LSBまたはMSBに高域符号を1または0のビット列として埋め込む手法は、G.711とG.726に限らず広く既存の音声符号化方式に適用可能であり、上記構成例のG.726を他の既存音声符号化方式に置き換えることによって、当該既存音声符号化方式と完全な互換性を有する広帯域音声符号化装置および広帯域音声復号装置を実現することができる。 The method of embedding the high-frequency code as a bit string of 1 or 0 in LSB or MSB is as follows. The present invention is not limited to G.726 and can be applied to a wide range of existing speech coding schemes. By replacing G.726 in the above configuration example with other existing speech coding schemes, it is fully compatible with the existing speech coding schemes. A wideband speech encoding apparatus and a wideband speech decoding apparatus having the above can be realized.
本変形例において、埋め込む高域符号のビットが0のときに偶数コードを探索し、1のときに奇数コードを探索する対応関係を、埋め込む高域符号のビットが0のときに奇数コードを探索し、1のときに偶数コードを探索する対応関係としてもよい。 In this modification, the even code is searched when the embedded high-frequency code bit is 0, and the odd code is searched when the embedded high-frequency code bit is 0. However, when the number is 1, a correspondence relationship for searching for an even code may be used.
[変形例B]
図14は、実施形態の音声符号化装置における低域音声復号部16および実施形態の音声復号装置における低域音声復号部22の構成例である。G.711と完全な互換性を有する広帯域音声符号化装置および広帯域音声復号装置の低域音声復号部には、単純に既存のG.711デコーダを用いることができる。図15は、G.726と完全な互換性を有する広帯域音声符号化を実現するための、広帯域音声符号化装置および広帯域復号装置の低域音声符号化部の変形例であり、図14のG.711デコーダ162を既存のG.726デコーダ163に置き換えたものである。
[Modification B]
FIG. 14 is a configuration example of the low frequency
G.726は1サンプルあたりの量子化ビット数が少ないため、復号低域音声の雑音感がG.711の場合よりも増す問題がある。この雑音感を軽減する方法として、図16に示すように、G.726デコーダ163の後段に、狭帯域音声符号化の手法として広く用いられているポストフィルタ164を用いることができる。ポストフィルタは、例えばITU-T G.729や日本の携帯電話に用いられたPSI-CELPなど、いわゆる「CELP系」と呼ばれる音声符号化の復号音声の品質を改善する手法として広く用いられているため、ここでは詳細な説明は省略する。
Since G.726 has a small number of quantized bits per sample, there is a problem that the noise sensation of decoded low-frequency speech is higher than that of G.711. As a method for reducing this noise sensation, as shown in FIG. 16, a
[変形例C]
図17は、図9に示した高域音声復号部25の変形例である。変形例の高域音声復号部25Aは、高域音声復号部25と比べて、指定帯域信号抽出部61、線形予測部62、および逆フィルタ63を備える点が異なる。高域音声復号部25では、LH帯域の線形予測残差信号でHL帯域の合成フィルタを駆動することによりHL帯域の信号を生成していた。ここでLH帯域の線形予測残差信号とは2〜4kHz帯域の線形予測残差信号であるが、高域音声復号部25Aでは、2〜4kHz帯域の代わりに、
F〜(F+2)kHz帯域
ただし、0≦F≦2
の線形予測残差信号でHL帯域の合成フィルタを駆動する。ここで、Fはあらかじめ定めた定数である。図17の構成では、指定帯域信号抽出部61は復号低域音声x− LのF〜(F+2)kHz帯域成分を抽出して4kHzサンプリングの指定帯域信号x− LFを求める。線形予測部62は、指定帯域信号x− LFに線形予測分析を適用して、p次の指定帯域線形予測係数aLFを出力する。指定帯域線形予測係数aLFは、逆フィルタ63へ入力される。逆フィルタ63は、指定帯域線形予測係数aLFをフィルタ係数とするFIRフィルタであり、指定帯域信号x− LFから指定帯域線形予測残差eLFを求め、複製部45へ送る。複製部45は指定帯域線形予測残差eLFを複製してHL帯域駆動音源eHLを出力する。
[Modification C]
FIG. 17 is a modification of the high frequency
F to (F + 2) kHz band However, 0 ≦ F ≦ 2
The synthesis filter in the HL band is driven by the linear prediction residual signal. Here, F is a predetermined constant. In the configuration of FIG. 17, the designated band signal extraction unit 61 extracts the F to (F + 2) kHz band components of the decoded low frequency sound x − L to obtain the designated band signal x − LF of 4 kHz sampling. The linear prediction unit 62 applies linear prediction analysis to the designated band signal x − LF , and outputs a p-th order designated band linear prediction coefficient a LF . The designated band linear prediction coefficient a LF is input to the
図9に示した高域音声復号部25はF=2に相当するが、F<2の方が好適な場合について説明する。図18(A)は低域音声xLの周波数スペクトルの一例であり、図18(B)は図18(A)の例に対応する復号低域音声x− Lの周波数スペクトルである。図18(A)と図18(B)を比較すると、図18(B)は符号化歪みによって全帯域にわたってノイズが重畳しており、2〜4kHz帯域のSN比は、例えば1〜3kHz帯域のSN比よりも悪いと言える。このような場合には、2〜4kHz帯域の線形予測残差信号でHL帯域の合成フィルタを駆動するよりも、
F〜(F+2)kHz帯域
ただし、0≦F<2
の線形予測残差信号でHL帯域の合成フィルタを駆動する方が、生成されるHL帯域の信号のノイズ感を低減することができる。
The high frequency
F to (F + 2) kHz band However, 0 ≦ F <2
Driving the HL band synthesis filter with the linear prediction residual signal can reduce the noise feeling of the generated HL band signal.
[変形例D]
図19は、指定帯域信号抽出部61の構成例である。指定帯域信号抽出部61は、フーリエ変換部161、周波数成分巡回部162、フーリエ逆変換部163、および帯域分割フィルタ(指定帯域分割部とも呼ぶ)164を備える。フーリエ変換部161は、復号低域音声x− Lをフーリエ変換して周波数領域復号低域音声X− Lに変換する。周波数成分巡回部162は、周波数領域復号低域音声X− LのfkHz成分が、
f≦2+Fのとき f'=f+2-F
f>2+Fのとき f'=f-2-F
となるf'kHz成分を持つ周波数領域巡回復号低域音声X− LSを計算する。フーリエ逆変換部163は、周波数領域巡回復号低域音声X− LSをフーリエ逆変換して、巡回復号低域音声x− LSを計算する。帯域分割フィルタ164は、図9に示した高域音声復号部25の帯域分割フィルタ41と同様に、入力された巡回復号低域音声x− LSをサンプリング周波数がそれぞれ4kHzの高域音声と低域音声に分割し、高域音声を指定帯域信号x− LFとして出力する。
[Modification D]
FIG. 19 is a configuration example of the designated band signal extraction unit 61. The designated band signal extraction unit 61 includes a
f '= f + 2-F when f≤2 + F
When f> 2 + F f '= f-2-F
The frequency domain cyclic decoded low-frequency speech X − LS having the f ′ kHz component is calculated. Inverse
以上、この発明の実施の形態について説明したが、具体的な構成は、これらの実施の形態に限られるものではなく、この発明の趣旨を逸脱しない範囲で適宜設計の変更等があっても、この発明に含まれることはいうまでもない。実施の形態において説明した各種の処理は、記載の順に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。 As described above, the embodiments of the present invention have been described, but the specific configuration is not limited to these embodiments, and even if there is a design change or the like as appropriate without departing from the spirit of the present invention, Needless to say, it is included in this invention. The various processes described in the embodiments are not only executed in time series according to the description order, but may also be executed in parallel or individually as required by the processing capability of the apparatus that executes the processes.
[プログラム、記録媒体]
上記実施形態で説明した各装置における各種の処理機能をコンピュータによって実現する場合、各装置が有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、上記各装置における各種の処理機能がコンピュータ上で実現される。
[Program, recording medium]
When various processing functions in each device described in the above embodiment are realized by a computer, the processing contents of the functions that each device should have are described by a program. Then, by executing this program on a computer, various processing functions in each of the above devices are realized on the computer.
この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよい。 The program describing the processing contents can be recorded on a computer-readable recording medium. As the computer-readable recording medium, for example, any recording medium such as a magnetic recording device, an optical disk, a magneto-optical recording medium, and a semiconductor memory may be used.
また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD-ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。 This program is distributed by selling, transferring, or lending a portable recording medium such as a DVD or CD-ROM in which the program is recorded. Furthermore, the program may be distributed by storing the program in a storage device of the server computer and transferring the program from the server computer to another computer via a network.
このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶装置に格納する。そして、処理の実行時、このコンピュータは、自己の記録媒体に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。また、このプログラムの別の実行形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよく、さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。また、サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。なお、本形態におけるプログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるもの(コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータ等)を含むものとする。 A computer that executes such a program first stores, for example, a program recorded on a portable recording medium or a program transferred from a server computer in its own storage device. When executing the process, the computer reads a program stored in its own recording medium and executes a process according to the read program. As another execution form of the program, the computer may directly read the program from a portable recording medium and execute processing according to the program, and the program is transferred from the server computer to the computer. Each time, the processing according to the received program may be executed sequentially. A configuration in which the above-described processing is executed by a so-called ASP (Application Service Provider) type service that realizes a processing function only by an execution instruction and result acquisition without transferring a program from the server computer to the computer. It is good. Note that the program in this embodiment includes information that is used for processing by an electronic computer and that conforms to the program (data that is not a direct command to the computer but has a property that defines the processing of the computer).
また、この形態では、コンピュータ上で所定のプログラムを実行させることにより、本装置を構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。 In this embodiment, the present apparatus is configured by executing a predetermined program on a computer. However, at least a part of these processing contents may be realized by hardware.
11 入力バッファ
12 帯域分割フィルタ
13 低域音声符号化部
14 高域音声符号化部
15 遅延部
16 低域音声復号部
17 符号送出部
21 符号受信部
22 低域音声復号部
23 高域符号抽出部
24 遅延部
25 高域音声復号部
26 帯域合成フィルタ
DESCRIPTION OF SYMBOLS 11
Claims (8)
復号低域音声に基づいて上記高域音声を符号化して高域符号を生成する高域音声符号化部と、
上記低域音声を符号化して上記高域符号を埋め込んだ低域符号を生成する低域音声符号化部と、
上記低域符号を復号して上記復号低域音声を生成する低域音声復号部と、
上記低域符号を音声符号として出力する符号送出部と、
を含み、
上記低域符号は、ITU-T G.726方式と互換性を持つものである、
音声符号化装置。 A band dividing unit that divides the input sound into low-frequency sound and high-frequency sound;
A high frequency audio encoding unit that encodes the high frequency audio based on the decoded low frequency audio to generate a high frequency code;
A low frequency speech encoding unit that encodes the low frequency speech and generates a low frequency code in which the high frequency code is embedded;
A low frequency audio decoding unit that decodes the low frequency code to generate the decoded low frequency audio;
A code sending unit that outputs the low frequency code as a voice code;
Including
The above low-pass code is compatible with the ITU-T G.726 system.
Speech encoding device.
上記音声符号を復号して復号低域音声を生成する低域音声復号部と、
上記音声符号に埋め込まれた高域符号を抽出する高域符号抽出部と、
上記復号低域音声に基づいて上記高域符号を復号して復号高域音声を生成する高域音声復号部と、
上記復号低域音声と上記復号高域音声とを合成して復号音声を出力する帯域合成部と、
を含む音声復号装置。 A code receiving unit that receives a voice code output by the voice encoding device according to claim 1;
A low frequency audio decoding unit that decodes the audio code to generate a decoded low frequency audio;
A high-frequency code extraction unit that extracts a high-frequency code embedded in the speech code;
A high-frequency speech decoding unit that generates the decoded high-frequency speech by decoding the high-frequency code based on the decoded low-frequency speech;
A band synthesizing unit that synthesizes the decoded low-frequency sound and the decoded high-frequency sound and outputs the decoded sound;
A speech decoding device.
上記高域音声復号部は、
上記復号低域音声をLH帯域音声とLL帯域音声とに帯域分割する帯域分割部と、
上記音声符号をゲイン符号と係数符号とに分離する符号分離部と、
上記LH帯域音声の線形予測係数を用いて上記係数符号を復号してHL帯域復号線形予測係数を求める係数復号部と、
上記LH帯域音声の線形予測係数と上記係数符号とを用いて上記ゲイン符号を復号して復号相対ゲインを求める相対ゲイン復号部と、
上記LH帯域線形予測係数と上記係数符号とを用いてHH帯域線形予測係数を予測して求める係数予測部と、
上記ゲイン符号と上記係数符号とを用いて予測相対ゲインを予測して求める相対ゲイン予測部と、
Fをあらかじめ決められた0≦F≦2の定数として、上記復号低域音声のF〜(F+2)キロヘルツ帯域成分を抽出して指定帯域信号を求める指定帯域信号抽出部と、
上記指定帯域信号の線形予測係数をフィルタ係数として上記指定帯域信号から求めた指定帯域線形予測残差を複製してHL帯域駆動音源を求める複製部と、
上記HH帯域線形予測係数をフィルタ係数としてガウス乱数から求めたHH帯域音声のパワーと上記LH帯域音声のパワーとの比に基づいて上記予測相対ゲインから算出したゲインを上記HH帯域音声に乗算して復号HH帯域音声を生成するHH帯域乗算部と、
上記HL帯域復号線形予測係数をフィルタ係数として上記HL帯域駆動音源から求めたHL帯域合成音声のパワーと上記LH帯域音声のパワーとの比に基づいて上記復号相対ゲインから算出したゲインを上記HL帯域合成音声に乗算して復号HL帯域音声を生成するHL帯域乗算部と、
上記復号HH帯域音声と上記復号HL帯域音声とを合成して上記復号高域音声を出力する帯域合成部と、
を含むものである、
音声復号装置。 The speech decoding apparatus according to claim 2, wherein
The high frequency speech decoding unit is
A band dividing unit for dividing the decoded low-frequency sound into LH band sound and LL band sound;
A code separation unit for separating the speech code into a gain code and a coefficient code;
A coefficient decoding unit that decodes the coefficient code using the linear prediction coefficient of the LH band speech to obtain an HL band decoded linear prediction coefficient;
A relative gain decoding unit that decodes the gain code using the linear prediction coefficient of the LH band speech and the coefficient code to obtain a decoded relative gain;
A coefficient prediction unit that predicts an HH band linear prediction coefficient using the LH band linear prediction coefficient and the coefficient code;
A relative gain prediction unit that predicts a predicted relative gain using the gain code and the coefficient code;
A designated band signal extraction unit that obtains a designated band signal by extracting F to (F + 2) kilohertz band components of the decoded low-frequency speech, with F being a predetermined constant of 0 ≦ F ≦ 2,
A duplicating unit for duplicating a designated band linear prediction residual obtained from the designated band signal using a linear prediction coefficient of the designated band signal as a filter coefficient and obtaining an HL band driving sound source;
The HH band voice is multiplied by the gain calculated from the predicted relative gain based on the ratio of the power of the HH band voice obtained from Gaussian random numbers and the power of the LH band voice using the HH band linear prediction coefficient as a filter coefficient. An HH band multiplier for generating decoded HH band speech;
The gain calculated from the decoded relative gain based on the ratio of the power of the HL band synthesized speech obtained from the HL band driving sound source and the power of the LH band speech using the HL band decoded linear prediction coefficient as a filter coefficient is the HL band. An HL band multiplier that multiplies the synthesized voice to generate decoded HL band voice;
A band synthesizing unit that synthesizes the decoded HH band voice and the decoded HL band voice and outputs the decoded high band voice;
Including
Speech decoding device.
上記指定帯域信号抽出部は、
上記復号低域音声を周波数領域に変換して周波数領域復号低域音声を生成するフーリエ変換部と、
上記周波数領域復号低域音声のfキロヘルツ成分が、f≦2+Fのときはf'=f+2-Fとなり、f>2+Fのときはf'=f-2-Fとなるf'キロヘルツ成分からなる周波数領域巡回復号低域音声を計算する周波数成分巡回部と、
上記周波数領域巡回復号低域音声を時間領域に変換して巡回復号低域音声を生成するフーリエ逆変換部と、
上記巡回復号低域音声を高域音声と低域音声に分割し、その高域音声を上記指定帯域信号として出力する指定帯域分割部と、
を含むものである、
音声復号装置。 The speech decoding apparatus according to claim 3, wherein
The designated band signal extraction unit
A Fourier transform unit that converts the decoded low-frequency sound into a frequency domain to generate a frequency-domain decoded low-frequency sound;
F ′ = f + 2-F when the f-kilohertz component of the above frequency domain decoded low-frequency speech is f ≦ 2 + F, and f ′ = f-2-F when f> 2 + F. 'Frequency component cyclic unit for calculating frequency domain cyclic decoded low-frequency speech composed of kilohertz components;
A Fourier inverse transform unit that converts the frequency domain cyclic decoded low-frequency speech into the time domain to generate cyclic decoded low-frequency speech;
A designated band dividing unit that divides the cyclic decoded low frequency sound into high frequency sound and low frequency sound, and outputs the high frequency sound as the designated band signal;
Including
Speech decoding device.
高域音声符号化部が、復号低域音声に基づいて上記高域音声を符号化して高域符号を生成し、
低域音声符号化部が、上記低域音声を符号化して上記高域符号を埋め込んだ低域符号を生成し、
低域音声復号部が、上記低域符号を復号して上記復号低域音声を生成し、
符号送出部が、上記低域符号を音声符号として出力し、
上記低域符号は、ITU-T G.726方式と互換性を持つものである、
音声符号化方法。 The band division unit divides the input sound into low-frequency sound and high-frequency sound,
A high frequency audio encoding unit generates the high frequency code by encoding the high frequency audio based on the decoded low frequency audio,
The low frequency speech encoding unit generates a low frequency code in which the low frequency speech is encoded and the high frequency code is embedded,
A low-frequency speech decoding unit decodes the low-frequency code to generate the decoded low-frequency speech,
The code sending unit outputs the low frequency code as a voice code,
The above low-pass code is compatible with the ITU-T G.726 system.
Speech encoding method.
低域音声復号部が、上記音声符号を復号して復号低域音声を生成し、
高域符号抽出部が、上記音声符号に埋め込まれた高域符号を抽出し、
高域音声復号部が、上記復号低域音声に基づいて上記高域符号を復号して復号高域音声を生成し、
帯域合成部が、上記復号低域音声と上記復号高域音声とを合成して復号音声を出力する、
音声復号方法。 The code receiving unit receives the voice code output by the voice coding method according to claim 5,
A low-frequency audio decoding unit generates the decoded low-frequency audio by decoding the audio code,
The high frequency code extraction unit extracts the high frequency code embedded in the speech code,
A high frequency audio decoding unit generates the decoded high frequency audio by decoding the high frequency code based on the decoded low frequency audio,
A band synthesizing unit that synthesizes the decoded low-frequency sound and the decoded high-frequency sound and outputs the decoded sound;
Speech decoding method.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017013846A JP6713424B2 (en) | 2017-01-30 | 2017-01-30 | Audio decoding device, audio decoding method, program, and recording medium |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017013846A JP6713424B2 (en) | 2017-01-30 | 2017-01-30 | Audio decoding device, audio decoding method, program, and recording medium |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2018124304A true JP2018124304A (en) | 2018-08-09 |
| JP6713424B2 JP6713424B2 (en) | 2020-06-24 |
Family
ID=63110251
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2017013846A Active JP6713424B2 (en) | 2017-01-30 | 2017-01-30 | Audio decoding device, audio decoding method, program, and recording medium |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP6713424B2 (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2021145291A (en) * | 2020-03-13 | 2021-09-24 | サクサ株式会社 | Telephone device |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2006009075A1 (en) * | 2004-07-20 | 2006-01-26 | Matsushita Electric Industrial Co., Ltd. | Sound encoder and sound encoding method |
| JP2007072264A (en) * | 2005-09-08 | 2007-03-22 | Nippon Telegr & Teleph Corp <Ntt> | Speech quantization method, speech quantization apparatus, program |
| WO2007063913A1 (en) * | 2005-11-30 | 2007-06-07 | Matsushita Electric Industrial Co., Ltd. | Subband coding apparatus and method of coding subband |
-
2017
- 2017-01-30 JP JP2017013846A patent/JP6713424B2/en active Active
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2006009075A1 (en) * | 2004-07-20 | 2006-01-26 | Matsushita Electric Industrial Co., Ltd. | Sound encoder and sound encoding method |
| JP2007072264A (en) * | 2005-09-08 | 2007-03-22 | Nippon Telegr & Teleph Corp <Ntt> | Speech quantization method, speech quantization apparatus, program |
| WO2007063913A1 (en) * | 2005-11-30 | 2007-06-07 | Matsushita Electric Industrial Co., Ltd. | Subband coding apparatus and method of coding subband |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2021145291A (en) * | 2020-03-13 | 2021-09-24 | サクサ株式会社 | Telephone device |
Also Published As
| Publication number | Publication date |
|---|---|
| JP6713424B2 (en) | 2020-06-24 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP3881943B2 (en) | Acoustic encoding apparatus and acoustic encoding method | |
| JP5226777B2 (en) | Recovery of hidden data embedded in audio signals | |
| RU2262748C2 (en) | Multi-mode encoding device | |
| RU2387025C2 (en) | Method and device for quantisation of spectral presentation of envelopes | |
| JP4390208B2 (en) | Method for encoding and decoding speech at variable rates | |
| JP4302978B2 (en) | Pseudo high-bandwidth signal estimation system for speech codec | |
| US20040068399A1 (en) | Method and apparatus for transmitting an audio stream having additional payload in a hidden sub-channel | |
| RU2677453C2 (en) | Methods, encoder and decoder for linear predictive encoding and decoding of sound signals upon transition between frames having different sampling rates | |
| JP2009539132A (en) | Linear predictive coding of audio signals | |
| JP2011507050A (en) | Audio signal processing method and apparatus | |
| KR100912587B1 (en) | Audio signal interpolation method and device | |
| CN114550732B (en) | Coding and decoding method and related device for high-frequency audio signal | |
| WO2012010929A1 (en) | A reverberation estimator | |
| KR20190060887A (en) | Noise signal processing method, noise signal generation method, encoder, decoder, and encoding and decoding system | |
| RU2667973C2 (en) | Methods and apparatus for switching coding technologies in device | |
| JPH1097295A (en) | Acoustic signal encoding method and decoding method | |
| JP4958780B2 (en) | Encoding device, decoding device and methods thereof | |
| JPH11504733A (en) | Multi-stage speech coder by transform coding of prediction residual signal with quantization by auditory model | |
| JP4359949B2 (en) | Signal encoding apparatus and method, and signal decoding apparatus and method | |
| JP6713424B2 (en) | Audio decoding device, audio decoding method, program, and recording medium | |
| JP2004302259A (en) | Hierarchical encoding method and hierarchical decoding method for audio signal | |
| JP2000132193A (en) | Signal encoding device and method therefor, and signal decoding device and method therefor | |
| JP4373693B2 (en) | Hierarchical encoding method and hierarchical decoding method for acoustic signals | |
| JP4099879B2 (en) | Bandwidth extension method and apparatus | |
| JP2006171751A (en) | Speech coding apparatus and method therefor |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190222 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191211 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200128 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200228 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200602 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200603 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 6713424 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
| R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |