[go: up one dir, main page]

JPH08167852A - データ圧縮方法及び装置 - Google Patents

データ圧縮方法及び装置

Info

Publication number
JPH08167852A
JPH08167852A JP30866294A JP30866294A JPH08167852A JP H08167852 A JPH08167852 A JP H08167852A JP 30866294 A JP30866294 A JP 30866294A JP 30866294 A JP30866294 A JP 30866294A JP H08167852 A JPH08167852 A JP H08167852A
Authority
JP
Japan
Prior art keywords
group
character
appearance probability
probability
appearance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP30866294A
Other languages
English (en)
Inventor
Nobuko Sato
宣子 佐藤
Yoshiyuki Okada
佳之 岡田
Shigeru Yoshida
茂 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP30866294A priority Critical patent/JPH08167852A/ja
Publication of JPH08167852A publication Critical patent/JPH08167852A/ja
Withdrawn legal-status Critical Current

Links

Landscapes

  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

(57)【要約】 【目的】 圧縮対象ファイルサイズが確率モデル構築に
十分な大きさでない場合に、予め個々の文字出現頻度を
保持せずに、良い圧縮率を得ることができるデータ圧縮
方法及び装置を提供することを目的とする。 【構成】 入力される可能性がある文字を、互いに同じ
統計的性質を有する文字毎に階層的な複数の群にそれぞ
れ分類する群構成ステップと、それぞれの群の出現確率
を計算する群出現確率計算ステップと、複数の群中にお
ける入力文字の出現確率を計算する群中文字出現確率計
算ステップと、群中文字出現確率計算ステップで計算さ
れた出現確率に基づいて入力文字を符号化する入力文字
符号化ステップとを備えて構成した。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】近年、文字コード、画像データ等
の様々なデータがコンピュータで扱われるようになるの
に伴い、取り扱われるデータ量も増大している。そのよ
うな大量のデータは、データ中の冗長な部分を省いて圧
縮することにより、記憶容量を減らしたり、早く伝送し
たりできるようになる。
【0002】一方、圧縮を行ったデータは、参照・利用
する際に復元する必要があるため、圧縮する前のデータ
に比べアクセス速度が低下する。そこで、これまでのデ
ータ圧縮は、主に、一部参照を行うことが希な、データ
のバックアップや通信のときにのみ利用されている。
【0003】しかし、近年では、圧縮専用LSIが利用
されるようになったため、圧縮データの復元速度は短く
なり、通常のデータと同様にアクセスを行うデータに対
しても、圧縮・復元を行うことが考えられてきている。
【0004】そこで、圧縮を行った場合、圧縮データ単
位毎に復元を行うため、アクセスするデータサイズ単位
と、圧縮するデータサイズは同程度(5Kbyte以
下、1〜2Kbyte程度)で行うことが望まれてい
る。
【0005】
【従来の技術】様々な種類のデータ(文字コード、画像
データ等)に適用できるデータ圧縮方式として、ユニバ
ーサル符号化方式が提案されている。ここで、本発明
は、文字コードの圧縮に限定されず、様々なデータに適
用できるが、以下では、情報理論に基づき、データの1
ワード単位を文字(アルファベット)と呼び、データが
任意ワードつながったものを文字列と呼ぶことにする。
【0006】ユニバーサル符号化方式の中で代表的な方
式として、算術符号化方式がある。この方式は、従来よ
く使われているハフマン符号のように、1文字づつばら
ばらに符号化の1点に対応付け、2進数の小数点以下を
符号として出力するものである。
【0007】ここで、多値算術符号化の原理を、図2を
参照して説明する。まず、算術符号では、文字列を実数
0と1の間([0,1))のある実数の区間を用いて表
すということが基本アイデアになっている。
【0008】ここで、区間[0,1)を採用するのは、
2進数の小数点以下を符号として出力するためである。
また、以上“[”と未満“)”となっている理由は、
[0,1]では、0と1の小数点以下が同じになって0
と1を区別できなくなるためであり、(0、1)では、
値としての0が使用できなくなるためである。
【0009】図2(A)は、a,b,c,dの4文字が
出現すると仮定した場合に、各々の文字の出現頻度を示
している。図2(A)中、横軸の文字a,b,c,dの
下側に記された(4)、(2)、(1)、(3)は、そ
れぞれの文字の出現頻度順位を示している。
【0010】図2(A)に示された各文字の出現頻度に
基づいて、文字毎の累積出現頻度確率を出現頻度順に示
したのが図2(B)である。即ち、図2(B)中、横軸
にcf0と記された列は、c,b,d,aの4文字中の
文字cの累積出現頻度確率を示している。同様に、横軸
にcf1と記された列は、b,d,aの3文字中の文字
bの累積出現頻度確率を示している。同様に、横軸にc
f2と記された欄は、d,aの2文字中の文字dの累積
出現頻度確率を示している。同様に、横軸にcf3と記
された欄は、文字aの累積出現頻度確率を示している。
【0011】そして、図2(B)に示された累積出現頻
度確率から算術符号化を行う方法を示したのが図2
(C)である。即ち、文字cを入力した段階で、対応す
る区間10として、文字cの累積出現頻度確率(図2
(B)においてcf0と記された列で斜線が付された箇
所)と同等の区間幅を採用する。
【0012】次に、2番目の文字aが入力された段階
で、対応する区間11として、1文字目に対応する区間
10を各文字の累積出現頻度確率で再分割して得られる
区間11を採用する。
【0013】そして、3番目の文字dが入力された段階
で、対応する区間12として、2文字目に対応する区間
11を各文字の累積出現頻度確率で再分割して得られる
区間12を採用する。
【0014】このようにして、文字列acdは区間12
の任意値(区間12の上端と下端の間の任意の値)とし
て符号化される。ここで、各区間の下端は、式(1−
1)〜(1−2)により求められる。 新たな部分区間の下端=現部分区間の下端+現部分区間幅×注目文字の累積 確率 ・・・(1−1) 新たな部分区間幅 =現部分区間幅×注目文字の確率 ・・・(1−2) なお、符号語を復元するには、符号語が各文字の確率に
分けたどの区間に含まれるか、逐次再分割しながら調べ
ればよい。
【0015】このように、算術符号化では、区間で符号
化するが、復号する過程では実際に区間が与えられる必
要は無く、区間の中のある一つの数が指定されればよ
い。具体的な符号語としては、区間内の数の中でできる
だけ短いビット数で表せるものを選べばよい。
【0016】即ち、出現頻度が高いほど区間幅が大きく
なるということから、区間幅が大きいほど小数点以下の
数が少なくなり、短いビット数で表せるようになる。以
上は、各シンボル出現頻度を固定した例の説明である
が、以下に示すように、出現頻度(確率モデル)を逐次
変更して、動的に行うこともできる。 注目文字の累積確率=注目文字より出現頻度の低い文字の出現回数の累積/ 入力文字列長 ・・・(2−1) 注目文字の確率=注目文字の出現回数/入力文字列長 ・・・(2−2) ここで、出現頻度を文字入力の度に再計算する動的な算
術符号化を行う装置の構成を図3に示す。この装置は、
図2(A)のような入力された文字の出現頻度を作成す
ると共に、図2(B)のような文字ごとの出現頻度順の
累積出現頻度を作成する確率確率モデル(シンボル出現
頻度)作成部20と、図2(C)のような累積出現頻度
確率から算術符号化を行う算術符号部40とから構成さ
れている。そして、確率モデル作成部20は、図示して
いない辞書とカウンタとを有している。
【0017】次に、図4のフローにより、図3の算術符
号化装置の動作を説明する。まず、ステップ401で
は、上端=1、下端=0、区間幅=1.0を算術符号化
の初期値とする。このとき、確率モデル作成部20の辞
書は、シンボルと出現頻度順位を保持し、カウンタは各
シンボル出現頻度を保持する。また、初期化として、シ
ンボル数(出現が考えられる文字数:1byteの時2
56)の辞書を準備し、各文字ごとに出現頻度をカウン
トするカウンタを準備し“1”に初期化する。そして、
算術符号部40は、各シンボルの順位、また、累積出現
頻度を保持する。
【0018】入力文字列より一文字(kとする)入力す
る(ステップ402)毎に、辞書より出現頻度順位を選
択し、この番号及び累積出現頻度を用いて算術符号部4
0にて区間を計算し、算術符号化する(ステップ40
3)。つまり、入力文字の区間の上端と下端を式(1−
1)〜(1−2)及び式(2−1)〜(2−2)に基づ
いて求め、区間の任意の値を符号として出力する。
【0019】その後、カウンタにて入力文字の出現頻度
を“1”増やす(ステップ404)。“1”増加した文
字に伴い、頻度順に辞書を並び替える(ステップ40
5)と共に、累積出現頻度を更新する(ステップ40
6)。なお、ステップ405とステップ406は、逆に
処理してもよい。
【0020】以上のステップ402からステップ406
までの操作は、繰り返し実行される。これまでの説明
は、一文字毎の出現確率に基づいて算術符号化する場合
の例である。更に圧縮率を高めるには、入力文字と直前
の文字との依存関係(以下、「文脈」とする)を取り入
れた、条件付出現確率を用いて算術符号化する。
【0021】文脈は、図5に示すように、木構造で表さ
れる。各ノードの文字を通る文字列が出る毎に出現回数
を各ノードにて計数しておいて条件付き確率を求める。
図5において、各文字の右隣に記された数字が出現回数
を示している。例えば、rootの直ぐ下にある(枝の長さ
が1)文字aの右隣に5と記されているのは、文字aの
出現回数が5であることを意味し、rootから2段下にあ
る(枝の長さが2)文字aの右隣に2と記されているの
は、文字aaの出現回数が2であることを意味し、root
から3段下にある(枝の長さが3)文字aの右隣に1と
記されているのは、文字aaaの出現回数が1であるこ
とを意味している。
【0022】ここで、全ての記号の生起確率は、その記
号の直前に出現した記号列である「文脈」に従って定め
られるが、この文脈の形成に利用される記号列の長さは
「次数」と呼ばれる。次数の設定の仕方である文脈収集
方法には、下記の(1)及び(2)がある。 (1)固定次数の文脈 条件付確率の条件を固定の次数にする方法。例えば、2
次の文脈では直前2文字につながる文字の文脈を収集
(図5では、rootからの枝の長さ3)し、条件付き確率
p(y|x1,x2)を得る。
【0023】ただし、yは注目符号化文字、x1、x2はそ
れぞれ直前の第1文字、第2文字を意味し、p(y|x1,x2)
は、x1、x2が続いて出現した後に、yが出現する確率を
意味している。 (2)Blending文脈 Blending(次数の混合)は、条件文字列の長さを固定せ
ずに、入力データに応じて次数を伸ばす。
【0024】多値算術符号化において出現可能な文字数
が多い場合(例えば、1文字が16bitで表現され、出
現可能な文字が64K個の場合)には、該当する圧縮フ
ァイルに全く出現しない文字が多数存在する。この場
合、出現頻度を文字入力の度に再計算して動的に算術符
号化を行うときに、全各文字の出現可能性を考えて各出
現頻度の初期値に“1”を与えると、無駄な区間を多く
とり、圧縮率が低下することになる。この無駄をなくす
方法として、−1次と0次のBlending方法がある。−1
次は、未出現文字を等確率にしたものをあらわし、0次
は、文脈無しの文字出現頻度を表す。
【0025】−1次、0次のBlending方法を用いた算術
符号化方式のフローを、図6を参照して説明する。な
お、このフローは、例えば図3に示す装置で処理され
る。まず、ステップ601では、算術符号化にあたっ
て、上端=1、下端=0、区間幅=1.0を初期値とす
る。また、全出現可能な文字(情報源)を未出現文字と
して辞書に登録する。
【0026】そして、入力文字列より一文字(kとす
る)入力する(ステップ602)毎に、それがフロー中
に出現したかどうかを辞書により判別する(ステップ6
03)。
【0027】ステップ603で、出現していないと判別
された場合は、未出現文字用区間を算術符号化し(ステ
ップ607)、全未出現文字を等確率として文字kを算
術符号化する(ステップ608)。その後、カウンタに
て入力文字kの出現頻度を“1”とし、文字kを未出現
文字より除く(ステップ609)。
【0028】一方、ステップ603で、出現していたと
判別された場合は、文字kを算術符号化する(ステップ
604)。その後、カウンタにて入力文字の出現頻度を
“1”増やす(ステップ605)。そして、出現頻度順
に辞書を並び替える(ステップ606)。
【0029】ステップ606とステップ609の実行後
に、累積出現頻度を更新する(ステップ610)。その
後、ステップ602から実行を繰り返す。
【0030】
【発明が解決しようとする課題】統計的な各文字出現頻
度に従い、出現確率の高い文字に対して短い符号長を割
り振る圧縮方式(確率統計型圧縮方式)において、前述
したように、各シンボル出現頻度(確率モデル)を固定
的にするものと、動的に変更するものとがある。
【0031】前者は、復元する際に予め設定した確率モ
デルまたは全文字列を操作して得た確率モデルを必要と
し、圧縮したデータとともに、先の出現頻度を保持する
必要がある。
【0032】一方、後者は、文字列を入力するに従っ
て、確率モデルを再計算して使う適応型符号化方式であ
り、予め確率モデルを保持しなくてよく、また、各圧縮
対象データに即した確率モデルを構築することができ
る。しかし、圧縮を行う文字列が短い場合には、十分な
辞書を構築することができず、良い圧縮率が得られな
い。
【0033】本発明は、このような事情に鑑みてなされ
たもので、圧縮対象ファイルサイズが確率モデル構築に
十分な大きさでない場合に、予め個々の文字出現頻度を
保持せずに、良い圧縮率を得ることができるデータ圧縮
方法及び装置を提供することを課題とする。
【0034】
【課題を解決するための手段】
<本発明の第1のデータ圧縮方法>本発明の第1のデー
タ圧縮方法は、前述した課題を解決するため、下記の如
く構成されている(請求項1に対応)。
【0035】即ち、出現確率に応じた符号長を出力する
可変長符号化を行うデータ圧縮方法において、群構成ス
テップと、群出現確率計算ステップと、群中文字出現確
率計算ステップと、入力文字符号化ステップとを備えて
いる。
【0036】群構成ステップは、入力される可能性があ
る文字を、互いに同じ統計的性質を有する文字毎に階層
的な複数の群にそれぞれ分類する。群出現確率計算ステ
ップは、前記それぞれの群の出現確率を計算する。
【0037】群中文字出現確率計算ステップは、前記複
数の群中における入力文字の出現確率を計算する。入力
文字符号化ステップは、前記群中文字出現確率計算ステ
ップで計算された出現確率に基づいて入力文字を符号化
する。
【0038】<本発明の第2のデータ圧縮方法>本発明
の第2のデータ圧縮方法は、前述した課題を解決するた
め、下記の如く構成されている(請求項2に対応)。
【0039】即ち、第1のデータ圧縮方法において、前
記群構成ステップ(S1)では、前記群の構成要素の分
類を予め固定して与える。 <本発明の第3のデータ圧縮方法>本発明の第3のデー
タ圧縮方法は、前述した課題を解決するため、下記の如
く構成されている(請求項3に対応)。
【0040】即ち、第1のデータ圧縮方法において、前
記群出現確率計算ステップ(S2)では、前記群の出現
確率を予め固定して与える。 <本発明の第4のデータ圧縮方法>本発明の第4のデー
タ圧縮方法は、前述した課題を解決するため、下記の如
く構成されている(請求項4に対応)。
【0041】即ち、第1のデータ圧縮方法において、前
記群出現確率計算ステップ(S2)では、前記群の出現
確率に予め初期値を設定するとともに、この群の出現確
率を前記文字の入力に応じて動的に再計算する。
【0042】<本発明の第5のデータ圧縮方法>本発明
の第5のデータ圧縮方法は、前述した課題を解決するた
め、下記の如く構成されている(請求項5に対応)。
【0043】即ち、第1のデータ圧縮方法において、前
記群出現確率計算ステップ(S2)では、前記群の出現
確率を、直前の複数文字が属する各々の群が出現するこ
とを条件とする条件付群出現確率で計算する。
【0044】<本発明の第6のデータ圧縮方法>本発明
の第6のデータ圧縮方法は、前述した課題を解決するた
め、下記の如く構成されている(請求項6に対応)。
【0045】即ち、第1のデータ圧縮方法において、前
記群構成ステップ(S1)では、前記階層的な複数の群
を、高出現確率文字で構成される第1の群と、低出現確
率文字で構成される第2の群とで構成する。
【0046】<本発明のデータ圧縮装置>本発明のデー
タ圧縮装置は、前述した課題を解決するため、下記の如
く構成されている(請求項9に対応)。。
【0047】即ち、出現確率に応じた符号長を出力する
可変長符号化を行うデータ圧縮装置において、群構成部
と、群出現確率計算部と、群中文字出現確率計算部と、
入力文字符号化部とを備えている。
【0048】群構成部は、入力される可能性がある文字
を、互いに同じ統計的性質を有する文字毎に階層的な複
数の群にそれぞれ分類する。群出現確率計算部は、前記
それぞれの群の出現確率を計算する。
【0049】群中文字出現確率計算部は、前記複数の群
中における入力文字の出現確率を計算する。入力文字符
号化部は、前記群中文字出現確率計算部で計算された出
現確率に基づいて入力文字を符号化する。
【0050】
【作用】
<本発明の第1のデータ圧縮方法の作用>まず、群構成
ステップでは、入力される可能性がある文字が、互いに
同じ統計的性質を有する文字毎に階層的な複数の群に分
類される。そして、群出現確率計算ステップでは、それ
ぞれの群の出現確率が計算される。そして、群中文字出
現確率計算ステップでは、複数の群中における入力文字
の出現確率が計算される。そして、入力文字符号化ステ
ップでは、群中文字出現確率計算ステップで計算された
出現確率に基づいて入力文字が符号化される。
【0051】<本発明の第2のデータ圧縮方法の作用>
第1のデータ圧縮方法の作用において、群構成ステップ
では、群の構成要素の分類が予め固定して与えられる。
【0052】<本発明の第3のデータ圧縮方法の作用>
第1のデータ圧縮方法の作用において、群出現確率計算
ステップでは、群の出現確率が予め固定して与えられ
る。
【0053】<本発明の第4のデータ圧縮方法の作用>
第1のデータ圧縮方法の作用において、群出現確率計算
ステップでは、群の出現確率に予め初期値が設定される
とともに、この群の出現確率が文字の入力に応じて動的
に再計算される。
【0054】<本発明の第5のデータ圧縮方法の作用>
第1のデータ圧縮方法の作用において、群出現確率計算
ステップでは、群の出現確率が、直前の複数文字が属す
る各々の群が出現することを条件とする条件付群出現確
率で計算される。
【0055】<本発明の第6のデータ圧縮方法の作用>
第1のデータ圧縮方法の作用において、群構成ステップ
では、階層的な複数の群が、高出現確率文字で構成され
る第1の群と、低出現確率文字で構成される第2の群と
で構成される。
【0056】<本発明のデータ圧縮装置の作用>まず、
群構成部では、入力される可能性がある文字が、互いに
同じ統計的性質を有する文字毎に階層的な複数の群に分
類される。そして、群出現確率計算部では、それぞれの
群の出現確率が計算される。そして、群中文字出現確率
計算部では、複数の群中における入力文字の出現確率が
計算される。そして、入力文字符号化部で、群中文字出
現確率計算部で計算された出現確率に基づいて入力文字
が符号化される。
【0057】
【実施例】以下、本発明の実施例を図面を参照して説明
する。 <実施例の構成>図7は、本実施例の算術符号装置の構
成を示す。算術符号装置は、同図に示されるように、以
下の(イ)〜(ロ)の要素を備えて構成される。 (イ)文字列を入力し、該文字列に含まれる文字を、文
字群1、文字群2及び文字群3のいずれかに分類する文
字群分類部10。ここで、文字群1は、ひらがなを構成
要素とし、文字群2は、スペース、句読点及び改行マー
クを構成要素とし、文字群3は、その他の文字、例えば
漢字を構成要素とする。 (ロ)文字群分類部10が出力する文字群の群番号
(1、2、3のいずれか)を入力すると共に文字列を入
力し、文字出現頻度と各群における入力文字の順位を出
力する確率モデル作成部20。 (ハ)符号化文字の群番号からその群の累積出現頻度を
求め、その区間を符号化すると共に、続いて符号化文字
のその群における符号化文字の累積出現頻度を求め、そ
の区間を符号化する符号部30。この符号部30は、文
字群分類部10から「群番号及び群出現頻度」を入力す
ると共に、確率モデル作成部20から「文字出現頻度及
び各群における入力文字の順位」を入力し、算術符号を
出力する。
【0058】以下、前記(イ)〜(ハ)の要素を詳細に
説明する。 〔文字群分類部10〕文字群分類部10は、図8に示す
ように、群分類部11と群確率保持部12とからなる。
【0059】群分類部11は、文字列を入力し、該文字
列に含まれる文字(シンボルともいう)を、文字群1、
文字群2及び文字群3のいずれかに分類して、分類した
文字群の群番号を出力する。群分類部11は、シンボル
と群番号とを対応させて格納する対応表11aを有して
いる。この対応表11aに格納された群番号は、確率モ
デル作成部20及び符号部30に出力される。
【0060】群確率保持部12は、群分類部11から群
番号を入力し、各文字群ごとの出現頻度を出力する。群
確率保持部12は、群番号と群毎の確率とを対応させて
格納する対応表12aを有している。この対応表12a
に格納された群出現確率は、符号部30に出力される。
【0061】〔確率モデル作成部20〕確率モデル作成
部20は、辞書21と、カウンタ22とからなる。辞書
21は、文字列を入力すると共に、文字群分類部10よ
り入力された文字が属する群番号を入力して、群番号順
位(群中の出現頻度順位)を出力する。そして、辞書2
1は、文字群毎に、シンボルと群番号順位とを対応させ
て格納する対応表21aを有している。この対応表21
aに格納された群番号順位は、符号部30に出力され
る。
【0062】カウンタ22は、辞書21から群番号順位
を入力し、文字出現確率を出力する。そして、カウンタ
22は、文字群毎に、群中の出現頻度順位と文字出現頻
度とを対応させて格納する対応表22aを有している。
【0063】〔符号部30〕符号部30は、テーブル3
1と、算術符号化部32とからなる。テーブル31は、
文字群分類部10から「群番号及び群出現確率」を入力
すると共に、確率モデル作成部20から「群内文字順位
及び群内文字出現確率」を入力する。そして、テーブル
31は、群番号と累積出現頻度とを対応させて格納する
テーブル31aと、文字群毎に、郡内文字順位と累積出
現頻度とを対応させて格納する複数のテーブル31bを
有している。
【0064】算術符号化部32は、テーブル31が保持
する累積出現頻度を入力して、算術符号を出力する。こ
こで、どの文字がどの群に属するかという情報と文字群
の出現頻度に関する情報は、予め予想される出現頻度に
従って初期的に与えられる。例えば、図9に示すよう
に、スペース(空白)、E、T等の文字は、高出現文字
群に分類され、H、D、L等の文字は、低出現文字群に
分類される。そして、各々の群出現確率は、それぞれの
群に属する文字の個々の出現確率の総和をとったものと
する。
【0065】<実施例の動作>次に、図10を参照し
て、実施例の動作を説明する。まず、ステップ1001
では、算術符号化する符号語の初期設定として、上端=
1、下端=0、区間幅=1.0 とする。
【0066】ここで、文字群分類部10は、予め予想さ
れる出現頻度に基づいて、群分類部11の群分類と群確
率保持部12の群確率とを初期化する。なお、群分類の
初期化とは、各群の構成要素とどの文字がどの群に属す
るのかという情報を与えることであり、群確率の初期化
とは、例えば、群1:群2:群3=3:5:1と群の出
現確率を初期値に従って与えることである。
【0067】そして、確率モデル作成部20は、各シン
ボル群に分類し、各シンボルごとのカウンタ22を準備
し1に初期化する。また、確率モデル作成部20は、群
累積出現頻度を累積して計算すると共に、各文字群毎に
別々の各シンボルの順位、累積出現頻度を計算する。な
お、群累積出現頻度を累積して計算するとは、例えば、
群3〜群Mの出現頻度を足し合わせて群2の累積出現頻
度とすることをいう。
【0068】次に、入力文字列より一文字(“k”とす
る)入力する(ステップ1002)毎に、文字群分類部
10は、群分類部11の辞書を検索して入力文字が属す
る群(“K”とする)を判別する(ステップ100
3)。
【0069】ここで、確率モデル作成部20は、ステッ
プ1003で判別された群と入力文字に基づいて辞書2
1を検索し、出現頻度順位と、群の各文字出現頻度を出
力する。
【0070】そして、算術符号部30は、文字群累積出
現頻度を使用して文字群Kを算術符号化する(ステップ
1004)と共に、入力文字kを算術符号化する(ステ
ップ1005)。なお、ステップ1004の算術符号化
は、(イ)群番号及び群累積出現頻度を用いて入力文字
群の区間の上端と下端を求めること、(ロ)入力文字の
群内出現頻度順位及び当群の累積出現頻度を用いて入力
文字の区間の上端と下端を求めること、(ハ)区間の任
意の値を符号として出力すること、により行われる。
【0071】そして、カウンタ22にて入力文字kの出
現頻度を“1”増やし(ステップ1006)、頻度順に
文字群Kの辞書を並び替える(ステップ1007)。次
に、“1”増加した文字に伴い、出現頻度順位及び累積
出現頻度を更新する(ステップ1008)。その後、ス
テップ1002から実行を繰り返す。
【0072】〔−1次、0次のBlending方法を用いた算
術符号化の動作〕次に、−1次、0次のBlending方法を
用いた算術符号化の動作を、図11を参照して説明す
る。
【0073】まず、ステップ1101では、算術符号化
の初期設定として、(イ)文字群累積出現頻度を準備す
ること、(ロ)各文字出現頻度を0とすること、(ハ)
未出現文字として各文字群毎に全文字を登録すること、
(ニ)各文字群毎に準備した未出現文字確率を1に設定
すること、を行う。
【0074】次に、入力文字列より一文字(“k”とす
る)入力する(ステップ1102)毎に、文字群分類部
10は、群分類部11の辞書を検索して入力文字が属す
る群(“K”とする)を判別する(ステップ110
3)。
【0075】そして、算術符号化部30は、文字群累積
出現頻度を使用して、文字群Kを算術符号化する(ステ
ップ1104)。ここで、文字群Kが先に出現していた
か否かが判断される(ステップ1105)。 ステップ
1105で、先に出現していたと判断された場合、文字
群Kの累積出現頻度を使用して、文字kを算術符号化し
(ステップ1106)、文字kをカウントする(ステッ
プ1107)とともに、頻度順に辞書を並び替える(ス
テップ1108)。
【0076】一方、ステップ1105で、先に出現して
いないと判断された場合、文字群Kの未出現文字区間を
算術符号化し(ステップ1109)、文字kを算術符号
化する(ステップ1110)とともに、文字kを文字群
Kの辞書に挿入し、文字kを文字群Kの未出現文字より
除く(ステップ1111)。なお、ステップ1110で
は、文字群Kの全未出現文字は、等確率にされる。
【0077】ステップ1108とステップ1111の後
に、文字群Kの累積出現頻度が更新される。 〔符号部30の算術符号化の具体例〕図12は、符号部
30の算術符号化の具体例を示す図である。図12で
は、「ひらがな」を文字群1、「スペース、句読点、改
行マーク」を文字群2、その他の「数字」等を文字群3
としている。一文字群としている。「ひらがな」の出現
確率は0.52で、「スペース、句読点、改行マーク」
の出現確率は0.13である。圧縮の初期では、どの文
字も出現したことがなく、各文字の出現頻度は0であ
る。
【0078】この場合、従来の方式では、どの文字も等
確率で出現可能と考えて、等幅の符号区間を設定する
が、本実施例では、図12(B)に示すように各群の出
現確率に応じて定め、文字群区間の中でその文字群に属
する各文字を等幅とする。各文字群区間は、前述した各
群出現確率(図12(A)参照)に従って分ける。
【0079】本発明の文字群区間を定めた上で各文字区
間を定める方式によると、図12(B)に示すように、
圧縮初期の段階から出現確率の高い文字に対して広い符
号区間を与えることができる。
【0080】<本実施例の変形例>前記実施例では、文
字群出現確率を固定的なものとしてきたが、文字群出現
確率を動的に変える変形例を述べる。
【0081】(1)文字群出現確率を個々の群の出現確
率を動的に変えるもの (2)群の文脈を取り入れた、条件付出現確率を動的に
変えるもの まず、文字群出現確率を、個々の群の出現確率を動的に
変えるものを図13に示す。これは、図7における文字
群分類部10に相当する。文字群分類部10は、どの文
字がどの群に属するかを示す群分類部11と、各文字群
に初期値を与え、文字を入力するごとに、その文字の属
する群の出現頻度を“1”増やし、群累積出現頻度を更
新する群カウンタ13とから構成されている。
【0082】その動作は、図14を参照して説明する。
まず、ステップ1401では、初期設定として、文字群
累積出現頻度をとって、各文字出現頻度を1とし、各文
字群毎に累積出現頻度をとる。
【0083】次に、入力文字列より一文字(“k”)入
力する(ステップ1402)毎に、文字群分類部10
は、群分類部11の辞書を検索して入力文字が属する群
(“K”とする)を判別する(ステップ1403)。
【0084】そして、算術符号部30は、文字群累積出
現頻度を使用して文字群Kを算術符号化する(ステップ
1404)と共に、入力文字kを算術符号化する(ステ
ップ1405)。
【0085】そして、文字kの出現頻度と文字群Kの出
現頻度を、それぞれ1ずつ増加させ(ステップ140
6)、頻度順に文字群Kの辞書を並び替える(ステップ
1407)。
【0086】次に、ステップ1406の増加に伴い、文
字群Kの累積出現頻度を更新する(ステップ140
8)。同様に、群の文脈を取り入れ、条件付出現確率を
動的に得ることもできる。0次の値は初期値を与え、1
次以上の条件付確率は、図5に示すように、各ノード群
を通る文字群が出る毎に、出現回数を各ノードにて計数
しておくことによって条件付確率が求められる。ここで
従来は、シンボルが木の各節点になっていたのに対し、
本実施例では、群が木の各節点になっている。
【0087】群出現頻度に1次の条件付出現確率をとる
場合のフローを図15に示す。まず、初期化として以下
の(イ)〜(ヘ)を行う(ステップ1601)。 (イ)各文字群出現頻度を初期化する。 (ロ)文字群累積出現頻度をとる。 (ハ)各文字出現頻度を“1”とする。 (ニ)各文字群毎に累積出現頻度をとる。 (ホ)一つ前の文字の群番号を保持する。 (ヘ)一つ前の群番号を保持しておくレジスタR(=文
脈)を初期化する。
【0088】次に、一文字(kとする)を入力する(ス
テップ1602)。そして、どの文字群(Kとする)に
入力文字kが属するかを判別する(ステップ160
3)。
【0089】そして、「RKの出現頻度/Rの出現頻度」
を意味する条件付き確率P(K|R)を符号部30にて算術符
号化する。つまり、R に続いてそれぞれの群が起こる確
率に従って区間を分割し、このうち群K の区間を選択す
る。なお、各群の区間は、Rに続いて起こる文字群の累
積出現頻度によってその下限が求まる(ステップ160
4)。
【0090】そして、条件付き確率P(k|K)を算術符号化
すると共に、文字群の条件付累積出現頻度CF(k|K)を使
用して、入力文字kを算術符号化する(ステップ160
5)。
【0091】そして、文字出現頻度C(k|K)、C(K|R)の値
をそれぞれ“1”だけ増加させる(ステップ160
6)。そして、文字群Kの辞書を文字出現頻度C(x|K)に
従って並び替える(ステップ1607)。
【0092】そして、文字群Kの文字累積出現頻度CF(x
|K)を更新すると共に、文字群Rに続く文字群の群累積
出現頻度CF(X|R)を更新する(ステップ1608)。そ
して、レジスタRに入力文字kを設定する(ステップ1
609)。
【0093】以後、ステップ1602からの処理を繰り
返す。 <実施例の効果>次に、実施例のデータ圧縮効果を図1
6を参照して説明する。
【0094】図16(A)は、データ圧縮率が圧縮対象
ファイルのサイズによってどう変化するかを、本実施例
による場合、静的符号化方式(準適応型)による場合及
び適応型符号化方式による場合の3つのケースについて
示したものである。図16(A)の横軸と横軸は、それ
ぞれ圧縮対象ファイルサイズとデータ圧縮率であり、線
7aは、本実施例による場合、線7bは、静的符号化方
式による場合、線7cは、適応型符号化方式による場合
をそれぞれ示している。
【0095】図16(A)から明らかなように、静的符
号化方式による場合は、圧縮対象ファイルのサイズにか
かわらずほぼ一定のデータ圧縮率を保持し、比較対象の
中では最もデータ圧縮できていることが分かる。一方、
適応型符号化方式と本実施例による場合は、圧縮対象フ
ァイルのサイズが大きくなるほど圧縮率が小さく、即
ち、よりよくデータ圧縮され、静的符号化方式のデータ
圧縮率に近づくことが分かる。そして、本実施例による
場合は、適応型符号化方式による場合よりも常にデータ
圧縮率が小さくなっている。
【0096】ここで、圧縮対象ファイルサイズがほぼ0
の時における、適応型符号化方式による場合と静的符号
化方式による場合のデータ圧縮率の差は、静的符号化方
式には、各文字出現頻度の初期値が与えられているため
である。
【0097】また、圧縮対象ファイルサイズがぼぼ0の
時における、適応型符号化方式による場合と本実施例に
よる場合とのデータ圧縮率の差は、本実施例には、各群
出現頻度の初期値が与えられているためである。
【0098】次に、図16(B)は、圧縮前のファイル
サイズによって圧縮後のファイルサイズがどう変化する
かを、本実施例による場合、静的符号化方式(準適応
型)による場合及び適応型符号化方式による場合の3つ
のケースについて比較したものである。なお、図16
(B)中には、符号化を行わない場合も参考に記してあ
る。図16(B)の横軸と縦軸は、それぞれ圧縮前のフ
ァイルサイズと圧縮後のファイルサイズであり、線7d
は、本実施例による場合、線7eは、静的符号化方式に
よる場合、線7fは、適応型符号化方式による場合、線
7gは、符号化を行わない場合をそれぞれ示している。
【0099】図16(B)から明らかなように、符号化
を行ういずれの場合にも、圧縮前のファイルサイズが大
きくなるほど、圧縮後のファイルサイズの増加は鈍るこ
とが分かる。また、静的符号化方式による場合と本実施
例による場合は、ファイルサイズが小さい場合に、圧縮
後のファイルサイズが圧縮前のファイルサイズよりも大
きくなることが分かる。
【0100】そして、所定値よりも圧縮前のファイルサ
イズが小さいときは、静的符号化方式による場合、本実
施例による場合、適応型符号化方式による場合の順に圧
縮後のファイルサイズが小さくなるが、前記所定値より
も圧縮前のファイルファイルサイズが大きくなると、適
応型符号化方式による場合、静的符号化方式による場
合、本実施例による場合の順に圧縮後のファイルサイズ
が小さくなることが分かる。
【0101】ここで、圧縮前のファイルサイズがほぼ0
の時における、静的符号化方式に補助データを付加した
場合のファイルサイズが0でないのは、各文字出現頻度
の初期値情報を補助データとして持つためである。
【0102】また、圧縮前のファイルサイズがほぼ0の
時における、本実施例に補助データを付加した場合のフ
ァイルサイズが0でないのは、各群出現頻度の初期値情
報を補助データとして持つためである。
【0103】
【発明の効果】本発明の第1のデータ圧縮方法及びデー
タ圧縮装置によれば、文字を互いに同じ統計的性質を有
する文字ごとに複数の群に分類し、さらに、それぞれの
群の出現確率を計算するようにしたため、従来の方法に
比べ、初期の段階で最適な符号領域を割り振ることがで
きる。これは、出現可能な文字数が多く、圧縮対象ファ
イルが小さいときに特に有効である。つまり、従来の適
応型符号化方式では、確率モデルを構築するのにある程
度の長さの入力列を必要とし、圧縮対象のサイズが小さ
い場合は圧縮率が上がらないのに対して、本発明では、
十分な圧縮率を得ることができる。
【0104】本発明の第2及び第3のデータ圧縮方法に
よれば、第1のデータ圧縮方法に比べ、データの出現確
率に従った符号を予め割り当てることができるため、フ
ァイルサイズが小さい場合にも高い圧縮率を得ることが
可能になる。
【0105】本発明の第4のデータ圧縮方法によれば、
入力データに従って出現頻度を計算し直すので、徐々に
データに即した出現頻度に基づく圧縮が可能になる。本
発明の第5及び第6のデータ圧縮方法によれば、直前に
出現した文字が属する群あるいは直々前に出現した文字
が属する群を条件とした条件付確率を用いることで、さ
らに高い圧縮率が得られるようになる。
【図面の簡単な説明】
【図1】本発明のデータ圧縮の原理図である。(A)は
データ圧縮方法の原理図を示し、(B)はデータ圧縮装
置の原理図を示す。
【図2】多値算術符号の原理を示す図である。(A)
は、各文字の出現頻度を示している。(B)は、出現頻
度順の累積出現頻度を示している。(C)は、算術符号
化の原理を示している。
【図3】算術符号化の装置構成を示す図である。
【図4】従来の多値算術符号化のフローを示す図であ
る。
【図5】文脈の木構造(2次の場合)を示す図である。
【図6】従来の多値算術符号化(−1、0次のブレンデ
ィング)のフローを示す図である。
【図7】実施例の装置構成の概略を示す図である。
【図8】実施例の装置構成を詳細に示す図である。
【図9】群分類と群出現確率を示す図である。
【図10】実施例の多値算術符号化のフローを示す図で
ある(その1)。
【図11】実施例の多値算術符号化のフローを示す図で
ある(その2)。このフローは、−1、0次のブレンデ
ィングになっている。
【図12】文字群出現確率及び初期符号区間を示す図で
ある。(A)は、文字群出現確率を示している。(B)
は、確率モデル未保持区間時点における符号区間を示し
ている。
【図13】文字群分類部を示す図である。
【図14】実施例の多値算術符号化のフローを示す図で
ある(その3)。
【図15】実施例の多値算術符号化のフローを示す図で
ある(その4)。
【図16】従来の算術符号化と本実施例の算術符号化と
の効果の比較図である。(A)は、圧縮対象ファイルサ
イズが変化した場合におけるデータ圧縮率の変化を示し
ている。(B)は、圧縮前のファイルサイズが変化した
場合における圧縮後のファイルサイズの変化を示してい
る。
【符号の説明】
S1 群構成ステップ S2 群出現確率計算ステップ S3 群中文字出現確率計算ステップ M1 群構成部 M2 群出現確率計算部 M3 群中文字出現確率計算部 10 文字群分類部 11 群分類部 12 群確率保持部 13 群カウンタ 20 確率モデル作成部 21 辞書 22 カウンタ 30 符号部 31 テーブル 32 算術符号化部 40 算術符号部

Claims (7)

    【特許請求の範囲】
  1. 【請求項1】入力された文字を、その出現確率に応じた
    符号長を持つ可変長符号に符号化することでデータの圧
    縮を行うデータ圧縮方法において、 入力される可能性がある文字を、互いに同じ統計的性質
    を有する文字毎に階層的な複数の群にそれぞれ分類する
    群構成ステップと、 前記それぞれの群の出現確率を計算する群出現確率計算
    ステップと、 前記複数の群中における入力文字の出現確率を計算する
    群中文字出現確率計算ステップと、 前記群中文字出現確率計算ステップで計算された出現確
    率に基づいて入力文字を符号化する入力文字符号化ステ
    ップとを備えたことを特徴とするデータ圧縮方法。
  2. 【請求項2】前記群構成ステップでは、前記群の構成要
    素の分類を予め固定して与えることを特徴とする請求項
    1に記載のデータ圧縮方法。
  3. 【請求項3】前記群出現確率計算ステップでは、前記群
    の出現確率を予め固定して与えることを特徴とする請求
    項1に記載のデータ圧縮方法。
  4. 【請求項4】前記群出現確率計算ステップでは、前記群
    の出現確率に予め初期値を設定するとともに、この群の
    出現確率を前記文字の入力に応じて動的に再計算するこ
    とを特徴とする請求項1に記載のデータ圧縮方法。
  5. 【請求項5】前記群出現確率計算ステップでは、前記群
    の出現確率を、直前の複数文字が属する各々の群が出現
    することを条件とする条件付群出現確率で計算すること
    を特徴とする請求項1に記載のデータ圧縮方法。
  6. 【請求項6】前記群構成ステップでは、前記階層的な複
    数の群を、高出現確率文字で構成される第1の群と、低
    出現確率文字で構成される第2の群とで構成することを
    特徴とする請求項1に記載のデータ圧縮方法。
  7. 【請求項7】入力された文字を、その出現確率に応じた
    符号長を持つ可変長符号に符号化することでデータの圧
    縮を行うデータ圧縮装置において、 入力される可能性がある文字を、互いに同じ統計的性質
    を有する文字毎に階層的な複数の群にそれぞれ分類する
    群構成部と、 前記それぞれの群の出現確率を計算する群出現確率計算
    部と、 前記複数の群中における入力文字の出現確率を計算する
    群中文字出現確率計算部と、 前記群中文字出現確率計算部で計算された出現確率に基
    づいて入力文字を符号化する入力文字符号化部とを備え
    たことを特徴とするデータ圧縮装置。
JP30866294A 1994-12-13 1994-12-13 データ圧縮方法及び装置 Withdrawn JPH08167852A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP30866294A JPH08167852A (ja) 1994-12-13 1994-12-13 データ圧縮方法及び装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP30866294A JPH08167852A (ja) 1994-12-13 1994-12-13 データ圧縮方法及び装置

Publications (1)

Publication Number Publication Date
JPH08167852A true JPH08167852A (ja) 1996-06-25

Family

ID=17983781

Family Applications (1)

Application Number Title Priority Date Filing Date
JP30866294A Withdrawn JPH08167852A (ja) 1994-12-13 1994-12-13 データ圧縮方法及び装置

Country Status (1)

Country Link
JP (1) JPH08167852A (ja)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6144970A (en) * 1998-09-24 2000-11-07 International Business Machines Corporation Technique for inplace reorganization of a LOB table space
JP2002015284A (ja) * 2000-05-19 2002-01-18 Xerox Corp ハードコピー・ドキュメント上の表現のための画像データ生成方法
US6343286B1 (en) 1998-09-24 2002-01-29 International Business Machines Corporation Efficient technique to defer large object access with intermediate results
US6343293B1 (en) 1998-09-24 2002-01-29 International Business Machines Corporation Storing the uncompressed data length in a LOB map to speed substring access within a LOB value
US6363389B1 (en) 1998-09-24 2002-03-26 International Business Machines Corporation Technique for creating a unique quasi-random row identifier
US6366902B1 (en) 1998-09-24 2002-04-02 International Business Machines Corp. Using an epoch number to optimize access with rowid columns and direct row access
JP2002533006A (ja) * 1998-12-14 2002-10-02 マイクロソフト コーポレイション 可変長対可変長エントロピー符号化
JP2002533005A (ja) * 1998-12-14 2002-10-02 マイクロソフト コーポレイション 可変長から可変長へのエントロピー符号化のためのコードブック構成
US6470359B1 (en) 1998-09-24 2002-10-22 International Business Machines Corporation Fast technique for recovering an index on an auxiliary table
US6606617B1 (en) 1998-09-24 2003-08-12 International Business Machines Corporation Optimized technique for prefetching LOB table space pages
US6694340B1 (en) 1998-09-24 2004-02-17 International Business Machines Corporation Technique for determining the age of the oldest reading transaction with a database object
JP3770919B2 (ja) * 1997-10-21 2006-04-26 富士通株式会社 ファイル処理方法、データ処理装置及び記憶媒体
US9172965B2 (en) 2008-05-02 2015-10-27 Microsoft Technology Licensing, Llc Multi-level representation of reordered transform coefficients
US9390720B2 (en) 2002-09-04 2016-07-12 Microsoft Technology Licensing, Llc Entropy encoding and decoding using direct level and run-length/level context-adaptive arithmetic coding/decoding modes
CN116886104A (zh) * 2023-09-08 2023-10-13 西安小草植物科技有限责任公司 一种基于人工智能的智慧医疗数据分析方法
CN117176177B (zh) * 2023-11-03 2024-02-06 金乡县林业保护和发展服务中心(金乡县湿地保护中心、金乡县野生动植物保护中心、金乡县国有白洼林场) 一种用于林业信息的数据共享方法及系统

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3770919B2 (ja) * 1997-10-21 2006-04-26 富士通株式会社 ファイル処理方法、データ処理装置及び記憶媒体
US6363389B1 (en) 1998-09-24 2002-03-26 International Business Machines Corporation Technique for creating a unique quasi-random row identifier
US6343286B1 (en) 1998-09-24 2002-01-29 International Business Machines Corporation Efficient technique to defer large object access with intermediate results
US6343293B1 (en) 1998-09-24 2002-01-29 International Business Machines Corporation Storing the uncompressed data length in a LOB map to speed substring access within a LOB value
US6144970A (en) * 1998-09-24 2000-11-07 International Business Machines Corporation Technique for inplace reorganization of a LOB table space
US6366902B1 (en) 1998-09-24 2002-04-02 International Business Machines Corp. Using an epoch number to optimize access with rowid columns and direct row access
US6606617B1 (en) 1998-09-24 2003-08-12 International Business Machines Corporation Optimized technique for prefetching LOB table space pages
US6694340B1 (en) 1998-09-24 2004-02-17 International Business Machines Corporation Technique for determining the age of the oldest reading transaction with a database object
US6470359B1 (en) 1998-09-24 2002-10-22 International Business Machines Corporation Fast technique for recovering an index on an auxiliary table
JP2002533006A (ja) * 1998-12-14 2002-10-02 マイクロソフト コーポレイション 可変長対可変長エントロピー符号化
JP2002533005A (ja) * 1998-12-14 2002-10-02 マイクロソフト コーポレイション 可変長から可変長へのエントロピー符号化のためのコードブック構成
US6862113B1 (en) * 2000-05-19 2005-03-01 Xerox Corporation Assist channel coding with character classifications
JP2002015284A (ja) * 2000-05-19 2002-01-18 Xerox Corp ハードコピー・ドキュメント上の表現のための画像データ生成方法
US9390720B2 (en) 2002-09-04 2016-07-12 Microsoft Technology Licensing, Llc Entropy encoding and decoding using direct level and run-length/level context-adaptive arithmetic coding/decoding modes
US9172965B2 (en) 2008-05-02 2015-10-27 Microsoft Technology Licensing, Llc Multi-level representation of reordered transform coefficients
CN116886104A (zh) * 2023-09-08 2023-10-13 西安小草植物科技有限责任公司 一种基于人工智能的智慧医疗数据分析方法
CN116886104B (zh) * 2023-09-08 2023-11-21 西安小草植物科技有限责任公司 一种基于人工智能的智慧医疗数据分析方法
CN117176177B (zh) * 2023-11-03 2024-02-06 金乡县林业保护和发展服务中心(金乡县湿地保护中心、金乡县野生动植物保护中心、金乡县国有白洼林场) 一种用于林业信息的数据共享方法及系统

Similar Documents

Publication Publication Date Title
JP2840589B2 (ja) データ圧縮装置及びデータ復元装置
EP0695040B1 (en) Data compressing method and data decompressing method
JP3238854B2 (ja) データ圧縮方法及びデータ圧縮装置、並びにデータ復元方法及びデータ復元装置
JP3276860B2 (ja) データ圧縮/復元方法
JPH08167852A (ja) データ圧縮方法及び装置
JP3083730B2 (ja) データ情報を圧縮するためのシステムおよび方法
JP3302210B2 (ja) データ符号化/復号化方法及び装置
JPH09162748A (ja) データ符号化方法、データ復号方法、データ圧縮装置、データ復元装置、及びデータ圧縮・復元システム
US5594435A (en) Permutation-based data compression
JPS61242122A (ja) 文字データ・ストリームの適応的圧縮方法
KR101023536B1 (ko) 데이터 무손실 압축 방법
JPH06168096A (ja) データ符号化方式及びデータ復元方式
JPH08167853A (ja) データ圧縮・復元方法
JP2590287B2 (ja) データ圧縮方法およびデータ圧縮装置
JP2954749B2 (ja) データ圧縮方式
JPH06202844A (ja) データ圧縮復元処理装置
JPH05241775A (ja) データ圧縮方式
Ghuge Map and Trie based Compression Algorithm for Data Transmission
JP3018990B2 (ja) 算術符号化装置
JP3108404B2 (ja) データ圧縮装置及びデータ復元装置
CN121143732B (zh) 一种数据压缩方法及系统
JPH06168097A (ja) データ符号化方式及びデータ復元方式
JP3648944B2 (ja) データ符号化方法およびデータ符号化装置ならびにデータ復号化方法およびデータ復号化装置
JPH02190080A (ja) 画像符号化装置
JPH05152971A (ja) データ圧縮・復元方法

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20020305