CN1781102B - 低速存储器判定树 - Google Patents
低速存储器判定树 Download PDFInfo
- Publication number
- CN1781102B CN1781102B CN2004800115762A CN200480011576A CN1781102B CN 1781102 B CN1781102 B CN 1781102B CN 2004800115762 A CN2004800115762 A CN 2004800115762A CN 200480011576 A CN200480011576 A CN 200480011576A CN 1781102 B CN1781102 B CN 1781102B
- Authority
- CN
- China
- Prior art keywords
- decision tree
- nodes
- phoneme
- data
- tree
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
- G10L15/187—Phonemic context, e.g. pronunciation rules, phonotactical constraints or phoneme n-grams
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/31—Indexing; Data structures therefor; Storage structures
- G06F16/316—Indexing structures
- G06F16/322—Trees
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Machine Translation (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Executing Machine-Instructions (AREA)
- Devices For Executing Special Programs (AREA)
Abstract
本发明涉及低速存储器树形数据结构的管理。根据本发明的方法包括用于创建由父节点和至少一个叶节点组成的判定树的步骤,和用于从所述节点中搜索数据的步骤。以节点按照存储顺序跟随父节点的这样一种方式顺序地存储判定树的节点,其中没有来自其父节点的链路,也能够到达精选可搜索数据的上下文的节点。最好能够在语音识别系统中在文本-音素映射中利用该方法。
Description
技术领域
本发明涉及用于管理树形数据结构的方法,本发明还涉及用于实施上述方法的系统。此外,本发明涉及用于实施上述方法的电子设备。
背景技术
多语言方面在自动语音识别系统中变得越来越重要。语音识别系统的类型包括语音识别引擎,该语音识别引擎例如可以包括用于自动语言识别、在线发音模型建立(文本-音素)和多语言声音模型建立的单元。语音识别引擎的操作工作在以文本形式给定词汇项的假设上。首先,语言识别模块根据词汇项的书写表示来识别语言。一旦这已被确定,则应用合适的在线文本-音素模型建立方案来获得与该词汇项相关联的音素序列。音素是将一个单词的发音与另一个单词的发音区分开来的最小项。任何语言中的任何词汇项可以被呈现为一组对应于人类语音产生系统中变化的音素。
多语言声音模型被级联,以便为每个词汇项构建识别模型。利用这些基本模型,识别器能够原则上自动地处理多语言词汇项,而不需要用户的任何协助。文本-音素对于在自动语音识别以及文本-语音两者中为词汇项提供精确音素序列具有关键作用。神经网络或判定树方案通常被用作文本-音素映射。在用于语言和说话者无关的语音识别的解决方案中,基于判定树的方案已提供最精确的因素序列。用于安排树结构的方法的一个实例在US 6411957B1中提供。
在该判定树方案中,语言的字母表中的每个字母的发音被分别地建模,并且为每个字母训练单独的判定树。当找到单词的发音时,一次一个字母地处理该单词,并根据当前字母的判定树文本-音素模型找到当前字母的发音。
判定树的一个实例显示在图1中。该判定树由可以是内部节点I或叶L的节点组成。分支是节点的集合,这些节点从根R一起被链接到叶L。节点可以是父(parent)节点或子(child)节点。父节点是能够从中进一步遍历树的节点,换句话说,它具有子节点。树中的子节点是可以从父节点到达的节点。内部节点I可以是父节点和子节点,但叶只是子节点。判定树中的每个节点都存储信息。存储的信息根据判定树的上下文而变化。
在语音识别系统中,内部节点I通常具有有关被识别的词和该词的发音的信息。词的字母的发音在某些上下文中可以由音素(Pi)来指定。上下文例如指单词中在感兴趣的字母的右边和左边的字母。当在判定树中爬升(climb)时,上下文信息的类型能够由考虑其上下文的属性(ai)(也称作属性类型)来指定。可以借助于属性值来实现爬升,在假定给定字母的上下文信息时,该属性值定义搜索算法应当进行到其中的分支。
自根节点R开始爬升树结构。在每个节点上,应当检查属性类型(ai),并且应将相应信息用于确定当前字母的上下文。利用该信息,匹配上下文信息的分支可以向前移动到树中的下一个节点。爬树,直至找到叶节点L,或者在树中对于当前上下文没有匹配属性值。
在图2中示出了基于判定树文本-音素映射的一个简化实例.该图中的判定树用于字母‘a’,其中节点代表字母‘a’的音素.应当注意,该图示被简化并且不包含字母‘a’的所有音素.在根节点中,存在关于属性类型的信息,这是右边的第一字母并利用r1表示。对于两个其它的内部节点,属性类型是左边的由I1表示的第一字母和右边的由r2表示的第二字母。对于叶节点,没有属性类型被分配。
当搜索单词‘Ada’的发音时,可以利用该实例中呈现的判定树和用于字母‘d’的判定树生成用于该单词的音素序列。在该实例中,用于字母‘d’的树仅仅由根节点组成,并且分配给根节点的音素是音素/d/。
当生成音素序列时,从左到右每次一个字母处理该单词。第一字母是‘a’,因此首先考虑字母‘a’的判定树(参见图2)。属性r1被附加到根节点上。‘a’后面的下一个字母是‘d’,因此我们前进到对应于属性值‘d’的根节点之后的分支。该节点是被附加了属性r2的内部节点。右边的第二字母是‘a’,并且我们前进到相应分支,而且进一步前进到是叶的相应节点。对应于该叶的音素是/e1/。因此,序列中的第一音素是/e1/。
该实例单词中的下一个字母是‘d’。用于字母‘d’的判定树如上所述由根节点组成,其中最频繁的音素是/d/。因此,该序列中的第二音素是/d/。
该单词中最后的字母是‘a’,并且再次考虑字母‘a’的判定树(参见图2)。附加到根节点的属性是r1。对于该单词中的最后字母,字母‘a’右边的下一个字母是语义图ε’_’。沿着相应的分支爬树一直爬至是叶的节点。附加到叶节点上的音素是/V/,这是序列中的最后音素。
最后,用于单词‘Ada’的完整音素序列是/e1/ /d/ /V/。在对于字母表中的所有字母训练判定树之后,可以以类似方式生成用于任何单词的音素序列。
判定树训练是在包含单词及其发音的发音字典上完成的。判定树的强度在于利用信息理论原理从训练词典中学习紧映射(compactmapping)的能力。
如所述的,基于判定树的实施已经提供最精确的音素序列,但是缺点在于在将判定树方案用作文本-音素映射时大的存储器消耗。大的存储器消耗是由于链接列表判定树方案中使用的众多指针造成的。存储器的量尤其随着诸如英语或类似的其中发音不规则性频繁发生的语言而增加。
对于所述问题的现有技术解决方案可以被分类为有损耗的和无损耗的方法。当试图降低判定树的存储器需求时,大部分使用有损耗方法。这些方案例如是:组合判定树的属性值,优化判定树训练处理的停止准则,根据错误计数修剪判定树,和其它类似方法。
对于现有技术的低速存储器(low memory)判定树方法,当为了存储器而优化系统时,性能总是被降低。总是存在精度与存储器消耗之间的折衷。相反地,由于根据本发明的方案,几乎没有精度的任何恶化并且使存储器消耗最佳化。可以显著降低存储器需求而没有性能的恶化。
发明内容
为了实现这一目的,用于管理树形数据结构的方法包括用于创建由父节点和至少一个叶节点组成的判定树的步骤,并且也包括用于从所述节点中搜索数据的步骤。所述方法的特征在于判定树,其中通过以节点按照存储顺序跟随父节点的这样一种方式顺序地存储节点来创建该判定树,其中能够到达精选(refine)可搜索数据的上下文的节点而没有来自其父节点的链路。
对于用于管理树形数据结构的系统,其特征在于创建器,其适用于通过以节点按照存储顺序跟随父节点的这样一种方式顺序地存储节点来创建判定树,所述节点包括已根据编码方法编码的至少一个数据,该编码方法为所述数据提供最少比特,并且利用有关父节点或祖父节点的至少一个数据的信息,其中精选可搜索数据的上下文的节点是可达的而没有来自其父节点的链路。
根据本发明的设备包括用于在树形数据结构中存储数据的存储媒体和用于处理所述结构中数据的处理器,所述处理器包括判定树创建器和用于从所述节点中搜索数据的搜索器。该设备的特征在于:创建器适用于通过以节点按照存储顺序跟随父节点的这样一种方式顺序存储节点来创建判定树,其中没有来自其父节点的链路,精选可搜索数据的上下文的节点也是可达的。
所述树形数据结构由父节点和至少一个叶节点组成,所述节点包括可搜索数据,所述树形数据结构的特征在于节点,以这些节点按照存储顺序跟随父节点的这样一种方式来顺序地定位这些节点,其中没有来自其父节点的链路,精选可搜索数据的上下文的节点是可到达的。
根据本发明的计算机程序产品包括计算机存储媒体和写在计算机存储媒体上的计算机可读代码,用于利用所述存储媒体中存储的树形数据结构,所述树形数据结构包括父节点和至少一个叶节点。计算机可读代码包括用于从节点搜索数据的指令。计算机程序产品的特征在于:计算机可读代码具有用于以节点按照存储顺序跟随父节点的这样一种方式顺序地安排节点的指令,其中没有来自其父节点的链路,精选可搜索数据的上下文的节点是可达的。
本发明的第一部分描述了在训练判定树时使用的剪切对准(clipped alignment)方法。该方法能够根据语言知识制作高质量对准词典。如现有技术方法中那样,没有剪切方法,就不会充分使用语言知识。此外,由于当前发明,可以容易地找出错误项(音素-字母对)。因此,不规则性被减少,并且改善在对准字典上训练的判定树的存储器和精度。同样,如果外来词和姓名服从不同于英语的发音规则,本发明提供了可能性来除去这些外来词和姓名的项目。显然,不规则性也被降低。剪切对准方法在某种程度上还可以检测错误抄录(transcription),并且进一步丢弃它们。由于包含不可能映射对的项目被剪切掉,所以可以正确地利用具有小概率的可能的映射对。
本发明提供了如下的方法、系统和设备:
(一)、一种用于管理树形数据结构的方法,包括:
为发音建模应用创建判定树,以在电子设备的电子存储器中高效表示,所述判定树包含父节点和至少一个叶节点,所述创建判定树还包括:
将所述节点安排在所述判定树中以使所述节点包括已根据编码方法且利用有关父节点或祖父节点的至少一个数据的信息而编码的至少一个数据,其中所述编码方法采用固定比特的格式、可变比特的格式或者霍夫曼码的格式之一来存储节点的数据,以便减少表示所述数据的比特数量,
通过以节点在没有来自它们的父节点的链路的情况下按照存储次序跟随父节点的这样一种方式顺序地将节点存储在所述电子设备的所述电子存储器中,
对无效数据元素使用剪切对准方法来减小所述判定树。
(二)、一种用于管理树形数据结构的系统,所述系统包括:
判定树创建器,所述判定树创建器能够在存储媒体中执行并且被嵌入其中,用于为发音建模应用创建判定树,以在电子设备的电子存储器中高效表示,所述判定树包括父节点和至少一个叶节点,其中:
所述判定树创建器适于将所述节点安排在所述判定树中以使所述节点包括已根据编码方法且利用有关父节点或祖父节点的至少一个数据的信息编码的至少一个数据,其中所述编码方法采用可变、固定或霍夫曼编码的二进制数字格式之一来表示节点的数据,以便减少表示所述数据的比特数量,
所述判定树创建器适于通过以节点在没有来自它们的父节点的链路的情况下按照存储次序跟随父节点的这样一种方式顺序地将节点存储在所述电子设备的所述存储器中,并且
所述判定树创建器适于对无效数据元素使用剪切对准方法来减小所述判定树。
(三)、一种电子设备,包括
存储媒体,用于存储判定树创建器的程序;
处理器,用于执行所述判定树创建器的程序,所述判定树创建器程序用于为发音建模应用创建判定树,以在电子设备的存储器中高效表示,所述判定树包括父节点和至少一个叶节点,其中
所述判定树创建器适于将所述节点安排在所述判定树中以使所述节点包括已根据编码方法且利用有关父节点或祖父节点的至少一个数据的信息编码的至少一个数据,其中所述编码方法采用固定比特的格式、可变比特的格式或者霍夫曼码的格式之一来存储节点的数据,以便减少表示所述数据的比特数量,
所述判定树创建器适于通过以节点在没有来自它们的父节点的链路的情况下按照存储次序跟随父节点的这样一种方式顺序地将节点存储在所述电子设备的所述存储器中,并且
所述判定树创建器适于对无效数据元素使用剪切对准方法来减小所述判定树。
附图说明
在附图、随后的详细描述以及所附的权利要求中提出了本发明的优选实施例。在描述中还考虑了本发明的其它目的和优点。在权利要求中利用特殊性定义了发明本身。
图1显示具有属性和音素的节点和叶的示范性判定树;
图2显示在文本-音素映射中使用的字母‘a’的示范性判定树;
图3显示语义图隐藏式马尔可夫(Markov)模型的一个实例;
图4显示根据本发明方法的原理图;
图5显示链接列表方案的一个实例,其中节点包括指针表;
图6a-6d显示用于存储判定树的四种方法的实例;和
图7显示利用根据本发明方法的设备的非常原理的实例。
具体实施方式
根据本发明的方法与约束维特比(Viterbi)算法相结合对判定树应用无损耗编码.本发明对于其中一个字母可以对应于零个、一个或两个音素的语言诸如英语是有利的.
图4中展现了基于判定树的所建议的发音模型建立方案的高级描述。该方案基于利用剪切对准算法对准的发音字典。判定树的训练基于对准的发音字典,并且训练的结果是基于判定树的发音模型。在训练之后,把树转换成低速存储器格式,以最小化判定树的存储器需求。低速存储器判定树表示包括:把判定树的节点转换成合适的格式,并利用产生最低存储器消耗的压缩方案压缩判定树的变量。本发明提供用于执行剪切训练对准和用于把判定树转换成低速存储器格式的方法。发音字典包含单词及其发音。判定树通过利用信息理论原理能够从训练字典中学习紧映射。
为了阐明本发明,将本发明分成以下部分:
1.剪切对准方法
2.低速存储器判定树方法
3.用于判定树数据元素的比特分配。
根据本发明的剪切对准方法的第一部分被设计用于在部分2中进一步描述的低速存储器判定树的训练。在第三部分中表示用于压缩判定树的数据元素以实现最低存储器需求的方法。但是,首先,在训练判定树之前,对准项目或如说明书中所提到的发音字典中的表项目,以找到字母与音素之间的对应关系。通过把音素空(null)(称之为音素ε,用“_”标记)插入不发音的那些字母的音素序列和产生两个音素的那些字母的伪音素(pseudophoneme)中,能够获得对准。通过级联公知为对应于单个字母的两个音素(/eI/,/oU/,...)获得伪音素。
HMM-维特比算法适于用于对准。HMM-维特比算法的使用确保在统计意义上以最佳方式执行对准,并因此最小化字典项目的剩余熵(leftover entropy)。此外,使用HMM-维特比算法用于对准的优点是能够在统计意义上达到最佳对准。在表1给出了对准的发音字典的一个实例:
单词 对准的音素序列
aaron _Er2s@n
abraham eIbr2s@hm
accola A:_k oUls@
ackerman _k_s@rms@n
ada eIds@
ahmanson A:_ms@nss@n
aikman eI_kms@n
alabamas A:l A:b A:m s@z
表1:对准的发音字典的一个实例。
隐藏式马尔可夫模型(HMM)是公知的并且被广泛用于例如已经在语音识别中应用的统计方法中.该模型还能够被称为马尔可夫源或马尔可夫链的概率函数.HMM的基础假设是:信号可以被很好地表征为参量随机处理,并且可以以精确、明确定义的方式确定/估算随机处理的参数.可以根据分配给每个状态的可观测事件是离散(比如码字)的还是连续的,将HMM分类成离散模型或连续模型.利用任何一种方式,观测是概率的.该模型具有基础随机处理,该随机处理不是直接可观测的,而是仅仅通过另一组产生观测序列的随机处理才能够被看见.HMM由具有状态之间转换的隐藏状态组成.数学表示包括三项:状态之间的状态转换概率,每个状态的观测概率和初始状态分布.给定HMM和观测,则维特比算法用来通过跟随最佳路径给出观测状态对准.
为了对准发音字典,如果在用于字母1的允许音素的列表中能够找到音素f,则用零初始化用于给定的字母-音素对的惩罚(penalty)P(f,l),否则利用大的正值来初始化惩罚。给定初始惩罚值,则分两步对准字典。在第一步中,为字典中的每个项,生成所有可能的对准。随后根据所有对准的项,重新计算惩罚值。在第二步中,仅为每个项查找单个最佳对准。
对于每个项,在语义图HMM上可以利用维特比算法找到最佳对准。图3中显示了隐藏式马尔可夫模型的一个实例。语义图HMM具有表项目E、出口X和字母S1、S2、S3状态。可以映射到伪音素的字母通过具有持续时间状态D来处理的。图3中的状态S1-S3是对应于单词中发音字母的状态。状态S2对应于可以产生伪音素的字母,并且这就是状态S2为什么具有持续时间状态D的原因。允许从所有以前状态跳跃到当前状态,以支持音素ε。每个状态和持续时间状态持有权标和对应于累积计分的状态序列,其中权标包含相对于语义图HMM对准音素序列的累积惩罚。通过从头到尾每次一个音素地通过(go through)音素序列,使音素序列相对于字母对准。权标传递被执行,以查找字母与音素之间的维特比对准。最后,在HMM所有的状态上找到具有最低累积惩罚的权标。根据权标的状态序列,能够确定单词的字母和音素之间的对准。
对准的字典可以包含如下列出的项目:
a)外来姓名和词,如“Juan,Xiong等”被包含在英语发音字典中。最好在文本-音素映射中与除英语之外的相应语言一起使用那些姓名和单词。那些词使发音更不规则,并且不规则发音使判定树更大和更不精确。
b)错误抄录。由于打字错误和某些不可预见的原因在字典中具有某些错误抄录是不可避免的。这也使发音更加无规则和不精确。
c)错误对准,例如“apple-_”。利用基本语言知识,知道字母“p”从不映射到元音音素“V”。此外,这使得发音更不规则和不精确。
为了解决上述问题,建议根据本发明的利用维特比算法的剪切对准方法。借此,高质量对准发音将更加规则,从而导致根据本发明的基于判定树文本-音素模型的较低存储要求。
1.用于训练低速存储器判定树的剪切对准方法
根据本发明,基于上述的从对准的字典中估算的重新估算的惩罚P(f,l)完成对准。显然,所形成的对准产生非常粗的对准,所以惩罚P(f,l)决不是非常精确的。在语言上不可能的情况下,还将值分配给P(f,l)。例如,P(“V”,“p”)具有一个值,但这明显违反语言知识。为了避免这一情况并且为了克服上述困难(a-c),对维特比解码应用约束,被定义为剪切方法。
所建议的剪切对准算法需要为目标语言定义字母表和语音集。表2中的列表规定了字母可以在语言上对应的音素和伪音素(基于人类专家的语言知识)。下表2包括真实的语言相关信息。
字母对应(伪)音素
b b,_
c k,s,tS,S,_
... ...
l l,V,V_l,_
... ...
z z,s,tS,t,t_s,dZ,S,_
表2:用于字母表的音素和伪音素定义的一个实例。
表2可以利用不同的方式来实施,但是这些实施用于相同目的。
根据所有对准项,重新计算惩罚值。这样,对于每一项,仅找到单个最佳对准。如果在表2中能够找到音素f,则通常估算P(f,l),这意味着用于字母l的音素f在语言上是允许的。如果不能在表2中找到用于给定字母l的音素f,则应用约束将P(f,l)设置为最高值而不进行任何估算。
现在,在对准字典中仅允许在上述表中找到的字母-音素对用于训练基于判定树的文本-音素映射。
由于该方法,可以相当容易地考虑语言信息。因为对准中的剪切方法,将某些项剪切掉。通过检验剪切的项列表,容易发现或者调谐语言信息,例如定义新的伪音素,把丢失音素添加到字母相关音素集,等等。如果涉及更好的语言信息,可以改善对准并可以降低存储器使用。
2.判定树模型结构
通过最小化所有字母的判定树文本-音素模型的存储器需求,最小化用于给定语言的文本-语音模型的尺寸。因此,考虑单一判定树文本-音素模型的存储器需求的最小化。
最好不使用图1和图2中展示的判定树模型的直接链接列表实施。这是因为以下事实:在链接列表方案中,树的每个节点将包含指针表作为开销。为了除去该开销,最好以允许将树的节点用于文本-音素转换的这样的顺序把树的节点存储在存储器中。
该顺序必须是:当正在为字母精选正确的上下文时,下一匹配上下文也是在紧接的后一级上的上下文。换言之,尽管根据现有技术的链接列表树可以按任何顺序存储到存储器中,但是根据本发明的树却不能。现有技术链接列表树的结构自动注意校正参考:当搜索下一级节点时,算法通过使用节点中存储的链路(指针)找出信息。这些链路使用存储器,并且其目的仅仅是启动树的遍历。链接列表方案的一个实例可以在图5中看到,其中节点(10)包括指针表,从此到达对应于字母的子节点(11,12,13,14,15,16)。除非子节点是叶节点(诸如12,15),否则该子节点仍然包括指针表。
本发明基于这样一种认识:通过在存储器中以适当顺序存储树节点,可以从节点中省去链路或指针,从而节省存储器。这样的结构是例如图6a-6d所示的深度优先(depth-first)和宽度优先(breadth-first)存储方案或其某些组合。换言之,本发明在于以适合于文本-音素转换的特定顺序存储树内容,以便即使在树中没有链路,也可以适当搜索树。
在深度优先存储方案中,通过首先一直跟随树结构到最后的最左边叶来存储树的节点.然后,一直遍历右边的下一个分支直至最后的叶.图6a显示了图1的判定树结构的一个实例,其中节点和叶被转换成低速存储器深度优先格式.在深度优先存储格式中,最好仅存储每个节点一次.例如,仅存储根节点一次.显然,也可以两次或多次存储每个节点,如根节点(如图6a所示).
在宽度优先存储方案中,首先存储树的根R,然后到达第一层上的所有节点,再到达第二层上的所有节点,等等。图6b显示了图1的判定树结构的一个实例,其中节点和叶被转换成低速存储器宽度优先格式。
在混合存储方案中,可以混合深度优先和宽度优先方案。图6c和6d显示了利用较低节点层(M,N,O)继续的判定树1的混合存储方案的实例。例如,如图6c所示,宽度优先方案可以被用至层三(L),并从那点开始,使用深度优先方案。作为选择,如图6d所示,全宽度优先方案可以被用至层三(L),并且然后以宽度优先顺序单独存储层三(L)上每个节点的子树。这可以进行,以允许可能需要的节点的更快速存储器存取。
这些存储方案的主要目的是允许树的存储而在树结构中不使用链路或者指针。为了确保适当操作,存储方案必须使得在链路除去之后,以可以用来精选上下文的节点总是按照存储顺序跟随父节点的方式,顺序地在存储器中安排这些节点。
在上述方式中,逐个分支地存储树的节点。来自判定树的单个内部节点I包含具有以下信息的数据元素:
-属性值,比如字母
-区分内部节点I/叶L的一个比特
-属性类型ai
-对应于特定上下文的音素pi
单一叶L节点包含具有以下信息的数据元素:
-属性值,比如字母
-区分内部节点I/叶L的一个比特
-对应于特定上下文的音素pi
-指示这是否是父节点的最后一个叶的一个比特
利用所建议的方案,可以最小化判定树模型的存储器需求。为了后面的用途,定义判定树的数据元素为属性类型、属性值或音素。
3.用于表示判定树中数据元素的方法
本发明的这一部分描述用于表示判定树的数据元素以实现最小存储器需求的三种方法。所建议的方法是固定比特分配、用于判定树数据元素的可变比特分配以及判定树数据元素的霍夫曼(Huffman)编码。
用于判定树数据元素的固定比特分配
判定树的尺寸是所有内部节点和叶的尺寸之和。下面分析内部节点和叶的尺寸。这里所述的数量用于英语语言。
a)属性值的数量:
存在26个字母,少于64个音素以及少于16个音素类别。其中的最大值是64,因此把6个比特分配用于属性值。
b)属性类型的数量:
对于4的上下文长度,在当前字母左边和右边具有4个字母、在左边具有4个音素和在当前字母左边具有4个音素类别.这使得总数为16,并因此把4个比特分配用于属性类型.
c)音素的数量:
对于英语语言,数量在32和64之间,所以分配6个比特用于音素。
d)表示内部节点/叶的标志仅需要一个比特。
e)表示用于给定内部节点的叶的尾部的标志仅需要一个比特。
上述的比特分配被称作固定比特分配,因为比特数量是预定的和固定的。
内部节点和叶的尺寸可以如下确定:
对于内部节点,尺寸是项a)、b)、c)和d)之和:
Internal_node_size(内部节点尺寸)=6+4+6+1=17比特
对于叶,尺寸是项a)、b)、d)和e)之和:
Leave_size(叶尺寸)=6+6+1+1=14比特
用于判定树数据元素的可变比特分配
在基于判定树文本-音素映射中,每个树对应于一个字母。在本发明的部分1中,建议剪切方法。对于给定字母,在对准字典中仅允许表2中列出的相应音素。因此,对于每个树,利用表2限定音素的数量。例如,字母“a”具有7个可能的音素,其中需要3个比特分配用于音素,而不是如上面(c)所述把6个比特分配用于所有音素。这是因为只有7个音素用于字母“a”,所有其他的在对准期间被剪切掉。现在,对于内部节点和叶,比特数量都减少3。当然,分配给音素的比特数量对于不同的叶将是不同的。
在剪切方法中,每个字母1仅仅可以映射到字母相关音素集。
l→p,其中p∈{p1,p2,...,pn}.
可以根据字母相关音素集,而不是根据整个语言相关音素集,对音素编码。该方法被称作可变比特分配,因为分配给音素的比特数量可以随字母和树而变化。例如,利用固定比特分配的方法,把“a”映射到整个集(40个音素),当利用可变比特分配的方法时,能够把字母“a”映射到字母相关音素集(英语中的8个音素)。这样,利用固定比特分配,需要[log2(40)]=6比特;而利用可变比特分配,需要[log2(8)]=3比特。
把字母相关比特分配用于其它数据元素比如属性类型和属性值是可能的。为此,对于给定字母,需要发现所有可能的属性类型和属性值的集合。一旦获知这些集合,就可以计算属性类型和属性值所需的比特数量。
为了把可变比特分配用于判定树数据元素,为每个字母找到允许的音素、属性类型和属性值的集合。一旦获知这些集合,就把它们存储在表中。如果用于数据元素的表的尺寸是n,则利用可变比特分配存储数据元素所需的比特数量是[log2(n)]比特。该表需要被存储在引入开销的存储器中。因此,只在由于可变比特分配而导致的节省(Saved_var_bits)大于存储表的开销(Overhead_var_bits)时,才使用可变比特分配。
节省比特的数量按以下方式计算:
Saved_var_bits=
(Num_bits_fixed-Num_bits_variable)Count_occurrence
Num_bits_fixed对应于利用固定比特分配分配给数据元素的比特数量。Num_bits_variable对应于利用可变比特分配分配给数据元素的比特数量。Count_occurrence是数据元素出现在判定树中的总次数。
存储用于数据元素的表的开销按以下方式计算:
Overhead_var_bits=(Size_table+1)Bits_in_byte
Size_table对应于表中元素的数量,以及Bits_in_byte为8。
对于每个数据元素(属性类型,属性值和音素)检查Saved_var_bits与Overhead_var_bits之间的比较,并且如果Saved_var_bits大于Overhead_var_bits,则使用可变比特分配:
if Saved_var_bits>Overhead_var_bits
判定树数据元素的霍夫曼编码
为了把二进制代码分配用于判定树数据元素,可以使用霍夫曼码。如果判定树数据元素的分布具有大变化,则霍夫曼码的使用可以节省存储器。霍夫曼编码的基本思想是把短码字分配给具有高概率的数据元素,并把长码字分配给具有低概率的数据元素。霍夫曼码是最佳的和无损耗的。该码是可变长度码,其中利用对应于特定数据元素的码字的长度给出用于编码数据元素的比特数量。必须单独地为每个判定树变量导出霍夫曼码。
下表3显示了用于英语的字母“a”树的音素的霍夫曼编码的一个实例。音素的压缩比是1.2554。表中的“FLC”代表固定长度码。
概率 0.2238 0.277 0.0019 0.0250 0.1211 0.0075 0.2650 0.0780
FLC 000 001 010 011 100 101 110 111
霍夫曼码 10 01 110000 11001 111 110001 00 1101
表3:判定树中用于美国英语字母“a”的音素的编码
为了将霍夫曼编码用于判定树数据元素,霍夫曼码字、用于每个码字的比特数量和相应的字母表需要被存储在引入开销的存储器中。为每个数据元素,单独进行是否使用霍夫曼编码的判定。对于给定的数据元素,只在霍夫曼编码带来的节省(Saved_huff_bits)大于开销(Overhead_huff_bits)时,才可以使用霍夫曼编码。
霍夫曼编码带来的节省比特的数量可以根据下式计算:
Saved_huff_bits=
∑i(Num_bits_fixed-Num_bits_CWi)Count_CWi
Num_bits_fixed是利用固定比特分配分配给数据元素的比特数量。Num_bits_CWi对应于分配给出现在霍夫曼编码树中的第i码字的比特数量。
存储霍夫曼码的开销能够根据下式计算:
Overhead_huff_bits=(3Num_huff_CW+1)Bits_per_byte
Num_huff_CW是用于数据元素的霍夫曼码字的数量,而Bits_per_byte是8。假定霍夫曼码字、指示霍夫曼码字中比特数量的变量和字母表的成员存储在单个字节变量中。
对于每个数据元素(属性类型,属性值和音素)检查Saved_huff_bits与Overhead_huff_bits之间的比较,并且如果满足确定的条件为ifSaved_huff_bits>Overhead_huff_bits,则对于数据元素应用霍夫曼编码。
存储判定树数据元素所需的存储器的最小化
如同在部分2的开头所解释的那样,存储树的基本结构是固定的,但是能够以各种方式表示树中的数据元素.比特分配可以是固定的,或者可以是可变的,或者可以使用霍夫曼编码.为判定树中的每个数据元素(属性类型,属性值和音素)进行这些编码方法之间的判定.由于对于每个字母具有基于判定树的文本-音素模型,因此可以为每个字母重复选择.
在可替代实施例中,利用使用所谓的截短霍夫曼编码的可能性来辅助是使用固定长度编码还是霍夫曼编码的判定。在该编码方法中,具有非常低概率的数据元素的某些值被组合在一起,并且把公用霍夫曼前缀码分配给该组。然后利用固定长度码对该组值中数据元素的实际值进行编码。例如,8个非常不大可能的值的组可以用具有假定7比特、其后跟随3比特的固定长度码的霍夫曼码进行编码。
对于给定树中的给定数据元素,进行是使用固定比特分配、可变比特分配还是霍夫曼编码的选择,以便最小化用于低速存储器判定树模型的存储器需求。因此,判定基于以下逻辑:
a)初始化:假设固定比特分配用于数据元素;
b)如果Saved_var_bits>Overhead_var_bits,则使用可变比特分配用于数据元素;
c)如果由于霍夫曼编码带来的节省大于可变比特分配带来的节省并大于霍夫曼码引入的开销,则将霍夫曼编码用于数据元素:
Saved_huff_bits-Overhead_huff_bits>Saved_var_bits-Overhead_var_bits和
Saved_huff_bits>Overhead_huff_bits
本发明利用该最小化方案来自动确定用于所有判定树中的每个判定树数据元素的最小比特分配。
实验:
通过在从CUM(Carnegie Mellon University卡内基梅隆大学)字典中提取的美国Census(人口普查)姓名列表的发音上训练判定树对本发明进行实验。发音的总数是40,529。基本实施利用与判定树数据元素的固定比特分配的原始对准。如下表4所示,判定树模型尺寸被明显减小(36%),并且在音素精度和串速率(string rate)方面,文本-音素性能没有任何恶化。这验证本发明的有用性。
| 方法 | 存储器(kB) | 音素精度 | 串速率 |
| 现有技术 | 132.5 | 99.27% | 97.12% |
| 本发明 | 84.9 | 99.27% | 97.17% |
表4:现有技术方案与本发明方案之间的判定树比较
在本发明中已经介绍了不同的创新技术:对准中的剪切方法、判定树结构、用于判定树数据元素的固定比特分配、用于判定树数据元素的可变比特分配和用于判定树数据元素的霍夫曼编码比特。显然,所有的技术可以被单独地利用或者以不同方式进行组合,这就是为什么本发明的描述不应被考虑为本发明的限制的原因。
文本-音素系统可以被实施为电子设备中语音识别系统的一部分,例如被实施为数字信号处理单元.电子设备可以包括其它功能,比如蜂窝电话T(图7)中用于电信的装置.该设备最好包括扬声器H、麦克风M.文本-音素系统还有可能在与电子设备一起使用的并发设备内实现.如果把蜂窝电话考虑为电子设备,则并发设备可以是例如耳机或者视频护目镜.
文本-音素系统可以另外在普遍存在的环境中使用,其中该系统可以被实施在住房的各个房间中、各种家用电器(例如,电视,洗衣机)中、家具中或者耐磨附件(例如衣服)中。
显然,上述实施例不应解释为本发明的限制,并且这些实施例可以在以下权利要求中所提出的发明特征的范围内变化。
Claims (26)
1.一种用于管理树形数据结构的方法,包括:
为发音建模应用创建判定树,以在电子设备的电子存储器中高效表示,所述判定树包含父节点和至少一个叶节点,所述创建判定树还包括:
采用固定比特格式、可变比特格式或者霍夫曼码格式之一的编码方法,对所述节点中的数据进行编码并存储编码后的数据,以便减少表示所述数据的比特数量,
通过以节点在没有来自它们的父节点的链路的情况下按照存储次序跟随父节点的这样一种方式顺序地将节点存储在所述电子设备的所述电子存储器中,
对无效数据元素使用剪切对准方法来减小所述判定树。
2.根据权利要求1所述的方法,其中,通过以下方案之一存储判定树的节点:深度优先方案、宽度优先方案或者所述方案的组合。
3.根据权利要求1所述的方法,其中,在存储之前,利用对准的数据元素集训练判定树,所述对准的数据元素被用取决于所述对准的数据元素的有效性的惩罚来初始化,其中通过对无效数据元素添加约束来进一步重新初始化所述惩罚。
4.根据权利要求1-3中任何一项所述的方法,其中,创建判定树的方法用于文本-音素映射,其中所述数据包括选自字母和音素的元素,其中为一个字母创建判定树,并且节点包括所述字母的音素。
5.根据权利要求4所述的方法,其中,节点还包括有关所述字母的周围字母的信息。
6.根据权利要求4所述的方法,其中,检查音素的有效性,检查它是否是一个允许的音素,如果是,则以零来初始化惩罚;如果否,则以大的正值来初始化所述惩罚。
7.根据权利要求6所述的方法,其中,进一步检查音素的有效性,检查它是否在语言上被允许,如果是,则以零来重新初始化所述惩罚;如果否,则以大的正值来重新初始化所述惩罚。
8.根据权利要求7所述的方法,其中,如果由于可变比特格式而带来的节省大于存储由数据元素组成的表的开销,则以可变比特格式表示这些数据元素;否则如果由于霍夫曼编码而带来的节省大于由于可变比特格式带来的节省并大于由于霍夫曼码引入的开销,则对数据元素进行霍夫曼编码。
9.根据权利要求8所述的方法,其中通过把利用固定比特格式分配给元素的比特数量和利用可变比特格式分配给元素的比特数量之差与所述元素出现在判定树中的总次数相乘,以确定由于可变比特格式而带来的节省。
10.根据权利要求8所述的方法,其中通过把利用固定比特格式分配给元素的比特数量和分配给码字的比特数量之差与所述码字出现在霍夫曼编码树中的次数相乘,以计算由于霍夫曼编码而带来的节省。
11.根据权利要求8-10中任一项所述的方法,其中通过把利用固定比特格式分配给元素的比特数量和利用可变比特格式分配给所述元素的比特数量之差与所述元素出现在所述判定树中的次数相乘,以确定存储格式。
12.根据权利要求7所述的方法,其中为每个元素单独地选择存储格式。
13.一种用于管理树形数据结构的系统,所述系统包括:
判定树创建器,所述判定树创建器能够在存储媒体中执行并且被嵌入其中,用于为发音建模应用创建判定树,以在电子设备的电子存储器中高效表示,所述判定树包括父节点和至少一个叶节点,其中:
所述判定树创建器配置成根据编码方法对所述节点中的数据进行编码,其中编码方法采用可变比特格式、固定比特格式或霍夫曼码格式之一来表示节点的数据,以便减少表示所述数据的比特数量,
所述判定树创建器通过以节点在没有来自它们的父节点的链路的情况下按照存储次序跟随父节点的这样一种方式顺序地将节点存储在所述电子设备的所述存储器中,并且
所述判定树创建器对无效数据元素使用剪切对准方法来减小所述判定树。
14.根据权利要求13所述的系统,其中,存储次序采用以下方案之一:深度优先方案、宽度优先方案或者所述方案的组合。
15.根据权利要求13所述的系统,其中,所述系统还包括用于利用对准的数据元素集训练判定树的装置,所述装置能够用取决于所述对准的数据元素的有效性的惩罚来初始化所述对准的数据元素并且通过对无效的数据元素添加约束来重新初始化所述惩罚。
16.根据权利要求15所述的系统,其中,所述用于管理树形数据结构的系统应用文本-音素映射,其中所述数据包括选自字母和音素的元素,其中判定树对应于一个字母,并且所述节点包括所述字母的音素。
17.根据权利要求16所述的系统,其中,节点还包括有关所述字母的周围字母的信息。
18.根据权利要求16所述的系统,其中,所述用于管理树形数据结构的系统检查音素的有效性,检查它是否是一个允许的音素,其中如果它是一个允许的音素,则所述系统以零来初始化所述惩罚;否则如果它是一个允许的音素,则所述系统以大的正值来初始化所述惩罚。
19.根据权利要求18所述的系统,其中,所述用于管理树形数据结构的系统还检查音素的有效性,检查它是否在语言上被允许,其中如果它是一个语言上被允许的音素,则所述系统以零来初始化所述惩罚;否则如果它不是一个语言上被允许的音素,则所述系统以大的正值来初始化所述惩罚。
20.根据权利要求19所述的系统,其中,所述用于管理树形数据结构的系统通过一起比较所述格式来检查所述格式中的哪个格式比其它的格式带来更大的节省,其中所述系统使用该比其它的格式带来更大的节省的格式。
21.根据权利要求13所述的系统,其中,所述系统是语音识别系统。
22.一种用于创建判定树的设备,所述判定树包含父节点和至少一个叶节点,所述设备包括:
用于采用固定比特格式、可变比特格式或者霍夫曼码格式之一的编码方法,对所述节点中的数据进行编码并存储编码后的数据,以便减少表示所述数据的比特数量的装置;
用于通过以节点在没有来自它们的父节点的链路的情况下按照存储次序跟随父节点的这样一种方式顺序地将节点存储在所述设备的存储器中的装置;以及
用于对无效数据元素使用剪切对准方法来减小所述判定树的装置。
23.根据权利要求22所述的设备,其中,存储次序采用以下方案之一:深度优先方案、宽度优先方案或者所述方案的组合。
24.根据权利要求22所述的设备,其中,所述设备应用文本-音素映射,其中所述数据包括选自字母和音素的元素,其中判定树用于一个字母,并且节点包括所述字母的音素。
25.根据权利要求22所述的设备,其中,所述设备还包括语言识别系统。
26.根据权利要求22所述的设备,其中,所述设备还包括用于电信的装置。
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| FI20035055 | 2003-04-30 | ||
| FI20035055A FI118062B (fi) | 2003-04-30 | 2003-04-30 | Pienimuistinen päätöspuu |
| PCT/FI2004/050044 WO2004097673A1 (en) | 2003-04-30 | 2004-04-22 | Low memory decision tree |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| CN1781102A CN1781102A (zh) | 2006-05-31 |
| CN1781102B true CN1781102B (zh) | 2010-05-05 |
Family
ID=8566389
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN2004800115762A Expired - Fee Related CN1781102B (zh) | 2003-04-30 | 2004-04-22 | 低速存储器判定树 |
Country Status (8)
| Country | Link |
|---|---|
| US (1) | US7574411B2 (zh) |
| EP (1) | EP1618498B1 (zh) |
| KR (2) | KR100883577B1 (zh) |
| CN (1) | CN1781102B (zh) |
| AT (1) | ATE442642T1 (zh) |
| DE (1) | DE602004023072D1 (zh) |
| FI (1) | FI118062B (zh) |
| WO (1) | WO2004097673A1 (zh) |
Families Citing this family (31)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US7421453B2 (en) * | 2005-08-16 | 2008-09-02 | International Business Machines Corporation | Asynchronous linked data structure traversal |
| KR100748720B1 (ko) | 2006-02-09 | 2007-08-13 | 삼성전자주식회사 | 다중 계층 중심 어휘 목록에 기초하여 대규모 단어 음성인식 방법 및 그 장치 |
| JP4379894B2 (ja) * | 2006-11-28 | 2009-12-09 | 株式会社エスグランツ | カップルドノードツリーの分割/結合方法及びプログラム |
| DE102007015535A1 (de) * | 2007-03-30 | 2008-10-02 | Siemens Ag | Verfahren zur digitalen Speicherung von Daten auf einem Datenspeicher mit beschränktem verfügbarem Speicherplatz |
| US8266090B2 (en) * | 2007-08-31 | 2012-09-11 | Fair Isaac Corporation | Color-coded visual comparison of decision logic |
| US8200609B2 (en) * | 2007-08-31 | 2012-06-12 | Fair Isaac Corporation | Construction of decision logic with graphs |
| US8280836B2 (en) * | 2008-09-08 | 2012-10-02 | Fair Isaac Corporation | Converting unordered graphs to oblivious read once ordered graph representation |
| US8730241B2 (en) * | 2008-09-08 | 2014-05-20 | Fair Isaac Corporation | Techniques for drawing curved edges in graphs |
| JP2010152081A (ja) * | 2008-12-25 | 2010-07-08 | Toshiba Corp | 話者適応装置及びそのプログラム |
| GB2473197A (en) | 2009-09-02 | 2011-03-09 | Nds Ltd | Advert selection using a decision tree |
| JP5032602B2 (ja) * | 2010-01-21 | 2012-09-26 | 株式会社東芝 | 認識装置 |
| US8543517B2 (en) | 2010-06-09 | 2013-09-24 | Microsoft Corporation | Distributed decision tree training |
| CN101950307B (zh) * | 2010-09-26 | 2012-10-10 | 南威软件股份有限公司 | 一种面向用户资源的自定义方法 |
| US9171264B2 (en) | 2010-12-15 | 2015-10-27 | Microsoft Technology Licensing, Llc | Parallel processing machine learning decision tree training |
| US8488888B2 (en) | 2010-12-28 | 2013-07-16 | Microsoft Corporation | Classification of posture states |
| US8984246B2 (en) * | 2011-04-04 | 2015-03-17 | Texas Instruments Incorporated | Method, system and computer program product for reading a decision tree |
| US10671841B2 (en) | 2011-05-02 | 2020-06-02 | Microsoft Technology Licensing, Llc | Attribute state classification |
| US9280575B2 (en) * | 2012-07-20 | 2016-03-08 | Sap Se | Indexing hierarchical data |
| US9336192B1 (en) * | 2012-11-28 | 2016-05-10 | Lexalytics, Inc. | Methods for analyzing text |
| CN103854643B (zh) * | 2012-11-29 | 2017-03-01 | 株式会社东芝 | 用于合成语音的方法和装置 |
| US9305036B2 (en) | 2014-03-27 | 2016-04-05 | International Business Machines Corporation | Data set management using transient data structures |
| US10108608B2 (en) * | 2014-06-12 | 2018-10-23 | Microsoft Technology Licensing, Llc | Dialog state tracking using web-style ranking and multiple language understanding engines |
| US10339465B2 (en) * | 2014-06-30 | 2019-07-02 | Amazon Technologies, Inc. | Optimized decision tree based models |
| US20160063099A1 (en) * | 2014-08-29 | 2016-03-03 | Lexmark International Technology, SA | Range Map and Searching for Document Classification |
| US9619165B1 (en) * | 2015-10-30 | 2017-04-11 | Sandisk Technologies Llc | Convertible leaf memory mapping |
| CN110555205B (zh) * | 2018-05-31 | 2024-04-19 | 北京京东尚科信息技术有限公司 | 否定语义识别方法及装置、电子设备、存储介质 |
| US10997083B2 (en) * | 2018-09-04 | 2021-05-04 | Arm Limited | Parallel page table entry access when performing address translations |
| KR102881281B1 (ko) | 2019-09-18 | 2025-11-05 | 삼성전자주식회사 | 시퀀스 처리 방법 및 장치 |
| US12462201B2 (en) | 2022-04-12 | 2025-11-04 | International Business Machines Corporation | Dynamically optimizing decision tree inferences |
| US20240177725A1 (en) * | 2022-11-28 | 2024-05-30 | Product Development Associates, Inc. | Low data rate language communication |
| CN118471194B (zh) * | 2024-06-05 | 2025-06-13 | 摩尔线程智能科技(北京)股份有限公司 | 语音合成方法、装置、设备、存储介质及计算机程序产品 |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP0586086B1 (en) * | 1992-08-07 | 1999-06-23 | AT&T Corp. | Storing trees in navigable form |
| CN1233803A (zh) * | 1998-04-29 | 1999-11-03 | 松下电器产业株式会社 | 利用判定树生成拼写单词的发音和对其评分的方法和设备 |
| US6163769A (en) * | 1997-10-02 | 2000-12-19 | Microsoft Corporation | Text-to-speech using clustered context-dependent phoneme-based units |
| US6411957B1 (en) * | 1999-06-30 | 2002-06-25 | Arm Limited | System and method of organizing nodes within a tree structure |
Family Cites Families (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US4571679A (en) * | 1983-09-06 | 1986-02-18 | The United States Of America As Represented By The Secretary Of The Navy | Fault tree data array |
| US5033087A (en) | 1989-03-14 | 1991-07-16 | International Business Machines Corp. | Method and apparatus for the automatic determination of phonological rules as for a continuous speech recognition system |
| GB2277387A (en) | 1993-04-21 | 1994-10-26 | Ibm | Natural language processing system |
| US5619615A (en) * | 1994-07-22 | 1997-04-08 | Bay Networks, Inc. | Method and apparatus for identifying an agent running on a device in a computer network |
-
2003
- 2003-04-30 FI FI20035055A patent/FI118062B/fi not_active IP Right Cessation
-
2004
- 2004-04-22 WO PCT/FI2004/050044 patent/WO2004097673A1/en not_active Ceased
- 2004-04-22 AT AT04728830T patent/ATE442642T1/de not_active IP Right Cessation
- 2004-04-22 DE DE602004023072T patent/DE602004023072D1/de not_active Expired - Lifetime
- 2004-04-22 KR KR1020077019768A patent/KR100883577B1/ko not_active Expired - Fee Related
- 2004-04-22 CN CN2004800115762A patent/CN1781102B/zh not_active Expired - Fee Related
- 2004-04-22 KR KR1020057020316A patent/KR20060016758A/ko not_active Ceased
- 2004-04-22 EP EP04728830A patent/EP1618498B1/en not_active Expired - Lifetime
- 2004-04-29 US US10/835,597 patent/US7574411B2/en not_active Expired - Fee Related
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP0586086B1 (en) * | 1992-08-07 | 1999-06-23 | AT&T Corp. | Storing trees in navigable form |
| US6163769A (en) * | 1997-10-02 | 2000-12-19 | Microsoft Corporation | Text-to-speech using clustered context-dependent phoneme-based units |
| CN1233803A (zh) * | 1998-04-29 | 1999-11-03 | 松下电器产业株式会社 | 利用判定树生成拼写单词的发音和对其评分的方法和设备 |
| US6411957B1 (en) * | 1999-06-30 | 2002-06-25 | Arm Limited | System and method of organizing nodes within a tree structure |
Also Published As
| Publication number | Publication date |
|---|---|
| KR100883577B1 (ko) | 2009-02-13 |
| US20040267785A1 (en) | 2004-12-30 |
| CN1781102A (zh) | 2006-05-31 |
| WO2004097673A1 (en) | 2004-11-11 |
| US7574411B2 (en) | 2009-08-11 |
| EP1618498B1 (en) | 2009-09-09 |
| KR20070094984A (ko) | 2007-09-27 |
| FI118062B (fi) | 2007-06-15 |
| KR20060016758A (ko) | 2006-02-22 |
| FI20035055L (fi) | 2004-10-31 |
| EP1618498A1 (en) | 2006-01-25 |
| DE602004023072D1 (de) | 2009-10-22 |
| FI20035055A0 (fi) | 2003-04-30 |
| ATE442642T1 (de) | 2009-09-15 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN1781102B (zh) | 低速存储器判定树 | |
| Hirsimäki et al. | Unlimited vocabulary speech recognition with morph language models applied to Finnish | |
| EP1575030B1 (en) | New-word pronunciation learning using a pronunciation graph | |
| US6928404B1 (en) | System and methods for acoustic and language modeling for automatic speech recognition with large vocabularies | |
| US7181388B2 (en) | Method for compressing dictionary data | |
| US7421387B2 (en) | Dynamic N-best algorithm to reduce recognition errors | |
| US7035789B2 (en) | Supervised automatic text generation based on word classes for language modeling | |
| US6973427B2 (en) | Method for adding phonetic descriptions to a speech recognition lexicon | |
| CN101785050B (zh) | 语音识别用对照规则学习系统以及语音识别用对照规则学习方法 | |
| US20020095289A1 (en) | Method and apparatus for identifying prosodic word boundaries | |
| CN105404621B (zh) | 一种用于盲人读取汉字的方法及系统 | |
| JPH10116092A (ja) | 発音プレフィックスツリーのエンコード方法及びシステム | |
| US20030088416A1 (en) | HMM-based text-to-phoneme parser and method for training same | |
| US20050187767A1 (en) | Dynamic N-best algorithm to reduce speech recognition errors | |
| US20030105633A1 (en) | Speech recognition with a complementary language model for typical mistakes in spoken dialogue | |
| Suontausta et al. | Low memory decision tree method for text-to-phoneme mapping | |
| Tsai et al. | Pronunciation variation analysis with respect to various linguistic levels and contextual conditions for Mandarin Chinese. | |
| Kim et al. | Decision‐Tree‐Based Markov Model for Phrase Break Prediction | |
| Hori et al. | Construction and evaluation of language models based on stochastic context‐free grammar for speech recognition | |
| CN115985297A (zh) | 语音识别方法、装置、电子设备及存储介质 | |
| Chelba | Statistical language modeling | |
| Okawa et al. | Phrase recognition in conversational speech using prosodic and phonemic information | |
| Tian | Efficient compression method for pronunciation dictionaries | |
| Pigliapoco et al. | Inferring Hierarchical Pronunciation Rules from a Phonetic Dictionary | |
| KR20000020635A (ko) | 메모리 저감을 위한 단어 인식기 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| C06 | Publication | ||
| PB01 | Publication | ||
| C10 | Entry into substantive examination | ||
| SE01 | Entry into force of request for substantive examination | ||
| C14 | Grant of patent or utility model | ||
| GR01 | Patent grant | ||
| C41 | Transfer of patent application or patent right or utility model | ||
| TR01 | Transfer of patent right |
Effective date of registration: 20160119 Address after: Espoo, Finland Patentee after: Technology Co., Ltd. of Nokia Address before: Espoo, Finland Patentee before: Nokia Oyj |
|
| CF01 | Termination of patent right due to non-payment of annual fee | ||
| CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20100505 Termination date: 20170422 |