要解决的问题:通过抑制作为学习结果的n-gram语言模型的数据量,提供有效访问语言模型的技术。
解决方案:语言模型压缩设备1将n-gram语言模型存储在语言模型存储部分5中。数据结构转换部分3转换用于指示在其中的(n + 1)-gram的第一位置的指针。将存储在语言模型存储部分5中的n-gram语言模型的数据排列成固定字节表达,并将其存储在转换数据存储部分6中。指针表达的压缩部分4通过提供一个在存储在转换数据存储部分6中的n-gram语言模型的树形结构中的虚拟路由节点中,指针被压缩并转换为等级顺序一元度序列(LOUDS)表达式。压缩和转换后的数据存储在压缩数据存储部分7中。计算机的存储设备(RAM)主要用于存储部分7。
COPYRIGHT:(C)2011,JPO&INPIT
公开/公告号JP5349193B2
专利类型
公开/公告日2013-11-20
原文格式PDF
申请/专利权人 日本電信電話株式会社;
申请/专利号JP20090179625
申请日2009-07-31
分类号G06F17/27;G10L15/187;G10L15/197;
国家 JP
入库时间 2022-08-21 16:11:25