ImageVerifierCode 换一换
格式:DOCX , 页数:7 ,大小:21.16KB ,
资源ID:3807985      下载积分:3 金币
快捷下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

加入VIP,免费下载
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.bdocx.com/down/3807985.html】到电脑端继续下载(重复下载不扣费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  

下载须知

1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
2: 试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。
3: 文件的所有权益归上传用户所有。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

本文(分词技术研究报告.docx)为本站会员(b****3)主动上传,冰豆网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知冰豆网(发送邮件至service@bdocx.com或直接QQ联系客服),我们立即给予删除!

分词技术研究报告.docx

1、分词技术研究报告分词技术研究报告 (1)2008-9-13 7:28:22技术报告 报告人:杨超一、 研究内容 目前,国内的每个行业、领域都在飞速发展,这中间产生了大量的中文 信息资源,为了能够及时准确的获取最新的信息, 中文搜索引擎是必然 的产物。中文搜索引擎与西文搜索引擎在实现的机制和原理上大致雷同, 但由于汉语本身的特点, 必须引入对于中文语言的处理技术, 而汉语自 动分词技术就是其中很关键的部分。 汉语自动分词到底对搜索引擎有多 大影响?对于搜索引擎来说, 最重要的并不是找到所有结果, 最重要的 是把最相关的结果排在最前面,这也称为相关度排序。 中文分词的准确 与否,常常直接影响到对搜

2、索结果的相关度排序。 分词准确性对搜索引 擎来说十分重要,但如果分词速度太慢,即使准确性再高,对于搜索引 擎来说也是不可用的,因为搜索引擎需要处理数以亿计的网页,如果分 词耗用的时间过长, 会严重影响搜索引擎内容更新的速度。 因此对于搜 索引擎来说,分词的准确性和速度,二者都需要达到很高的要求。 研究汉语自动分词算法,对中文搜索引擎的发展具有至关重要的意义。 快速准确的汉语自动分词是高效中文搜索引擎的必要前提。 本课题研究 中文搜索引擎中汉语自动分词系统的设计与实现, 从目前中文搜索引擎 的发展现状出发, 引出中文搜索引擎的关键技术 汉语自动分词系统的设计。首先研究和比较了几种典型的汉语自动分

3、词词典机制,指出各 词典机制的优缺点,然后分析和比较了几种主要的汉语自动分词方法, 阐述了各种分词方法的技术特点。 针对课题的具体应用领域, 提出改进 词典的数据结构, 根据汉语中二字词较多的特点, 通过快速判断二字词 来优化速度; 分析中文搜索引擎下歧义处理和未登陆词处理的技术,提 出了适合本课题的自动分词算法, 并给出该系统的具体实现。 最后对系 统从分词速度和分词准确性方面进行了性能评价。 本课题的研究将促进 中文搜索引擎和汉语自动分词新的发展。二、汉语自动分词系统的研究现状1、几个早期的自动分词系统自 80 年代初中文信息处理领域提出了自动分词以来,一些实用性 的分词系统逐步得以开发,

4、 其中几个比较有代表性的自动分词系统在当 时产生了较大的影响。CDWS 分词系统是我国第一个实用的自动分词系统,由北京航空 航天大学计算机系于1983年设计实现, 它采用的自动分词方法为最 大匹配法,辅助以词尾字构词纠错技术。其分词速度为 5-10 字/秒,切分精度约为 1/625。ABWS 是山西大学计算机系研制的自动分词系统,系统使用 “两 次扫描联想 -回溯”方法,运用了较多的词法、句法等知识。其切分正确 率为 98.6%(不包括非常用、未登录的专用名词 ),运行速度为 48 词/分 钟。CASS 是北京航空航天大学于 1988年实现的分词系统。它使用 正向增字最大匹配, 运用知识库来处

5、理歧义字段。 其机械分词速度为 200 字/秒以上,知识库分词速度 150 字/秒(没有完全实现)。书面汉语自动分词专家系统是由北京师范大学现代教育研究所于1991 前后研制实现的,它首次将专家系统方法完整地引入到分词技术中。2、清华大学 SEG 分词系统此系统提供了带回溯的正向、反向、双向最大匹配法和全切分 -评价切分算法, 由用户来选择合适的切分算法。 其特点则是带修剪的全切 分 -评价算法。经过封闭试验,在多遍切分之后,全切分 -评价算法的精 度可以达到 99%左右。3、清华大学 SEGTAG 系统此系统着眼于将各种各类的信息进行综合, 以便最大限度地利用这 些信息提高切分精度。系统使用

6、有向图来集成各种各样的信息。通过实 验,该系统的切分精度基本上可达到 99%左右,能够处理未登录词比较 密集的文本 ,切分速度约为 30 字 /秒。4、国家语委文字所应用句法分析技术的汉语自动分词此分词模型考虑了句法分析在自动分词系统中的作用 ,以更好地解决切分歧义。切词过程考虑到了所有的切分可能,并运用 汉语句法等信息从各种切分可能中选择出合理的切分结果。5、复旦分词系统此系统由四个模块构成。 一、预处理模块, 利用特殊的标记将输入 的文本分割成较短的汉字串,这些标记包括标点符号、数字、字母等非 汉字符,还包括文本中常见的一些字体、字号等排版信息。二、歧义识 别模块, 使用正向最小匹配和逆向

7、最大匹配对文本进行双向扫描, 如果 两种扫描结果相同,则认为切分正确,否则就判别其为歧义字段,需要 进行歧义处理;三、歧义字段处理模块,此模块使用构词规则和词频统计信息来进行排歧。最后,此系统还包括一个未登录词识别模块,实验 过程中,对中文姓氏的自动辨别达到了 70%的准确率。 系统对文本中的 地名和领域专有词汇也进行了一定的识别。6、哈工大统计分词系统此系统能够利用上下文识别大部分生词, 解决一部分切分歧义。 经 测试,此系统的分词错误率为 1.5%,速度为 236 字/秒。7、杭州大学改进的 MM 分词系统系统的词典采用一级首字索引结构, 词条中包括了 “非连续词 ”(形 如C1* Cn

8、)。系统精度的实验结果为 95%,低于理论值99.73%,但 高于通常的 MM 、RMM 、DMM 方法。8、 Microsoft Research 汉语句法分析器中的自动分词微软研究院的自然语言研究所在从 90 年代初开始开发了一个通用 型的多国语言处理平台 NLPWin ,据报道, NLPWin 的语法分析部分使 用的是一种双向的Chart Parsing,使用了语法规则并以概率模型作导向, 并且将语法和分析器独立开。 实验结果表明,系统可以正确处理 85% 的歧义切分字段,在 Pentium 200 PC上的速度约600-900字/秒。9、 北大计算语言所分词系统本系统由北京大学计算语言

9、学研究所研制开发, 属于分词和词类标注相结合的分词系统。 系统的分词连同标注的速度在 Pentium 133Hz/16MB 内存机器上的达到了每秒 3 千词以上,而在 Pentium II/64MB 内存机器上速度高达每秒 5 千词。三、主要的自动分词算法 现有的分词算法主要可分为三大类:基于字符串匹配的分词方法、 基于 理解的分词方法和基于统计的分词方法。1、 基于字符串匹配的分词方法这种方法又叫做机械分词方法, 它是按照一定的策略将待分析的汉字串 与一个 “充分大的 ”机器词典中的词条进行配, 若在词典中找到某个字符 串,则匹配成功(识别出一个词)。按照扫描方向的不同,串匹配分词 方法可以

10、分为正向匹配和逆向匹配;按照不同长度优先匹配的情况,可 以分为最大(最长)匹配和最小(最短)匹配;按照是否与词性标注过 程相结合,又可以分为单纯分词方法和分词与标注相结合的一体化方法。 常用的几种机械分词方法如下;1正向最大匹配2逆向最大匹配3最少切分(使每一句中切出的词数最小) 还可以将上述各种方法相互组合, 例如,可以将正向最大匹配方法和逆 向最大匹配方法结合起来构成双向匹配法。由于汉语单字成词的特点, 正向最小匹配和逆向最小匹配一般很少使用。 一般说来, 逆向匹配的切 分精度略高于正向匹配,遇到的歧义现象也较少。统计结果表明,单纯 使用正向最大匹配的错误率为 1/169,单纯使用逆向最大

11、匹配的错误率 为 1/245。但这种精度还远远不能满足实际的需要。由于分词是一个智 能决策过程, 机械分词方法无法解决分词阶段的两大基本问题:歧义切 分问题和未登录词识别问题。 实际使用的分词系统,都是把机械分词作 为一种初分手段, 还需通过利用各种其它的语言信息来进一步提高切分的准确率一种方法是改进扫描方式, 称为特征扫描或标志切分, 优先在待分 析字符串中识别和切分出一些带有明显特征的词,以这些词作为断点, 可将原字符串分为较小的串再来进机械分词,从而减少匹配的错误率。另一种方法是将分词和词类标注结合起来, 利用丰富的词类信息对 分词决策提供帮助,并且在标注过程中又反过来对分词结果进行检验

12、、 调整,从而极大地提高切分的准确率。对于机械分词方法,可以建立一个一般的模型,形式地表示为ASM(d,a,m),即 Automatic Segmentation Model。其中,d:匹配方向,+1表示正向,-1表示逆向;a:每次匹配失败后增加/减少字串长度(字符数),+1为增字,-1为减 字;m:最大/最小匹配标志,+1为最大匹配,-1为最小匹配。例如, ASM(+, -, +) 就是正向减字最大匹配法 (即 MM 方法), ASM(-, -, +)就是逆向减字最大匹配法 (即 RMM 方法 ) ,等等。对于现代汉语来说, 只有 m=+1 是实用的方法。 用这种模型可以对各种方法的复杂度进

13、行比 较,假设在词典的匹配过程都使用顺序查找和相同的计首字索引查找方 法,则在不记首字索引查找次数 (最小为log汉字总数 ? 1214)和词 典读入内存时间的情况下, 对于典型的词频分布, 减字匹配 ASM(d,-,m) 的复杂度约为 12.3 次,增字匹配 ASM(d,+,m) 的复杂度约为 10.6。2、基于理解的分词方法通常的分析系统, 都力图在分词阶段消除所有歧义切分现象。 而有 些系统则在后续过程中来处理歧义切分问题, 其分词过程只是整个语言 理解过程的一小部分。其基本思想就是在分词的同时进行句法、语义分 析,利用句法信息和语义信息来处理歧义现象。它通常包括三个部分: 分词子系统、

14、句法语义子系统、总控部分。在总控部分的协调下,分词 子系统可以获得有关词、 句子等的句法和语义信息来对分词歧义进行判 断,即它模拟了人对句子的理解过程。 这种分词方法需要使用大量的语 言知识和信息。由于汉语语言知识的笼统、复杂性,难以将各种语言信 息组织成机器可直接读取的形式, 因此目前基于理解的分词系统还处在 试验阶段。3、基于统计的分词方法从形式上看, 词是稳定的字的组合, 因此在上下文中, 相邻的字同 时出现的次数越多, 就越有可能构成一个词。 因此字与字相邻共现的频 率或概率能够较好的反映成词的可信度。 可以对语料中相邻共现的各个 字的组合的频度进行统计,计算它们的互现信息。 定义两个

15、字的互现信 息为: ,其中 是汉字 X 、Y 的相邻共现概率, 、 分别是 X、Y 在语 料中出现的概率。 互现信息体现了汉字之间结合关系的紧密程度。 当紧 密程度高于某一个阈值时,便可认为此字组可能构成了一个词。这种方 法只需对语料中的字组频度进行统计, 不需要切分词典,因而又叫做无 词典分词法或统计取词方法。 但这种方法也有一定的局限性, 会经常抽 出一些共现频度高、 但并不是词的常用字组,例如 “这一”、“之一 ”、“有 的”、“我的”、“许多的 ”等,并且对常用词的识别精度差,时空开销大。实际应用的统计分词系统都要使用一部基本的分词词典(常用词词典) 进行串匹配分词, 同时使用统计方法

16、识别一些新的词, 即将串频统计和 串匹配结合起来,既发挥匹配分词切分速度快、效率高的特点,又利用 了无词典分词结合上下文识别生词、自动消除歧义的优点。在本课题中,采用 基于字符串匹配的分词方法来实现中文搜索引擎下 的汉语自动分词系统。四、 技术方案1)研究方法:1、 研究词典的存储方式和数据结构2、 采用正向 /反向最大匹配分词法实现自动分词3、 对 2 中两种匹配分词算法的结果不一致的词进行提取, 标记为歧义 字段4、 对歧义字段进行消歧处理5、 对未登陆词进行处理6、 从分词的准确性和分词速度方面对系统进行评价7、 设计词典管理模块,完成对词典的更新和维护8、 针对具体的中文搜索引擎应用背

17、景,对自动分词算法进行改进2)技术路线:本项目的研究主要分为四个阶段来实施: 第一阶段:定义词典的数据结构 第二阶段:实现正向 /反向最大匹配分词法 第三阶段:实现歧义处理 第四阶段:实现未登陆词处理3)实验平台:Windows + VC6.04)实验方案: 实验一:建立词典机制,实现词典管理模块 实验二:实现正向 /反向最大匹配自动分词算法 实验三:检测并提取歧义字段,实现歧义处理模块 实验四:实现未登陆词处理模块五、 已完成的工作 目前,已对整个系统的模块设计进行了规划,完成实验一和实验二,实 现了词典管理模块和正向 /反向最大匹配自动分词算法。本课题选用 1998年 1月份 人民日报语料

18、进行统计和分析,得到词的统计信息如表 1 所示。表 1 1998 年 1 月份人民日报语料库中词的统计信息词类词数(个)词数所占百分比( %)词频(个)词频所占百分比( %)单字词28735.16448036175140.971094二字词3093955.61567546307752.447046三字词1065819.158727380824.313081四字及四字以上词1116020.061118200322.268779总词数 /总词频55630100882942100根据表 2对 1998年 1月份人民日报语料库中词的统计数据,我们得到该语料库中出现的词条数的分布信息如图 2(a)所示,

19、词频数的分布信息如图2(b)所示:图 2(a) 人民日报语料库中词数的分布信息 图 2(b) 人民日报语料库中词频的分布信息以上统计数据表明,在汉语中,二字词占有绝大多数。因此快速判断二 字词,对提高自动分词效率起着至关重要的作用。 在实现分词程序时, 主要采用快速判 断二字词和匹配分词交叉使用技术提高自动分词速度。对词典的优化主要表现在以下几个方面: 分词词典中以同一个词头开始 的词是按内码顺序从小到大连续存放在一起的,且不包括首字,这样可 以节省存储空间。 同时采用内存映射文件技术,词典文件一打开就被映 射到内存的某个地址, 只有根据词头映射表具体访问某个词头偏移地址 的时候,才会读取字典中对应词块的数据, 检索时根据词头映射表指针, 直接映射到该词头数据存储的文件偏移, 再根据词条数目以二分法逐次 匹配查找词,这样能提高词典的访问速度。六、下一步工作展望将正向 /反向最大匹配自动分词算法得到的结果中不一致的地方标记 为歧义字段,研究歧义处理算法,同时研究未登陆词处理,最后完成整 个分词系统。

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1