ImageVerifierCode 换一换
格式:DOCX , 页数:10 ,大小:66.48KB ,
资源ID:5899185      下载积分:3 金币
快捷下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

加入VIP,免费下载
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.bdocx.com/down/5899185.html】到电脑端继续下载(重复下载不扣费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  

下载须知

1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
2: 试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。
3: 文件的所有权益归上传用户所有。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

本文(中文分词算法.docx)为本站会员(b****6)主动上传,冰豆网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知冰豆网(发送邮件至service@bdocx.com或直接QQ联系客服),我们立即给予删除!

中文分词算法.docx

1、中文分词算法1最大匹配法(Forward Maximum Matching method, FMM法):选取包含6-8个汉字的符号串作为最大符号串,把最大符号串与词典中的单词条目相匹配,如果不能匹配,就削掉一个汉字继续匹配,直到在词典中找到相应的单词为止。匹配的方向是从右向左。 逆向最大匹配法(Backward Maximum Matching method, BMM法):匹配方向与MM法相反,是从左向右。实验表明:对于汉语来说,逆向最大匹配法比最大匹配法更有效。给定串:我是中国人 从左往右最长匹配优先: 读入我,一个字当然是一个词 再读入是,查表找我是,不在表中,则我是一个独立的词,是还要下

2、一步判断 读入中是中肯定不在表内,那是也是一个独立的词,中还要下一步判断 读入果,中国在表内 再读入人,中国人也在表内, 此时全部读完,中国人是一个次 结果就是:我 是 中国人 从右往左也类似最近折腾毕业论文,搞得人没心情写blog了。于是觉得不如把毕业论文里的东西贴出来当blog算了。这里主要介绍了我自己的中文分词算法,我觉得它比现在开源代码比较多的中文匹配法要好多了。这里的内容没有任何背景知识啥的,毕竟论文里的背景知道我也是从网上粘贴的,呵呵!因此这篇文章的内容可能适合做搜索引擎的人。如果要了解中文分词算法在搜索引擎中的重要性,或者最大匹配法的思想与过程,请去网上搜吧,资料还是蛮多的。1.

3、1.1 最大匹配法分词的缺陷尽管最大匹配法分词是常用的解决的方案,但是无疑它存在很多明显的缺陷,这些缺陷也限制了最大匹配法在大型搜索系统中的使用频率。最大匹配法的问题有以下几点:一、长度限制由于最大匹配法必须首先设定一个匹配词长的初始值,这个长度限制是最大匹配法在效率与词长之间的一种妥协。我们来看一下以下两种情况:(1)词长过短,长词就会被切错。例如当词长被设成5时,也就意味着它只能分出长度为5以下词,例如当这个词为“中华人民共和国”长度为7的词时,我们只能取出其中的5个字去词库里匹配,例如“中华人民共”,显然词库里是不可能有这样的词存在的。因此我们无法下确的划分出“中华人民共和国”这样的词长

4、大于5的词。(2)词长过长,效率就比较低。也许有人会认为既然5个字无法满足我们的分词要求,何不将词长加大,例如加到10或者100,毕竟这个世界超过100个字长的词还是很少见的,我们的词长问题不就解决了?然而当词长过长时,我们却要付出另一方面的代价:效率。效率是分词算法、甚至是整个算法理论体系的关键,毕竟算法书里所有的高深的查询或排序算法都是从效率出发的,否则任何笨办法都可以解决分词效率低的问题。设想到我们把字长设成100个词时,我们必须将词从100开始一直往下匹配直到找到要查的字为止,而我们大多数词的字长却只有两三个字,这意味着前97次的匹配算法是徒劳的。因此我们必须要在词长与效率之间进行妥协

5、,既要求分词尽量准确,又要求我们的词长不能太长。尽管我们可能找到这样一个比较优化的字长值使两者都达到比较满足的状态,但是毕竟不管我们怎么设定,总会有些太长词分出来,或者带来效率问题。二、效率低效率低是最大匹配法分词必然会来的问题。即使我们可以将字长设成相当短,例如5(注意,我们不能再缩短字长了,毕竟字长为5以上的词太多了,我们不能牺牲分词的准确),然而当我们的大数词长为2时,至少有3次的匹配算法是浪费掉的。回想一下算法书里提到的最简单的字符匹配与KMP算法之间天差地别的效率,我们知道通过某种方法,这些浪费的掉的匹配时间是可以补回来的。三、掩盖分词歧义中文是如此复杂的语言,它的表达方式如此之多,

6、语法文法如此精妙,机械的电脑是很难理解这么复杂的语言,因此它必然会带来歧意性,以下是两个简单的例子:A.“有意见分歧” (正向最大匹配和逆向最大匹配结果不同)有意/ 见/ 分歧/有/ 意见/ 分歧/B.“结合成分子时” (正向最大匹配和逆向最大匹配结果相同)结合/ 成分/ 子时/由于词的歧义性使我们在使用最大匹配法分词会产生错误的结果,而且使用正向分词与逆向分词往往会产生截然不同的结果。尽管使用回溯法或计算计算词的使用频率,可以使出现歧义的可能性减少,但是我们知道,这样的结果是不可避免的,因为中文的变化实在太多了。四、最大匹配的并不一定是想要的分词方式最大匹配法基于的理念是找到最大的匹配词,但

7、有的时候除了最大匹配词外,我们也可能只需要这个词的一部分。例如“感冒解毒胶囊”是一个完整的词,按照最大匹配法我们无法对它进行拆分了,这样我们输入“感冒”的时候就根本搜不到我们需要的词。这是我们需要的吗?做为生产这种药的厂商,它肯定希望用户输入“感冒”甚至“解毒”,我们都能查到对应的内容。1.2 设计自己的中文分词算法1.2.1 设计目标基于对分词算法的理解和对最大匹配法分词的分析,我们知道我们必须提出不同的解决方案,使分词算法的效率、分词的长度限制甚至歧义处理上得到提高。因此我们提出了如下的设计目标:一、 高效中文分词算法必须要高效,毕竟效率对于搜索引擎的重要性是不言而喻的。而且我们面对的是海

8、量的数据,而不是一篇几百字或几千字的文章,效率的差别的影响可能会使最后运行效率差几个小时甚至几天。因此我希望我们设计的算法一定要比最大匹配法高,毕竟我们已经常看到最大匹配法的很多次匹配都是浪费在无用功上了,肯定有办法把这些浪费的时间节省回来。二、无长度限制最大匹配法的长度限制真是很讨厌的事,我们很难找到词长与效率的之间的平衡。为什么我们需要长度的限制?为什么我们不能设计出任何词长的词(只要词库中存在)都可以分出来? 三、歧义包容我们相信长度限制的问题总是可以解决的,因为虽然长度限制这个问题很难,但是它是有规律可循的,它是严谨的科学。但是当我们碰到中文歧义时,我知道不管我们怎么努力,它仍然是不可

9、能彻底解决的。因为中文实在太博大精深了,即使有极强的人工智能和机器学习功能,这样的错误仍然是难以避免。既然无法避免?我们为什么不换一个角度去考虑?我们为什么不可以将出现歧义的各种可能性都包含进去,作为分词的参考。例如上述的“有意见分歧”的两种分词方法:有意/ 见/ 分歧/有/ 意见/ 分歧/为什么我们不能把这样两种结果都拿来分词呢?毕竟分词的目的是为了搜索,而不是为了教小孩读出。如果把两种分词的可能性都告诉搜索引擎,搜索引擎会很高兴的,因为这下不管是“有意”还是“意见”,它都可以搜到了。这就是我提出来另一个目标:歧义包容。1.2.2 算法的突破口词库虽然我们的目标已经确定下来了,但是要想出一个

10、更好的算法却是非常难的事。毕竟算法需要的是灵感与突发奇想,这与系统的架构设计和面向对象的设计与编者编码刚好是相反的,象设计模式或重构这样的东西我们需要的实践、总结、再实践。而算法需要的却是当我们在山重水复疑无路的时候会换个角度思考。但是分词算法的突破口在哪里呢?我们必须要有一个词库,我们必须将全文中的词与词库去匹配,这一切都是不可避免的。真正要改善是就是我们的匹配过程,我们要减少匹配过程中的浪费,我们要解决匹配中的词长限制。但是我们有什么办法呢?每次的匹配我们必须要去词库中查找一次。怎么改善这样的做法?我们总是把优化的思路定格在更好的匹配算法,更好地处理词条和全文。但是真正束缚我们的却是词库!

11、是基于关系数据库的词库,我们需要的对词库的改造,我们要让我们的词库更适合用于匹配与分词!这是几十年来关系数据库带给我们的思维:我们查找的词是数据库的某条记录,通过表格与关系代数,我们总能找到这个词。但是正是关系数据库的这种思维束缚着我们,关系数据库让我们的数据结构及关联表达得清楚又简单,并使某些查询的效率变得很高。但是这不适用于中文分词,有的时候退到几十年前流行的数据库模型也许更适合。这就是层次数据库。我们要做的是将关系数据库的词按字打散,并存放到层次数据库中。以下就是一个示例:红色的字表示树上面的字串是可以单独组成一个词的,例如“感冒”它本身是词库里可以找到的词,所有红色的表示的是终止符。而

12、黄色则表示树上面的字串是无法单独成词的,例如“感冒解”是不存在的词。真的很奇妙,词库经过这样的改装后,所有的匹配的思维都变掉了。任何一个句子都会打散成单字去与树状结构的单字去匹配,词的长度变成了树的高度,每一次的匹配变成了树的遍历,而这种遍历的效率竟然都是线性的!1.2.3 中文分词算法设计有了以上的中文词库后,我们分词算法设计就水到渠成的。首先我们来看一下分词的步骤:(1)首先将要分的全文按标点符号打散成一个一个的句子。这算是预处理的一个步骤,目的是让我们处理的句子短,效率更高。毕竟中间有标点符号的词是不存在的。(注:真正实现时我们是基于lucene的SimpleAnalyzer来做的,因为

13、SimpleAnalyzer本身就是为了将全文打散成句子,因此我们没必要耗费体力去实现这一步)。(2)我们开始将要处理的句子在树状结构中遍历,如果找到匹配的就继续,如果遇到红色的终止符,我们就发现这个词是一个完整的词了,这样我们就可以把这个词作为一个一个分词了。(3)从分词后的下一字开始继续做步骤2这样的遍历,如此循环往复就将词分完了。可以看到,我们字符匹配效率几乎是线性的!我们所要做的只是取出每一个字去树上找到相应的匹配,每次的匹配代价都是O(1)(如果词库用Hash表的话),这样匹配下来的时间复杂度就是字符串本身的长度!对于一个长度为n的字符串来说,它的分词复杂度是O(n)。而最大匹配的平

14、均复杂度是O(n2)。当然我们这里没有考虑歧义包容与分支处理等情况,但即使加上这些我们复杂度仍然是有限的。1.2.4 中文分词算法的实现细节一、建立词库有了改装词库的基本思想后,建立词库的步骤变得很简单,但是仍然会有好多的细节需要注意。首先是词库的保存格式。现在最常用的保存数据的方式当然是关系数据库,其次是文件系统中的二进制文件。显然关系数据库对于我们并不适用,而自定义的二进制文件则实现起来比较困难,而且读写的效率也会有问题。因为我们想到了最简单的方法是利用java的serialization的功能,把整个内存中的树状结构直接序列化成磁盘的文本文件是最方便的!而且读写的效率也会相当的高。第二个

15、问题是树的父子节点的导航。我们的树并不是一颗二叉树,父亲的子节点会有好多!尤其是第一层,我们会把词库中所有的首字都取出来作为根节点的子节点,这意味着如果首字有4000个的话,根节点就有4000个儿子。当然随着树层数的增多,节点的儿子数也会减少,毕竟以“感冒”开头的词在整个词库也只有四十多个,而以“感冒清”开头的词则只有两三个了。这意味着如果设计得不合理,我们树的匹配遍历过程并不完全是线性的。最坏的查找算法是O(N)(N代表儿子数)。当然如果我们建词库时将儿子有序排列,再按照二分查找的方法,则我们的复杂度会减到O(lgN),这样的复杂度已经可以接受了。但是还有更简单又更快的存储方式,为什么不使用

16、呢?那就是HashMap,毕竟在HashMap里查找东西时它的效率几乎是线性的,而且实现起来要比二分查询简单得多。当然用HashMap要付出存储空间变大的代价,但这样的代价来换取速度与简单性也是的。第三个问题是找到有终结符的字后,我们必须要将它建成一个完整的词。这时我们必须能从字个往上回溯,直到找到根结点。因此我们在每个节点里都保存了父节点的指针。有了以上的设计思想,我们就动手建立了我们的词库,词库的来源是中医药数据库的词汇表,因为我们应用一直是围绕中医药的。我们找到了两个最重要的表,这两个表几乎包含了中医药的全部词库:一体化语言系统词库 92112个词疾病大全、症状、证候 20879个词最后

17、生成的词库是java serialization的一个文件,文件的大小是16M 。当然这跟我们采用HashMap存放父子关联有关,也跟java的对象所占空间有关,虽然将词库按这种方式存放实际上也对词库进行了压缩(以“感”开头的字有数十个,关系数据库里就要保存数十个,但我们在词库只保存了一个“感”)。但文件仍然偏大,因此用oracle将这两个表导出后生成的文件大小是4M。不过这个大小仍然是可以接受的,毕竟效率才是关键。二、 分词查询虽然刚才对分词算法进行了描述,但实际上实现的时候我们还会碰到很多问题。1、分支处理。这是分词算法时歧义包容所必然碰到的问题。为了歧义包容,我们采用了与最大分词法完全不

18、同的理念,我们的理念是将词库中存在词全部收入囊中!而且会发生重叠。例如“感冒解毒胶囊”,由于词库里存在“感冒”、“解毒”和“感冒解毒胶囊”这三个词,因此在分词的时候,我们会分别分出这三个词,这样用户无论输入“感冒”、“解毒”或“感冒解毒胶囊”搜索引擎都会找到相应的结果。因此当遇到分支时,我们会分解成两条路线!例如当我们匹配到“感冒”的“冒”时,我们会发现一个终止符,代表“感冒”是一个完整的字,将它收录到分词中。接下来我们会分成两支,一支是继续往下走,匹配树的下一层,因为“冒”不是树的叶子,往下走可能会碰到更大的匹配词,例如“感冒解毒胶囊”。而另一支则从根开始,直接用“解”去匹配树的第一层节点,

19、最后发现了“解毒”也是其中的一个词。2、动态规划法分支虽然使我们可以消除很多的歧义,但是显然它会带来副作用:导致分词的复杂度变大。如果一个句子很长时,分词的变化也许会呈指数级的增长,从一开始的两个分支变成四个、八个甚至更多。我们会发现很多句子虽然会有很多分支,但是这些分支又经常会汇聚到一个点,变成一个分支。例如:“感冒解毒胶囊可以治感冒”,我们在分词的时候可能会出现“感冒”,“解毒”,“感冒解毒”,“感冒解毒胶囊”等多个分支,但是当我们到达“囊”这个点的时候,所有的分支又会汇集到一起,因为大家接下来要处理的都是“可以治感冒”这个字符串。如果有办法让我们在汇聚以后只处理一个分支,那么算法的时间复

20、杂度就不会象原来想象的那么坏。而这刚好是动态规划法发挥威力的时候,动态规划要解决的问题是Overlapping sub-problem。它的处理方法就是将所有的子问题记录在公有的变量里(这里指的是类变量,它相对于某个method来说是公有变量,而不是真的全局变量)。当我遇到的子问题已经被处理过一次了,就直接跳过。这样节约的结果可以使算法复杂度得到质的改变,当然由于中文的变化多端,我们无法精确估计使用动态规划法后算法复杂度得到了多大的提高。实际上的动态规划法的实现起来比说起来反而简单,我们只是简单地放了一个HashSet来存放已经分词过的位置:然后判断的函数也相当的简单:最后在分词的递归函数中加

21、入这一句判断:当这个位置已经被处理过了就直接返回了。3、词库预load在使用基于词库的方法时,我们必须要面临的一个问题是:必要将词库读到内存中,而这通常会耗费很长的时间,幸运的是这样的工作我们只需要做一次,当我们将词库load进来以后,所有的工作都会在内存中进行,分词的速度会得到极速提升。我们选择的词库预load时机是我们第一次进行分词时,这相当于lazy load,只有用到的时候我们才去初始化。讲完算法,我们来看看分词部分的实现代码,实际上这部分的内容实现起来远比想中简单。在处理的过程中,我们对给每个句子(实际是lucene里用SimpleAnalyzer分词后的一个个Token)都新建一个

22、ChineseSplitter,这是更加面向对象的做法,使我们处理起来更加方便简洁,因为我们会发现如果用一个Singleton的ChineseSplitter时,它的变量无法共享会导致整个Splitter里的递归方法跟上一堆的参数,容易出错,而且无法调试。代码如下:代码简单明了,只是做了词库预load的工作后就将实际的分词工作交给了ChineseSplitter。ChineseSplitter的核心功能实际上将句子中词典中能找到的词放到一个队列中,这中队列里提供了分词以后的所有词的信息:下面是分词的核心算法:它是一个递归的过程,初始时我们调用的参数里pos为0,这样它就会一级一级递归下去并将所

23、有可能的分词放入到tokenQueue里。1.2.5 中文分词的实验结果1、实验1短文分词在第一个实验中我们选了一篇2000字的文章(是关于中医药的专业论文)。然后用三种Analyzer对它进行处理,以下是实验结果:Analyzer分词算法耗时SimpleAnalyzer将文章按标点符号隔开成句子47msStandardAnalyzer将文章的中文字分成一个一个的单字250msChineseAnalyzer我们的分词算法词库没preload: 13359ms , 词库preload: 63ms我们没有找到最大匹配法分词可用的开源代码,因此只能用SimpleAnalyzer和StandardAn

24、alyzer与之比较。这两种算法事实上是根本没有去查词库的,因此也不会按任何语义去分词,SimpleAnalyzer只是简单地将文章按标点符号隔开成句子,而StandardAnalyzer则只是简单地将文章的中文字分成一个一个的单字。结果确实让人惊讶,当词库preload以后,我们的分词速度竟然远超不需要查任何词库的StandardAnalyzer算法!2、实验2建索引这是将分词算法应用到我们的索引系统后的效果比较,我们的数据源是来自中医药数据库的几十张表,一共有九十万条记录:Analyzer分词算法耗时StandardAnalyzer将文章的中文字分成一个一个的单字35分钟ChineseAn

25、alyzer我们的分词算法31分钟由于建索引时数据库的查询操作会耗费很多的时间,因此两者的差别不是太明显,但结果至少说明了我们的分词效率确实是很高。中文分词的几种算法什么是中文分词?众所周知,英文是以词为单位的,词和词之间是靠空格隔开,而中文是以字为单位,句子中所有的字连起来才能描述一个意思。例如,英文句子I am a student,用中文则为:“我是一个学生”。计算机可以很简单通过空格知道student是一个单词,但是不能很容易明白“学”、“生”两个字合起来才表示一个词。把中文的汉字序列切分成有意义的词,就是中文分词,有些人也称为切词。上海SEO服务,分词的结果是:上海 SEO服务目前主流

26、的中文分词算法有以下3种:1、 基于字符串匹配的分词方法这种方法又叫做机械分词方法,它是按照一定的策略将待分析的汉字串与一个“充分大的”机器词典中的词条进行配,若在词典中找到某个字符串,则匹配成功(识别出一个词)。按照扫描方向的不同,串匹配分词方法可以分为正向匹配和逆向匹配;按照不同长度优先匹配的情况,可以分为最大(最长)匹配和最小(最短)匹配;按照是否与词性标注过程相结合,又可以分为单纯分词方法和分词与标注相结合的一体化方法。常用的几种机械分词方法如下: 1)正向最大匹配法(由左到右的方向); 2)逆向最大匹配法(由右到左的方向); 3)最少切分(使每一句中切出的词数最小)。还可以将上述各种

27、方法相互组合,例如,可以将正向最大匹配方法和逆向最大匹配方法结合起来构成双向匹配法。由于汉语单字成词的特点,正向最小匹配和逆向最小匹配一般很少使用。一般说来,逆向匹配的切分精度略高于正向匹配,遇到的歧义现象也较少。统计结果表明,单纯使用正向最大匹配的错误率为1/169,单纯使用逆向最大匹配的错误率为1/245.但这种精度还远远不能满足实际的需要。实际使用的分词系统,都是把机械分词作为一种初分手段,还需通过利用各种其它的语言信息来进一步提高切分的准确率。一种方法是改进扫描方式,称为特征扫描或标志切分,优先在待分析字符串中识别和切分出一些带有明显特征的词,以这些词作为断点,可将原字符串分为较小的串

28、再来进机械分词,从而减少匹配的错误率。另一种方法是将分词和词类标注结合起来,利用丰富的词类信息对分词决策提供帮助,并且在标注过程中又反过来对分词结果进行检验、调整,从而极大地提高切分的准确率。对于机械分词方法,可以建立一个一般的模型,在这方面有专业的学术论文,这里不做详细论述。2、 基于理解的分词方法这种分词方法是通过让计算机模拟人对句子的理解,达到识别词的效果。其基本思想就是在分词的同时进行句法、语义分析,利用句法信息和语义信息来处理歧义现象。它通常包括三个部分:分词子系统、句法语义子系统、总控部分。在总控部分的协调下,分词子系统可以获得有关词、句子等的句法和语义信息来对分词歧义进行判断,即

29、它模拟了人对句子的理解过程。这种分词方法需要使用大量的语言知识和信息。由于汉语语言知识的笼统、复杂性,难以将各种语言信息组织成机器可直接读取的形式,因此目前基于理解的分词系统还处在试验阶段。3、 基于统计的分词方法从形式上看,词是稳定的字的组合,因此在上下文中,相邻的字同时出现的次数越多,就越有可能构成一个词。因此字与字相邻共现的频率或概率能够较好的反映成词的可信度。可以对语料中相邻共现的各个字的组合的频度进行统计,计算它们的互现信息。定义两个字的互现信息,计算两个汉字X、Y的相邻共现概率。互现信息体现了汉字之间结合关系的紧密程度。当紧密程度高于某一个阈值时,便可认为此字组可能构成了一个词。这种方法只需对语料中的字组频度进行统计,不需要切分词典,因而又叫做无词典分词法或统计取词方法。但这种方法也有一定的局限性,会经常抽出一些共现频度高、但并不是词的常用字组,例如“这一”、“之一”、“有的”、“我的”、“许多的”等,并且对常用词的识别精度差,时空开销大。实际应用的统计分词系统都要使用一部基本的分词词典(常用词词典)进行串匹配分词,同时使用统计方法识别一些新的词,即将串频统计和串匹配结合起来,既发挥匹配分词切分速度快、效率高的特点,又利用了无词典分词结合上下文识别生词、自动消除歧义的优点。

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1