ImageVerifierCode 换一换
格式:DOCX , 页数:9 ,大小:28.67KB ,
资源ID:10122906      下载积分:12 金币
快捷下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

加入VIP,免费下载
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.bdocx.com/down/10122906.html】到电脑端继续下载(重复下载不扣费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  

下载须知

1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
2: 试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。
3: 文件的所有权益归上传用户所有。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

本文(完整数据挖掘文本分类实验报告.docx)为本站会员(b****8)主动上传,冰豆网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知冰豆网(发送邮件至service@bdocx.com或直接QQ联系客服),我们立即给予删除!

完整数据挖掘文本分类实验报告.docx

1、完整数据挖掘文本分类实验报告北京邮电大学*学年第1学期实验报告 课程名称: 数据仓库与数据挖掘 实验名称: 文本的分类 实验完成人:姓名: * 学号: * 姓名: * 学号: * 日 期: 实验一:文本的分类1.实验目的掌握数据预处理的方法,对训练集数据进行预处理;掌握文本分类建模的方法,对语料库的文档进行建模;掌握分类算法的原理,基于有监督的机器学习方法,训练文本分类器;了解SVM机器学习方法,可以运用开源工具完成文本分类过程.2.实验分工*:(1)对经过分词的文本进行特征提取并用lisvm进行训练(2)用训练的模型对测试数据进行预测*:(1)数据采集和预处理(2)分词3.实验环境Ubunt

2、u 13.04+jdk1.74.主要设计思想4.1 实验工具介绍1NLPIR_ICTCLAS2013NLPIR (又名ICTCLAS2013),是由中科院张华平博士倾力打造的汉语分词系统。其主要功能包括中文分词、词性标注、命名实体识别、用户词典功能、支持GBK编码、UTF8编码、BIG5编码等.从NLPIR官网可以下载其最新版的Java发布包,然后导入Eclipse,配置运行环境,实现对于语料库的分词。最新的NLPIR可以通过更改源代码实现新增新词识别、关键词提取、微博分词等功能,极大地方便了使用。2. Eclipse for JavaEclipse 是一个开放源代码的、基于Java的可扩展开

3、发平台。就其本身而言,它只是一个框架和一组服务,用于通过插件组件构建开发环境。幸运的是,Eclipse 附带了一个标准的插件集,包括Java开发工具(Java Development Kit,JDK).3. LibSVM本次实验中我们采用的是台湾大学林智仁博士等开发设计的LIBSVM方法。这是一个操作简单、易于使用、快速有效的通用 SVM 软件包,可以解决分类问题(包括 CSVC 、SVC ), 回归问题(包括 SVR 、v SVR ) 以及分布估计(one class SVM ) 等问题,提供了线性、多项式、径向基和S形函数四种常用的核函数供选择,可以有效地解决多类问题、交叉验证选择参数、对

4、不平衡样本加权、多类问题的概率估计等。4.2 特征提取与表达方法的设计特征提取是在初始特征集基础上提取出一个特征子集的过程,能够起到降低向量空间维数、简化计算、防止过拟合作用.首先根据特征提取算法对特征的重要性进行评估,然后进行重要度排序,最后根据提取阈值或提取比率完成提取。提取后的特征集将用于之后的训练和分类过程。常用特征提取算法有文档频数(Document Frequency)、信息增益(information Gain)、期望交叉熵(expected cross entropy)、互信息(Mutual Information)等。本次实验采用信息增益法进行特征词提取,它是一个基于嫡的评价

5、方法,涉及嫡理论公式,定义为某特征在文档中出现前后的信息嫡之差。根据训练数据,计算出各个单词的信息增益,删除信息增益很小的词,其余的按照信息增益从大到小排序。采用TFIDF建立文本向量,TFIDF是由两部分组成,一部分是TF(Token Frequency),表示一个词在文档中出现的次数,即词频。另一部分是IDF(Inverse Document Frequency),表示某个词出现在多少个文本中(或者解释为有多少个文本包含了这个词),即逆向文档频率。4。3 分类算法的选择我们选择svm的原因如下:(1)非线性映射是SVM方法的理论基础,SVM利用内积核函数代替向高维空间的非线性映射;(2)对

6、特征空间划分的最优超平面是SVM的目标,最大化分类边际的思想是SVM方法的核心;(3)支持向量是SVM的训练结果,在SVM分类决策中起决定作用的是支持向量.(4)SVM 是一种有坚实理论基础的新颖的小样本学习方法。它基本上不涉及概率测度及大数定律等,因此不同于现有的统计方法.从本质上看,它避开了从归纳到演绎的传统过程,实现了高效的从训练样本到预报样本的“转导推理,大大简化了通常的分类和回归等问题.(5)SVM 的最终决策函数只由少数的支持向量所确定,计算的复杂性取决于支持向量的数目,而不是样本空间的维数,这在某种意义上避免了“维数灾难。(6)少数支持向量决定了最终结果,这不但可以帮助我们抓住关

7、键样本、“剔除”大量冗余样本,而且注定了该方法不但算法简单,而且具有较好的“鲁棒”性。这种“鲁棒”性主要体现在:增、删非支持向量样本对模型没有影响;支持向量样本集具有一定的鲁棒性;有些成功的应用中,SVM 方法对核的选取不敏感4.4 性能评估方法在性能评估中,我们采用的是计算分类器对于不同分类的准确率和召回率。4。4.1 准确率(Precision)准确率:指的是在所有被判断为正确的文档中,有多大比例是确实正确的。例如:我们把文件分类这样四类:A:系统检测到的相关的文档B:系统检测到的不相关的文档C:系统没有检测到的相关的文档D:系统没有检测到的不相关的文档那么我们的计算公式为:4.4。2 召

8、回率(Recall)召回率:指的是在所有确实正确的文档中,有多大比例被我们判断为正确。例如:我们继续参照上述的例子。那么我们的计算公式为:根据上述的两个公式,我们计算出每一类的准确率和召回率,进行比较,今儿对分类器的分类效果进行评估。5实验过程5.1文本分类语料库的采集我们直接使用搜狗语料库的新闻预料,共有十个类别,每个类别取2000篇作为训练集,另取2000篇作为测试集。这样我们就获得了20000篇的训练集和20000篇的测试集。5.2数据预处理5。2。1文本格式预处理原始的新闻按文件夹划分类别,同一个类别在同一个文件夹下,每篇新闻占一个文件。首先我们把所有文章整理到一个文件中,并标上类型号

9、,这样便于后期处理。5。2.2分词和去停用词处理对语料库进行分词处理阶段,我们采用中科院研发的汉语分词软件NLPIR.我们为了对大量的文本进行分词,在NLPIR中又添加了一个批处理函数,对NLPIR进行调用,对大量文本进行分词处理。通过更改NLPIR的参数,我们获取了带有词性标注的大量分词后的文本文件。然后我们利用模式匹配的方法把所有分名词过滤掉,然后根据停用词表除去停用词。5.3特征提取和表达5。3.1特征词提取本次实验我们采用信息增益法进行特征词提取。提取特征词1000个。将分词,取名词,去停用词后的每篇文章统一整理到一篇文本中。每篇文章作为一行记录出现,这样便于采用信息增益法计算每个单词

10、的信息增益值。它是一个基于嫡的评价方法,涉及较多的数学理论和复杂的嫡理论公式,定义为某特征在文档中出现前后的信息嫡之差.根据训练数据,计算出各个单词的信息增益,删除信息增益很小的词,其余的按照信息增益从大到小排序。信息增益评估函数被定义为IG(t) = P(t)P(Cit)log(P( Ci | t)/P( Ci))+ P(tn)* (P(Ci|tn)logP(Cit)/P(i)),式中, P(Cit) 表示文本中出现特征t时,文本属于Ci类的概率; P(Ci|tn) 表示文本中不出现单词t时,文本属于Ci类 的概率; P(Ci) 表示类别出现的概率; P(t) 表示t 在整个文本训练集中出现

11、的概率。计算完每个单词的信息增益值后,采用堆排序方法选取前5000个单词作为特征词,即词典。5.3.2建立文本向量根据提取的特征词采用TFIDF法建立文本向量。TF-IDF是一种加权技术,它通过统计的方法来计算和表达某个关键词在文本中的重要程度.TF-IDF是由两部分组成,一部分是TF(Token Frequency),表示一个词在文档中出现的次数,即词频.另一部分是IDF(Inverse Document Frequency),表示某个词出现在多少个文本中(或者解释为有多少个文本包含了这个词),即逆向文档频率,通常由公式IDFtlog((1+|D)/Dt|),其中D|表示文档总数,Dt|表示

12、包含关键词t的文档数量。根据上述原理,我们把训练集转化为libsvm所支持的向量格式.LIBSVM的训练集格式如下:lable1 index1:featureValue1 index2:featureValue2 index3:featureValue3 .。lable2 index1:featureValue1 index2:featureValue2 index3:featureValue3 .。.对应到文本分类上就是:类别ID 特征序号:特征值(TFIDF值).。5.4训练过程我们利用libsvm提供的grid.py工具对训练集进行参数寻优,并得到参数:c=128.0 g=3。05175

13、78125e-05 ,然后利用这组参数对训练集进行训练,得到模型文件。5.5测试过程我们对测试集进行同样的分词与去停用词等操作,然后根据训练得到的模型文件,对其进行预测。然后,分析预测输出文件和初始的测试文件,得到相关统计数据。5.6实验结果和性能评估训练集:20000篇测试集:20000篇特征提取后字典大小:1000词训练时间:92。7s测试时间:80s平均准确率:83%具体准确率与召回率如图51所示:图51 预测结果准确率与召回率预测结果混淆矩阵如图5-2所示:军事文化教育经济女性体育汽车娱乐军事IT军事0352185000182411文化440192338365694518教育2333016253323836经济11160202433女性48564420033162818体育345517401970汽车28141571021017娱乐17701722927019军事26681915616225013IT1738701520123371206 实验总结通过这次实验,学习了文本分类的常规步骤,认识了一些分类方法的原理和使用方法。同时锻炼了编程编程能力。最关键的是获得了对数据挖掘领域的兴趣.

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1