ImageVerifierCode 换一换
格式:PPT , 页数:46 ,大小:778.50KB ,
资源ID:2761321      下载积分:3 金币
快捷下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

加入VIP,免费下载
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.bdocx.com/down/2761321.html】到电脑端继续下载(重复下载不扣费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  

下载须知

1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
2: 试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。
3: 文件的所有权益归上传用户所有。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

本文(文本分类综述.ppt)为本站会员(b****3)主动上传,冰豆网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知冰豆网(发送邮件至service@bdocx.com或直接QQ联系客服),我们立即给予删除!

文本分类综述.ppt

1、文本分类综述郑亚斌清华大学自然语言处理组2008-11-15部分内容copy自王斌老师ppt报告内容文本分类的定义和应用文本分类的方法文本分类的评估指标文本分类的一些新方向参考文献和资源文本分类的定义和应用定义给定分类体系,将文本分到某个或者某几个类别中。分类体系一般人工构造政治、体育、军事中美关系、恐怖事件分类系统可以是层次结构,如yahoo!分类模式2类问题,属于或不属于(binary)多类问题,多个类别(multi-class),可拆分成2类问题一个文本可以属于多类(multi-label)这里讲的分类主要基于内容很多分类体系:Reuters分类体系、中图分类应用垃圾邮件的判定(spam

2、 or not spam)类别 spam,not-spam新闻出版按照栏目分类类别 政治,体育,军事,词性标注类别 名词,动词,形容词,词义排歧类别 词义1,词义2,计算机论文的领域类别 ACM systemH:information systemsH.3:information retrieval and storage文本分类的方法人工方法和自动方法人工方法结果容易理解足球 and 联赛体育类费时费力难以保证一致性和准确性(40%左右的准确率)专家有时候凭空想象知识工程的方法建立专家系统(80年代末期)自动的方法(学习)结果可能不易理解快速准确率相对高(准确率可达60%或者更高)来源于真实

3、文本,可信度高文本分类的过程文本表示训练过程分类过程训练文本统计统计量特征表示学习分类器新文本特征表示类别特征抽取预处理去掉html一些tag标记(英文)禁用词(stop words)去除、词根还原(stemming)(中文)分词、词性标注、短语识别、词频统计TFi,j:特征i在文档j中出现次数,词频(Term Frequency)DFi:所有文档集合中出现特征i的文档数目,文档频率(Document Frequency)数据清洗:去掉不合适的噪声文档或文档内垃圾数据文本表示向量空间模型(Vector Space Model)降维技术特征选择(Feature Selection)特征重构(Re

4、-parameterisation,如LSI、LDA)文本表示向量空间模型(Vector Space Model)M个无序标引项ti(特征),词根/词/短语/其他假设所有特征独立每个文档dj可以用标引项向量来表示(a1j,a2j,aMj)权重计算,N个训练文档AM*N=(aij)相似度比较Cosine计算内积计算Term的粒度Character,字:中Word,词:中国Phrase,短语:中国人民银行Concept,概念同义词:开心 高兴 兴奋相关词cluster,word cluster:鸟巢/水立方/奥运N-gram,N元组:中国 国人 人民 民银 银行某种规律性模式:比如某个窗口中出现的

5、固定模式中文文本分类使用那种粒度?Term粒度中文词特征 V.S.Bigram特征中文分词?更困难的学术问题Bigram?简单粗暴假设分词100%准确在低维度达到更好的结果现实中不可能的Term粒度中文ICTCLAS分词V.S.Bigram低维度:词 Bigram高维度:Bigram 词词的数目有限Bigram特征数目更多,可以提供更多的特征So,实用性角度:分词研究角度:Bigram权重计算方法布尔权重(Boolean weighting)aij=1(TFij0)or(TFij=0)0TFIDF型权重TF:aij=TFijTF*IDF:aij=TFij*log(N/DFi)TFC:对上面进行

6、归一化LTC:降低TF的作用基于熵概念的权重(Entropy weighting)称为term i的某种熵如果term分布极度均匀:熵等于-1只在一个文档中出现:熵等于0特征选择(1)基于DF Term的DF小于某个阈值去掉(太少,没有代表性)Term的DF大于某个阈值也去掉(太多,没有区分度)信息增益(Information Gain,IG):该term为整个分类所能提供的信息量(不考虑任何特征的熵和考虑该特征后的熵的差值)特征选择(2)term的某种熵:该值越大,说明分布越均匀,越有可能出现在较多的类别中(区分度差);该值越小,说明分布越倾斜,词可能出现在较少的类别中(区分度好)相对熵(n

7、ot 交叉熵):也称为KL距离(Kullback-Leibler divergence),反映了文本类别的概率分布和在出现了某个特定词汇条件下的文本类别的概率分布之间的距离,该值越大,词对文本类别分布的影响也大。特征选择(3)2 统计量:度量两者(term和类别)独立性的缺乏程度,2 越大,独立性越小,相关性越大(若ADBC,则类和词独立,N=A+B+C+D)互信息(Mutual Information):MI越大t和c共现程度越大ABCDttcc特征选择(4)Robertson&Sparck Jones公式其他Odds:Term Strength:特征选择方法性能比较 特征选择方法性能比较Y

8、iming Yang and Xin Liu.1999.“A re-examination of text categorization methods.”22ndAnnual International SIGIR99特征重构隐性语义索引(Latent Semantic Index)奇异值分解(SVD):A=(aij)=UVTAM*N,UM*R,R*R(对角阵),VN*R,R Topic表示自动文本分类方法Rocchio方法Nave BayeskNN方法决策树方法decision treeDecision Rule ClassifierThe Widrow-Hoff Classifier神经

9、网络方法Neural Networks支持向量机SVM基于投票的方法(voting method)Rocchio方法可以认为类中心向量法是它的特例Rocchio公式分类类C中心向量的权重训练样本中正例个数文档向量的权重Nave Bayes参数计算Bayes公式kNN方法一种Lazy Learning,Example-based Learning新文本k=1,A类k=4,B类k=10,B类带权重计算,计算权重和最大的类。k常取3或者5。决策树方法构造决策树CARTC4.5(由ID3发展而来)CHAID决策树的剪枝(pruning)Decision Rule Learningwheat&form

10、WHEATwheat&commodity WHEATbushels&export WHEATwheat&agriculture WHEATwheat&tonnes WHEATwheat&winter&soft WHEAT(粗糙集)RoughSet 逻辑表达式(AQ11算法)学习到如下规则The Widrow-Hoff ClassifierOnline Learning类c向量的第j个分量xi的第j个分量Learning RateTarget Value(0 or 1)Neural Network.c1c2cnInput LayerHidden LayerOutput LayerBackprop

11、agationBackpropagation支持向量机Support Vector MachineSupport VectorOptimal Separating Hyperplane基于投票的方法Bagging方法训练R个分类器fi,分类器之间其他相同就是参数不同。其中fi是通过从训练集合中(N篇文档)随机取(取后放回)N次文档构成的训练集合训练得到的。对于新文档d,用这R个分类器去分类,得到的最多的那个类别作为d的最终类别Boosting方法类似Bagging方法,但是训练是串行进行的,第k个分类器训练时关注对前k-1分类器中错分的文档,即不是随机取,而是加大取这些文档的概率(加大对错分样

12、本的学习能力)AdaBoost文本分类的评估指标分类方法的评估邻接表每个类Precision=a/(a+b),Recall=a/(a+c),fallout=b/(b+d)=false alarm rate,accuracy=(a+d)/(a+b+c+d),error=(b+c)/(a+b+c+d)=1-accuracy,miss rate=1-recallF=(2+1)p.r/(2p+r)Break Even Point,BEP,p=r的点如果多类排序输出,采用interpolated 11 point average precision所有类:宏平均:对每个类求值,然后平均微平均:将所有文档

13、一块儿计算,求值真正对的真正对的错误错误标标YESYESa ab b标标NONOc cd d其他分类方法Regression based on Least Squares Fit(1991)Nearest Neighbor Classification(1992)*Bayesian Probabilistic Models(1992)*Symbolic Rule Induction(1994)Decision Tree(1994)*Neural Networks(1995)Rocchio approach(traditional IR,1996)*Support Vector Machines

14、(1997)Boosting or Bagging(1997)*Hierarchical Language Modeling(1998)First-Order-Logic Rule Induction(1999)Maximum Entropy(1999)Hidden Markov Models(1999)Error-Correcting Output Coding(1999).Demo Show文本分类的一些新方向传统文本分类研究方向特征选择权重计算不平衡数据集分类训练集样本很少(半监督学习)Active-Learning:加入人工的因素基本上文本分类作为检验新的机器学习方法的平台新方向短文本

15、分类最大的问题:信息缺失Ask Google Snippet代价太高,仅供研究,不实用短文本分类利用Topic Model补充缺失信息语义信息补充现今的文本分类算法未考虑词的语义信息英文中:短语拆开成了单词Machine Learning,Statistical Learning,and Data Mining are related subjectsMachine Learning Machine+LearningConceptsTerms开方测试问题论文中的指标都是在封闭训练测试上计算Web上的文本错综复杂,不可能有统一的分类体系在训练集合A上的模型,自适应的转移到集合B中的文本分布?Tr

16、ansfer Learning主要问题在于成本较高其他一些问题多类别数目分类问题:比如类别数有成百上千的情况SVM?训练时一般采用One V.S.One方法如果一定要选,Nave Bayes方法更鲁棒分类速度:实用的角度不可能采用paper中的方法一般在速度和效果中寻求Tradeoff参考文献文献及其他资源PapersK.Aas and L.Eikvil.Text categorisation:A survey.Technical report,Norwegian Computing Center,June 1999 http:/ Su,“Text categorization”,Lesson PresentationYiming Yang and Xin Liu.1999.A re-examination of text categorization methods.22ndAnnual International SIGIRA Survey on Text Categorization,NLP Lab,Korean U.庞剑峰,基于向量空间模型的自反馈的文本分类系统的研究与实现,中

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1