ImageVerifierCode 换一换
格式:DOCX , 页数:11 ,大小:303.35KB ,
资源ID:9478207      下载积分:3 金币
快捷下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

加入VIP,免费下载
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.bdocx.com/down/9478207.html】到电脑端继续下载(重复下载不扣费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  

下载须知

1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
2: 试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。
3: 文件的所有权益归上传用户所有。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

本文(机器学习框架解析.docx)为本站会员(b****8)主动上传,冰豆网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知冰豆网(发送邮件至service@bdocx.com或直接QQ联系客服),我们立即给予删除!

机器学习框架解析.docx

1、机器学习框架解析机器学习框架解析数据科学家Abhishek Thakur,在他的 Linkedin 发表了一篇文章Approaching (Almost) Any Machine Learning Problem,介绍他建立的一个自动的机器学习框架,几乎可以解决任何机器学习问题,项目很快也会发布出来。这篇文章迅速火遍 Kaggle,据说数据科学家 60-70 的时间都花在数据清洗和应用模型算法上面,这个框架主要针对算法的应用部分。什么是 Kaggle?Kaggle是一个数据科学竞赛的平台,很多公司会发布一些接近真实业务的问题,吸引爱好数据科学的人来一起解决,可以通过这些数据积累经验,提高机器学

2、习的水平。应用算法解决 Kaggle 问题,一般有以下几个步骤: 第一步:识别问题 第二步:分离数据 第三步:构造提取特征 第四步:组合数据 第五步:分解 第六步:选择特征 第七步:选择算法进行训练当然,工欲善其事,必先利其器,要先把工具和包都安好。最方便的就是安装 Anaconda,这里面包含大部分数据科学所需要的包,直接引入就可以了,常用的包有: pandas:常用来将数据转化成 dataframe 形式进行操作 scikit-learn:里面有要用到的机器学习算法模型 matplotlib:用来画图 xgboost,keras,tqdm 等。第一步:识别问题在这一步先明确这个问题是分类还

3、是回归。通过问题和数据就可以判断出来,数据由 X 和 label 列构成,label 可以一列也可以多列,可以是二进制也可以是实数,当它为二进制时,问题属于分类,当它为实数时,问题属于回归。第二步:分离数据为什么需要将数据分成两部分?用Training Data来训练模型,用Validation Data来检验这个模型的表现,不然的话,通过各种调节参数,模型可以在训练数据集上面表现的非常出色,但是这可能会是过拟合,过拟合就是太依赖现有的数据了,拟合的效果特别好,但是只适用于训练集,以致于来一个新的数据,就不知道该预测成什么了。所以需要有Validation来验证一下,看这个模型是在那里自娱自乐

4、呢,还是真的表现出色。在 scikit learn 包里就有工具可以帮你做到这些:分类问题用 StrtifiedKFoldfrom sklearn.cross_validation import StratifiedKFold回归问题用 KFoldfrom sklearn.cross_validation import KFold第三步:构造特征这个时候,需要将数据转化成模型需要的形式。数据有三种类型:数字,类别,文字。当数据是类别的形式时,需要将它的每一类提取出来作为单独一列,然后用二进制表示每条记录相应的值。例如:record 1:性别 女record 2:性别 女record 3:性别

5、男转化之后就是:女 男record 1:1 0record 2:1 0record 3:0 1这个过程 sklearn 也可以帮你做到:from sklearn.preprocessing import LabelEncoder或者from sklearn.preprocessing import OneHotEncoder第四步:组合数据处理完 Feature 之后,就将它们组合到一起。如果数据是稠密的,就可以用 numpy 的 hstack:import numpy as npX = np.hstack(x1, x2, .)如果是稀疏的,就用 sparse 的 hstack:from sc

6、ipy import sparseX = sparse.hstack(x1, x2, .)组合之后,就可以应用以下算法模型: RandomForestClassifier RandomForestRegressor ExtraTreesClassifier ExtraTreesRegressor XGBClassifier XGBRegressor但是不能应用线性模型,线性模型之前需要对数据进行正则化而不是上述预处理。第五步:分解这一步是为了进一步优化模型,可以用以下方法:PCA:Principal components analysis,主成分分析,是一种分析、简化数据集的技术。用于减少数据

7、集的维数,同时保持数据集中的对方差贡献最大的特征。from sklearn.decomposition import PCA对于文字数据,在转化成稀疏矩阵之后,可以用 SVDfrom sklearn.decomposition import TruncatedSVDSVD:Singular Value Decomposition,奇异值分解,是线性代数中一种重要的矩阵分解,它总能找到标准化正交基后方差最大的维度,因此用它进行降维去噪。第六步:选择特征当特征个数越多时,分析特征、训练模型所需的时间就越长,容易引起“维度灾难”,模型也会越复杂,推广能力也会下降,所以需要剔除不相关或亢余的特征。常用

8、的算法有完全搜索,启发式搜索,和随机算法。例如,Random Forest:from sklearn.ensemble import RandomForestClassifier或者 xgboost:import xgboost as xgb对于稀疏的数据,比较有名的方法是chi-2:from sklearn.feature_selection import SelectKBestfrom sklearn.feature_selection import chi2第七步:选择算法进行训练选择完最相关的参数之后,接下来就可以应用算法,常用的算法有:Classification: Random F

9、orest GBM Logistic Regression Naive Bayes Support Vector Machines k-Nearest NeighborsRegression: Random Forest GBM Linear Regression Ridge Lasso SVR在scikitlearn里可以看到分类和回归的可用的算法一览,包括它们的原理和例子代码。在应用各算法之前先要明确这个方法到底是否合适。为什么那么多算法里,只提出这几个算法呢,这就需要对比不同算法的性能了。这篇神文Do we Need Hundreds of Classifiers to Solve Re

10、al World Classification Problems测试了179种分类模型在UCI所有的121个数据上的性能,发现Random Forests 和 SVM 性能最好。我们可以学习一下里面的调研思路,看看是怎么样得到比较结果的,在我们的实践中也有一定的指导作用。但是直接应用算法后,一般精度都不是很理想,这个时候需要调节参数,最干货的问题来了,什么模型需要调节什么参数呢?虽然在sklearn的文档里,会列出所有算法所带有的参数,但是里面并不会说调节哪个会有效。在一些mooc课程里,有一些项目的代码,里面可以看到一些算法应用时,他们重点调节的参数,但是有的也不会说清楚为什么不调节别的。这

11、里作者根据他100多次比赛的经验,列出了这个表,我觉得可以借鉴一下,当然,如果有时间的话,去对照文档里的参数列表,再查一下算法的原理,通过理论也是可以判断出来哪个参数影响比较大的。调参之后,也并不就是大功告成,这个时候还是需要去思考,是什么原因造成精度低的,是哪些数据的深意还没有被挖掘到,这个时候需要用统计和可视化去再一次探索数据,之后就再走一遍上面的过程。我觉得这里还提到了很有用的一条经验是,把所有的 transformer 都保存起来,方便在 validation 数据集上面应用:文章里介绍了分析问题的思路,还提到了几条很实用的经验,不过经验终究是别人的经验,只能借鉴,要想提高自己的水平,还是要看到作者背后的事情,就是参加了100多次实战,接下来就去行动吧,享受用算法和代码与数据燃起的兴奋吧。

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1