机器学习框架解析Word文件下载.docx

上传人:b****8 文档编号:22614254 上传时间:2023-02-04 格式:DOCX 页数:11 大小:303.35KB
下载 相关 举报
机器学习框架解析Word文件下载.docx_第1页
第1页 / 共11页
机器学习框架解析Word文件下载.docx_第2页
第2页 / 共11页
机器学习框架解析Word文件下载.docx_第3页
第3页 / 共11页
机器学习框架解析Word文件下载.docx_第4页
第4页 / 共11页
机器学习框架解析Word文件下载.docx_第5页
第5页 / 共11页
点击查看更多>>
下载资源
资源描述

机器学习框架解析Word文件下载.docx

《机器学习框架解析Word文件下载.docx》由会员分享,可在线阅读,更多相关《机器学习框架解析Word文件下载.docx(11页珍藏版)》请在冰豆网上搜索。

机器学习框架解析Word文件下载.docx

∙第三步:

构造提取特征

∙第四步:

组合数据

∙第五步:

分解

∙第六步:

选择特征

∙第七步:

选择算法进行训练

当然,工欲善其事,必先利其器,要先把工具和包都安好。

最方便的就是安装Anaconda,这里面包含大部分数据科学所需要的包,直接引入就可以了,常用的包有:

∙pandas:

常用来将数据转化成dataframe形式进行操作 

∙scikit-learn:

里面有要用到的机器学习算法模型 

∙matplotlib:

用来画图 

∙xgboost,keras,tqdm等。

第一步:

在这一步先明确这个问题是分类还是回归。

通过问题和数据就可以判断出来,数据由X和label列构成,label可以一列也可以多列,可以是二进制也可以是实数,当它为二进制时,问题属于分类,当它为实数时,问题属于回归。

第二步:

为什么需要将数据分成两部分?

用TrainingData来训练模型,用ValidationData来检验这个模型的表现,不然的话,通过各种调节参数,模型可以在训练数据集上面表现的非常出色,但是这可能会是过拟合,过拟合就是太依赖现有的数据了,拟合的效果特别好,但是只适用于训练集,以致于来一个新的数据,就不知道该预测成什么了。

所以需要有Validation来验证一下,看这个模型是在那里自娱自乐呢,还是真的表现出色。

在scikitlearn包里就有工具可以帮你做到这些:

分类问题用StrtifiedKFold

fromsklearn.cross_validationimportStratifiedKFold

回归问题用KFold

fromsklearn.cross_validationimportKFold

第三步:

构造特征

这个时候,需要将数据转化成模型需要的形式。

数据有三种类型:

数字,类别,文字。

当数据是类别的形式时,需要将它的每一类提取出来作为单独一列,然后用二进制表示每条记录相应的值。

例如:

record1:

性别女 

record2:

record3:

性别男

转化之后就是:

女男 

1

这个过程sklearn也可以帮你做到:

fromsklearn.preprocessingimportLabelEncoder

或者

fromsklearn.preprocessingimportOneHotEncoder

第四步:

处理完Feature之后,就将它们组合到一起。

如果数据是稠密的,就可以用numpy的hstack:

importnumpyasnp

X=np.hstack((x1,x2,...))

如果是稀疏的,就用sparse的hstack:

fromscipyimportsparse

X=sparse.hstack((x1,x2,...))

组合之后,就可以应用以下算法模型:

∙RandomForestClassifier 

∙RandomForestRegressor 

∙ExtraTreesClassifier 

∙ExtraTreesRegressor 

∙XGBClassifier 

∙XGBRegressor

但是不能应用线性模型,线性模型之前需要对数据进行正则化而不是上述预处理。

第五步:

这一步是为了进一步优化模型,可以用以下方法:

PCA:

Principalcomponentsanalysis,主成分分析,是一种分析、简化数据集的技术。

用于减少数据集的维数,同时保持数据集中的对方差贡献最大的特征。

fromsklearn.decompositionimportPCA

对于文字数据,在转化成稀疏矩阵之后,可以用SVD

fromsklearn.decompositionimportTruncatedSVD

SVD:

SingularValueDecomposition,奇异值分解,是线性代数中一种重要的矩阵分解,它总能找到标准化正交基后方差最大的维度,因此用它进行降维去噪。

第六步:

当特征个数越多时,分析特征、训练模型所需的时间就越长,容易引起“维度灾难”,模型也会越复杂,推广能力也会下降,所以需要剔除不相关或亢余的特征。

常用的算法有完全搜索,启发式搜索,和随机算法。

例如,RandomForest:

fromsklearn.ensembleimportRandomForestClassifier

或者xgboost:

importxgboostasxgb

对于稀疏的数据,比较有名的方法是chi-2:

fromsklearn.feature_selectionimportSelectKBest

fromsklearn.feature_selectionimportchi2

第七步:

选择完最相关的参数之后,接下来就可以应用算法,常用的算法有:

Classification:

∙RandomForest 

∙GBM 

∙LogisticRegression 

∙NaiveBayes 

∙SupportVectorMachines 

∙k-NearestNeighbors

Regression:

∙LinearRegression 

∙Ridge 

∙Lasso 

∙SVR

在scikit-learn里可以看到分类和回归的可用的算法一览,包括它们的原理和例子代码。

在应用各算法之前先要明确这个方法到底是否合适。

为什么那么多算法里,只提出这几个算法呢,这就需要对比不同算法的性能了。

这篇神文 

DoweNeedHundredsofClassifierstoSolveRealWorldClassificationProblems 

测试了179种分类模型在UCI所有的121个数据上的性能,发现RandomForests和SVM性能最好。

我们可以学习一下里面的调研思路,看看是怎么样得到比较结果的,在我们的实践中也有一定的指导作用。

但是直接应用算法后,一般精度都不是很理想,这个时候需要调节参数,最干货的问题来了,什么模型需要调节什么参数呢?

虽然在sklearn的文档里,会列出所有算法所带有的参数,但是里面并不会说调节哪个会有效。

在一些mooc课程里,有一些项目的代码,里面可以看到一些算法应用时,他们重点调节的参数,但是有的也不会说清楚为什么不调节别的。

这里作者根据他100多次比赛的经验,列出了这个表,我觉得可以借鉴一下,当然,如果有时间的话,去对照文档里的参数列表,再查一下算法的原理,通过理论也是可以判断出来哪个参数影响比较大的。

调参之后,也并不就是大功告成,这个时候还是需要去思考,是什么原因造成精度低的,是哪些数据的深意还没有被挖掘到,这个时候需要用统计和可视化去再一次探索数据,之后就再走一遍上面的过程。

我觉得这里还提到了很有用的一条经验是,把所有的transformer都保存起来,方便在validation数据集上面应用:

文章里介绍了分析问题的思路,还提到了几条很实用的经验,不过经验终究是别人的经验,只能借鉴,要想提高自己的水平,还是要看到作者背后的事情,就是参加了100多次实战,接下来就去行动吧,享受用算法和代码与数据燃起的兴奋吧。

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 自然科学 > 天文地理

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1