ImageVerifierCode 换一换
格式:DOCX , 页数:9 ,大小:24.36KB ,
资源ID:829353      下载积分:3 金币
快捷下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

加入VIP,免费下载
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.bdocx.com/down/829353.html】到电脑端继续下载(重复下载不扣费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  

下载须知

1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
2: 试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。
3: 文件的所有权益归上传用户所有。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

本文(机器学习方法有哪些.docx)为本站会员(b****4)主动上传,冰豆网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知冰豆网(发送邮件至service@bdocx.com或直接QQ联系客服),我们立即给予删除!

机器学习方法有哪些.docx

1、机器学习方法有哪些机器学习方法有哪些数学基础有无数激情满满大步向前,誓要在机器学习领域有一番作为的同 学,在看到公式的一刻突然就觉得自己狗带了。是啊,机器学习之 所以相对于其他开发工作,更有门槛的根本原因就是数学。每一个 算法,要在训练集上最大程度拟合同时又保证泛化能力,需要不断 分析结果和数据,调优参数,这需要我们对数据分布和模型底层的 数学原理有一定的理解。所幸的是如果只是想合理应用机器学习, 而不是做相关方向高精尖的 research ,需要的数学知识啃一啃还是 基本能理解下来的。至于更高深的部分,恩,博主非常愿意承认自 己是数学渣。基本所有常见机器学习算法需要的数学基础,都集中在微积分

2、、 线性代数和概率与统计当中。下面我们先过一过知识重点,文章的 后部分会介绍一些帮助学习和巩固这些知识的资料。微积分微分的计算及其几何、物理含义,是机器学习中大多数算法的求 解过程的核心。比如算法中运用到梯度下降法、牛顿法等。如果对 其几何意义有充分的理解,就能理解“梯度下降是用平面来逼近局 部,牛顿法是用曲面逼近局部”,能够更好地理解运用这样的方法。凸优化和条件最优化的相关知识在算法中的应用随处可见,如果 能有系统的学习将使得你对算法的认识达到一个新高度。线性代数大多数机器学习的算法要应用起来,依赖于高效的计算,这种场 景下,程序员 GG们习惯的多层 for 循环通常就行不通了,而大多数 的

3、循环操作可转化成矩阵之间的乘法运算,这就和线性代数有莫大 的关系了向量的内积运算更是随处可见。矩阵乘法与分解在机器学习的主成分分析 (PCA)和奇异值分解 (SVD)等部分呈现刷屏状地出现。概率与统计从广义来说,机器学习在做的很多事情,和统计层面数据分析和 发掘隐藏的模式,是非常类似的。极大似然思想、贝叶斯模型是理论基础,朴素贝叶斯(Na?veBayes) 、语言模型 (N-gram) 、隐马尔科夫 (HMM、) 隐变量混合 概率模型是他们的高级形态。常见分布如高斯分布是混合高斯模型 (GMM等) 的基础。典型算法绝大多数问题用典型机器学习的算法都能解决,粗略地列举一下 这些方法如下:处理分类

4、问题的常用算法包括:逻辑回归 (工业界最常用 ) ,支持 向量机,随机森林,朴素贝叶斯 (NLP 中常用) ,深度神经网络 ( 视频、 图片、语音等多媒体数据中使用 ) 。处理回归问题的常用算法包括:线性回归,普通最小二乘回归(OrdinaryLeastSquaresRegression) ,逐步回归 (StepwiseRegression) ,多元自适应回归样条 (MultivariateAdaptiveRegressionSplines)处理聚类问题的常用算法包括: K均值(K-means) ,基于密度聚 类, LDA等等。降维的常用算法包括:主成分分析 (PCA),奇异值分解 (SVD)

5、等。模型融合 (modelensemble) 和提升 (boosting) 的算法包括: bagging ,adaboost ,GBD,T GBRT其他很重要的算法包括: EM算法等等。我们多插一句,机器学习里所说的“算法”与程序员所说的“数 据结构与算法分析”里的“算法”略有区别。前者更关注结果数据 的召回率、精确度、准确性等方面,后者更关注执行过程的时间复 杂度、空间复杂度等方面。当然,实际机器学习问题中,对效率 和资源占用的考量是不可或缺的。编程语言、工具和环境看了无数的理论与知识,总归要落到实际动手实现和解决问题上。 而没有工具所有的材料和框架、逻辑、思路都给你,也寸步难行。 因此我们

6、还是得需要合适的编程语言、工具和环境帮助自己在数据 集上应用机器学习算法,或者实现自己的想法。对初学者而言, Python 和 R 语言是很好的入门语言,很容易上手,同时又活跃的社 区支持,丰富的工具包帮助我们完成想法。相对而言,似乎计算机 相关的同学用 Python 多一些,而数学统计出身的同学更喜欢 R 一些 我们对编程语言、工具和环境稍加介绍:pythonpython 有着全品类的数据科学工具,从数据获取、数据清洗到 整合各种算法都做得非常全面。网页爬虫 :scrapy数据挖掘 :pandas:模拟 R,进行数据浏览与预处理。numpy:数组运算。scipy :高效的科学计算。matpl

7、otlib :非常方便的数据可视化工具。机器学习 :scikit-learn :远近闻名的机器学习 package。未必是最高效的, 但是接口真心封装得好,几乎所有的机器学习算法输入输出部分格 式都一致。而它的支持文档甚至可以直接当做教程来学习,非常用心。对于不是非常高纬度、高量级的数据, scikit-learn 胜任得非 常好( 有兴趣可以看看 sklearn 的源码,也很有意思 ) 。libsvm :高效率的 svm模型实现 ( 了解一下很有好处, libsvm 的 系数数据输入格式,在各处都非常常见 )keras/TensorFlow :对深度学习感兴趣的同学,也能很方便地搭 建自己的

8、神经网络了。自然语言处理 :nltk :自然语言处理的相关功能做得非常全面,有典型语料库, 而且上手也非常容易。交互式环境:R最大的优势是开源社区,聚集了非常多功能强大可直接使用的 包,绝大多数的机器学习算法在 R中都有完善的包可直接使用,同 时文档也非常齐全。常见的 package 包括: RGtk2,pmml,colorspace,ada,amap,arules,biclust,cba,descr,doB y,e1071,ellipse 等等。另外,值得一提的是 R的可视化效果做得 非常不错,而这对于机器学习是非常有帮助的。其他语言相应资深程序员 GG的要求,再补充一下 java 和 C+

9、相关机器学 习 package。Java 系列WEKAMachineLearningWorkbench相当于 java 中的 scikit-learn 其他的工具如 MassiveOnlineAnalysis(MOA) 、 MEK、A Mallet 等 也非常有名。更多详细的应用请参考这篇文章 25 个 Java 机器学习工具 &库C+系列mlpack,高效同时可扩充性非常好的机器学习库。Shark :文档齐全的老牌 C+机器学习库。大数据相关Hadoop:基本上是工业界的标配了。一般用来做特征清洗、特征 处理的相关工作。spark :提供了 MLlib 这样的大数据机器学习平台,实现了很多

10、常用算法。但可靠性、稳定性上有待提高。操作系统mac和 linux 会方便一些,而 windows 在开发中略显力不从心。 所谓方便,主要是指的 mac和 linux 在下载安装软件、配置环境更 快捷。基本工作流程以上我们基本具备了机器学习的必要条件,剩下的就是怎么运用 它们去做一个完整的机器学习项目。其工作流程如下 :抽象成数学问题明确问题是进行机器学习的第一步。机器学习的训练过程通常都 是一件非常耗时的事情,胡乱尝试时间成本是非常高的。这里的抽象成数学问题,指的我们明确我们可以获得什么样的数 据,目标是一个分类还是回归或者是聚类的问题,如果都不是的话, 如果划归为其中的某类问题。获取数据数

11、据决定了机器学习结果的上限,而算法只是尽可能逼近这个上 限。数据要有代表性,否则必然会过拟合。而且对于分类问题,数据偏斜不能过于严重,不同类别的数据数 量不要有数个数量级的差距而且还要对数据的量级有一个评估,多少个样本,多少个特征, 可以估算出其对内存的消耗程度,判断训练过程中内存是否能够放 得下。如果放不下就得考虑改进算法或者使用一些降维的技巧了。 如果数据量实在太大,那就要考虑分布式了。特征预处理与特征选择良好的数据要能够提取出良好的特征才能真正发挥效力。特征预处理、数据清洗是很关键的步骤,往往能够使得算法的效 果和性能得到显著提高。归一化、离散化、因子化、缺失值处理、 去除共线性等,数据

12、挖掘过程中很多时间就花在它们上面。这些工 作简单可复制,收益稳定可预期,是机器学习的基础必备步骤。筛选出显著特征、摒弃非显著特征,需要机器学习工程师反复理 解业务。这对很多结果有决定性的影响。特征选择好了,非常简单 的算法也能得出良好、稳定的结果。这需要运用特征有效性分析的 相关技术,如相关系数、卡方检验、平均互信息、条件熵、后验概 率、逻辑回归权重等方法。训练模型与调优直到这一步才用到我们上面说的算法进行训练。现在很多算法都 能够封装成黑盒供人使用。但是真正考验水平的是调整这些算法的 ( 超 ) 参数,使得结果变得更加优良。这需要我们对算法的原理有深 入的理解。理解越深入,就越能发现问题的症

13、结,提出良好的调优 方案。模型诊断如何确定模型调优的方向与思路呢 ?这就需要对模型进行诊断的 技术。过拟合、欠拟合判断是模型诊断中至关重要的一步。常见的方法 如交叉验证,绘制学习曲线等。过拟合的基本调优思路是增加数据 量,降低模型复杂度。欠拟合的基本调优思路是提高特征数量和质 量,增加模型复杂度。误差分析也是机器学习至关重要的步骤。通过观察误差样本,全 面分析误差产生误差的原因 : 是参数的问题还是算法选择的问题,是 特征的问题还是数据本身的问题诊断后的模型需要进行调优,调优后的新模型需要重新进行诊断, 这是一个反复迭代不断逼近的过程,需要不断地尝试,进而达到最 优状态。模型融合一般来说,模型

14、融合后都能使得效果有一定提升。而且效果很好。工程上,主要提升算法准确度的方法是分别在模型的前端 ( 特征 清洗和预处理,不同的采样模式 )与后端(模型融合 )上下功夫。因为 他们比较标准可复制,效果比较稳定。而直接调参的工作不会很多, 毕竟大量数据训练起来太慢了,而且效果难以保证。上线运行这一部分内容主要跟工程实现的相关性比较大。工程上是结果导 向,模型在线上运行的效果直接决定模型的成败。不单纯包括其准 确程度、误差等情况,还包括其运行的速度 (时间复杂度 )、资源消 耗程度(空间复杂度 ) 、稳定性是否可接受。这些工作流程主要是工程实践上总结出的一些经验。并不是每个 项目都包含完整的一个流程

15、。这里的部分只是一个指导性的说明, 只有大家自己多实践,多积累项目经验,才会有自己更深刻的认识。关于积累项目经验初学机器学习可能有一个误区,就是一上来就陷入到对各种高大 上算法的追逐当中。动不动就我能不能用深度学习去解决这个问题 啊 ?我是不是要用 boosting 算法做一些模型融合啊 ?我一直持有一个 观点,脱离业务和数据的算法讨论是毫无意义的。实际上按我们的学习经验,从一个数据源开始,即使是用最传统, 已经应用多年的机器学习算法,先完整地走完机器学习的整个工作 流程,不断尝试各种算法深挖这些数据的价值,在运用过程中把数据、特征和算法搞透,真正积累出项目经验才是最快、最靠谱的学 习路径。那

16、如何获取数据和项目呢 ?一个捷径就是积极参加国内外各种数 据挖掘竞赛,数据直接下载下来,按照竞赛的要求去不断优化,积 累经验。国外的 Kaggle 和国内的 DataCastle 以及阿里天池比赛都 是很好的平台,你可以在上面获取真实的数据和数据科学家们一起 学习和进行竞赛,尝试使用已经学过的所有知识来完成这个比赛本 身也是一件很有乐趣的事情。和其他数据科学家的讨论能开阔视野, 对机器学习算法有更深层次的认识。有意思的是,有些平台,比如阿里天池比赛,甚至给出了从数据 处理到模型训练到模型评估、可视化到模型融合增强的全部组件,你要做的事情只是参与 比赛,获取数据,然后使用这些组件去实现自己的 idea

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1