干货教程大数据建模那点事.docx

上传人:b****8 文档编号:10508208 上传时间:2023-02-17 格式:DOCX 页数:17 大小:1.38MB
下载 相关 举报
干货教程大数据建模那点事.docx_第1页
第1页 / 共17页
干货教程大数据建模那点事.docx_第2页
第2页 / 共17页
干货教程大数据建模那点事.docx_第3页
第3页 / 共17页
干货教程大数据建模那点事.docx_第4页
第4页 / 共17页
干货教程大数据建模那点事.docx_第5页
第5页 / 共17页
点击查看更多>>
下载资源
资源描述

干货教程大数据建模那点事.docx

《干货教程大数据建模那点事.docx》由会员分享,可在线阅读,更多相关《干货教程大数据建模那点事.docx(17页珍藏版)》请在冰豆网上搜索。

干货教程大数据建模那点事.docx

干货教程大数据建模那点事

数据建模那点事儿

∙雪姬

∙2015-12-219:

57:

48

∙干货教程

∙评论

(2)

作者:

陈丹奕

今天要说内容是建模。

为啥我作为一个数学能力并不强的人要在这献丑讲建模的事呢?

其实我的目的很简单,就是为了告诉大家一个事实:

数据分析中的建模,并没有想象中那么高深莫测,人人都有机会做出自己的模型。

第一部分:

数据建模理论和逻辑

一、从数据分析的定义开始

维基百科对数据分析的定义如下:

Analysisofdataisaprocessofinspecting,cleaning,transforming,andmodelingdatawiththegoalofdiscoveringusefulinformation,suggestingconclusions,andsupportingdecisionmaking.Dataanalysishasmultiplefacetsandapproaches,encompassingdiversetechniquesunderavarietyofnames,indifferentbusiness,science,andsocialsciencedomains.

(来源:

Dataanalysis)

简单翻译:

数据分析是一个包含数据检验、数据清洗、数据重构,以及数据建模的过程,目的在于发现有用的信息,有建设性的结论,辅助决策的制定。

数据分析有多种形式和方法,涵盖了多种技术,应用于商业、科学、社会学等多个不同的领域。

和上篇文章中我画的图对比一下:

我在上篇文章中为了让初学者更容易走通全流程,简化了数据清洗的过程,实际上数据清洗绝非一次完成,“检验-清洗-检验”的过程可能会重复数次乃至数十次。

而建模呢?

再次引用维基上对数据建模的定义:

Datamodelingisaprocessusedtodefineandanalyzedatarequirementsneededtosupportthebusinessprocesseswithinthescopeofcorrespondinginformationsystemsinorganizations.Therefore,theprocessofdatamodelinginvolvesprofessionaldatamodelersworkingcloselywithbusinessstakeholders,aswellaspotentialusersoftheinformationsystem.(来源:

Datamodeling)

简单翻译:

数据建模是一个用于定义和分析在组织的信息系统的范围内支持商业流程所需的数据要求的过程。

因此,数据建模的过程需要专业建模师与商业人员和信息系统潜在用户的紧密合作。

这段话的定义更偏向信息系统和商业数据建模,我之所以在此引用这段话,是为了明确接下来的讨论内容主要方向是商业数据分析和建模,至于科学研究方向的数据建模,不在这篇文章的讨论范围以内。

请注意上边这段话中的一个核心:

支持商业流程。

商业数据建模,乃至商业数据分析,其最终目的都是要支持某种商业流程,要么优化原有流程,提高各部分效率;要么重构原有流程,减少步骤;要么告诉决策者,哪些流程改造方向是错误的,以避免走错路。

最终的目标,一定是提升效率。

但在不同的情况下,提升效率的方式也是不同的,因此在每个模型建立时,都需要确定其解决的具体目标问题。

再往前走一步,数学—主要是统计学,在建模的过程中又扮演什么样的角色呢?

继续引用维基:

Mathematicalformulasormodelscalledalgorithmsmaybeappliedtothedatatoidentifyrelationshipsamongthevariables,suchascorrelationorcausation.Ingeneralterms,modelsmaybedevelopedtoevaluateaparticularvariableinthedatabasedonothervariable(s)inthedata,withsomeresidualerrordependingonmodelaccuracy(i.e.,Data=Model+Error)(来源:

Datamodeling)

简单翻译:

数学公式或模型称为算法,可应用于数据以确定变量之间的关系,如相关性或因果关系。

在一般情况下,模型开发出来后用于评估一个特定的变量与数据中其他其他变量的关系,根据模型的准确性不同,这些关系中会包含残差(即,数据=模型+错误)

这段描述很明确,统计学在数据建模的过程中,主要用于帮助我们找出变量之间的关系,并对这种关系进行定量的描述,输出可用于数据集的算法。

一个好的数据模型,需要通过多次的测试和优化迭代来完成。

综上,给出一个我认为的“数据建模”定义:

数据集+商业目标+算法+优化迭代=数据建模。

定义中的每一部分都必不可少。

二、数据模型的建立过程

照例,先上流程图:

上图的流程颜色对应数据分析全流程,为了方便大家阅读,我把全流程图再贴一次:

接下来,我重点解读明黄色(浅黄?

)部分的内容:

∙选择变量与重构变量

在进行建模之前,首先要考虑的是使用哪些变量来建立模型,需要从业务逻辑和数据逻辑两个方面来考虑:

业务逻辑:

变量基于收集到的数据,而数据在收集时,会产生与业务层面相关的逻辑,比如在汽车参数中,一旦我们定义了“家用轿车”这个类别,那么无论什么品牌什么车型,“轮胎数量(不计备胎)”这个变量就有99%以上几率为4……当然在接下来的建模中,我们不会选择这个变量。

这一类情况是业务知识来告诉我们哪些变量可以选择,哪些不能选择。

数据逻辑:

通常从数据的完整性、集中度、是否与其他变量强相关(甚至有因果关系)等角度来考虑,比如某个变量在业务上很有价值,但缺失率达到90%,或者一个非布尔值变量却集中于两个值,那么这个时候我们就要考虑,加入这个变量是否对后续分析有价值。

我个人认为,在选择变量时,业务逻辑应该优先于数据逻辑,盖因业务逻辑是从实际情况中自然产生,而建模的结果也要反馈到实际中去,因此选择变量时,业务逻辑重要程度相对更高。

而在变量本身不适合直接拿来建模时,例如调查问卷中的满意度,是汉字的“不满意”“一般”“满意”,那么需要将其重构成“1”(对应不满意)“2”(对应一般)“3”(对应满意)的数字形式,便于后续建模使用。

除这种重构方式之外,将变量进行单独计算(如取均值)和组合计算(如A*B)也是常用的重构方法。

其他的重构方法还有很多种,在此不一一阐述。

∙选择算法

我们在建模时,目标是解决商业问题,而不是为了建模而建模,故此我们需要选择适合的算法。

常用建模算法包括相关、聚类、分类(决策树)、时间序列、回归、神经网络等。

以对消费者的建模为例,举一些场景下的常用算法对应:

划分消费者群体:

聚类,分类;

购物篮分析:

相关,聚类;

购买额预测:

回归,时间序列;

满意度调查:

回归,聚类,分类;

等等。

确定算法后,要再看一下变量是否满足算法要求,如果不满足,回到选择/重构变量,再来一遍吧。

如果满足,进入下一步。

∙设定参数

算法选定后,需要用数据分析工具进行建模。

针对不同的模型,需要调整参数,例如聚类模型中的K-means算法,需要给出希望聚成的类别数量,更进一步需要给出的起始的聚类中心和迭代次数上限。

这些参数在后续测试中会经过多次调整,很少有一次测试成功的情况,因此请做好心理准备。

∙加载算法与测试结果

算法跑完之后,要根据算法的输出结果来确定该算法是否能够解决问题,比如K-means的结果不好,那么考虑换成系统聚类算法来解决。

或者回归模型输出的结果不满足需求,考虑用时间序列来做。

如果不需要换算法,那么就测试一下算法输出的结果是否有提升空间,比如聚类算法中指定聚类结果包含4类人群,但发现其中的两类特征很接近,或者某一类人群没有明显特征,那么可以调整参数后再试。

在不断的调整参数,优化模型过程中,模型的解释能力和实用性会不断的提升。

当你认为模型已经能够满足目标需求了,那就可以输出结果了。

一个报告,一些规则,一段代码,都可能成为模型的输出。

在输出之后,还有最后一步:

接收业务人员的反馈,看看模型是否解决了他们的问题,如果没有,回到第一步,再来一次吧少年……

以上,就是建模的一般过程。

如果你有些地方觉得比较生涩,难以理解,也没有关系。

下一篇专栏中,我将向你们介绍一个具体的数据模型,我会对建模的过程一步步进行拆解,力求简明易懂。

第二部分:

数据建模的应用

我写了个建模的流程,有过建模经验的人自然懂,没有经验的各位也不要着急,这次我以一个真实模型为例,给大家详细讲述建模的各个步骤。

照例,先上流程图:

大家可以看到,这个图是由我之前文章中的两张图拼合而来,而我今天讲的这个真实模型,将把图中所有的流程都走一遍,保证一个步骤都不漏。

Step0:

项目背景

话说这个项目跟我加入XX有直接关系……

2013年的最后一天,我结束了在三亚的假期,准备坐飞机回家,这时候接到一个知乎私信,问我对XX的一个数据科学家(其实就是数据分析师啦)职位是否感兴趣,我立刻回信,定了元旦假期以后去面试。

两轮面试过后,面试官——也是我加入XX后的直属Leader——打电话给我,说他们对我的经历很满意,但是需要我给他们一份能体现建模能力的报告。

按说这也不是一件难事,但我翻了翻电脑后发现一个问题:

我从上家公司离职时,为了装13,一份跟建模相关的报告文件都没带……最后双方商定,我有一个星期时间来做一份报告,这份报告决定了我是否能加入XX。

那么,是时候展示我的技术了!

我的回合,抽卡!

Step1:

目标确定

看看报告的要求:

数据最好是通过抓取得来,需要用到至少一种(除描述统计以外)的建模技术,最好有数据可视化的展示

看来是道开放题,那么自然要选择一个我比较熟悉的领域,因此我选择了……《二手主机游戏交易论坛用户行为分析》

为啥选这个呢?

你们看了我那么多的Mario图,自然知道我会选主机游戏领域,但为什么是二手?

这要说到我待在国企的最后半年,那时候我一个月忙三天,剩下基本没事干,因此泡在论坛上倒卖了一段时间的二手游戏……

咳咳……总之,目标就确定了:

分析某二手主机游戏交易论坛上的帖子,从中得出其用户行为的描述,为用户进行分类,输出洞察报告。

Step2:

数据获取

简单来说,就是用python写了个定向爬虫,抓了某个著名游戏论坛的二手区所有的发帖信息,包括帖子内容、发帖人信息等,基本上就是长这个样子:

(打码方式比较简单粗暴,请凑合看吧……)

Step3:

数据清洗

这个模型中的数据清洗,主要是洗掉帖子中的无效信息,包括以下两类:

1、论坛由于其特殊性,很多人成交后会把帖子改成《已出》等标题,这一类数据需要删除:

2、有一部分人用直接贴图的方式放求购信息,这部分体现为只抓到图片链接,需要删除。

数据清洗结束了么?

其实并没有,后边会再进行一轮清洗……不过到时再说。

Step4:

数据整理

用上面的那些帖子数据其实是跑不出啥结果的,我们需要把数据整理成可以进一步分析的格式。

首先,我们给每条帖子打标签,标签分为三类:

行为类型(买OR卖OR换),目标厂商(微软OR索尼OR任天堂),目标对象(主机OR游戏软件)。

打标签模式是”符合关键词—打相应标签“的方法,关键词表样例如下:

(主机掌机那个标签后来我在实际操作时没有使用)

打完标签之后,会发现有很多帖子没有打上标签,原因有两种:

一是关键词没有涵盖所有的产品表述(比如三公主这种昵称),二是有一部分人发的帖子跟买卖游戏无关……

这让人怎么玩……第二次数据清洗开始,把这部分帖子也洗掉吧。

其次,我们用发帖用户作为视角,输出一份用户的统计表格,里边包含每个用户的发帖数、求购次数、出售次数、交换次数、每一类主机/游戏的行为次数等等,作为后续搭建用户分析模型之用。

表格大概长这个样子:

之后这个表的列数会越来越多,因为数据重构的工作都在此表中进行。

整理之后,我们准备进行描述统计。

Step5&6:

描述统计&洞察结论

描述统计在这个项目中的意义在于,描述这一社区的二手游戏及主机市场的基本情况,为后续用户模型的建立提供基础信息。

具体如何进行统计就不说了,直接放成品图,分别是从各主机市场份额、用户相互转化情况、地域分布情况进行的洞察。

Step7&8:

选择变量&选择算法

因为我要研究的是这些用户与二手交易相关的行为,因此初步选择变量为发帖数量、微软主机拥有台数、索尼主机拥有台数、任天堂主机拥有台数。

算法上面,我们的目标是将用户分群,因此选择聚类,方法选择最简单的K-means算法。

Step9&10:

设定参数&加载算法

K-means算法除了输入变量以外,还需要设定聚类数,我们先拍脑袋聚个五类吧!

(别笑,实际操作中很多初始参数都是靠拍脑袋得来的,要通过结果来逐步优化)

看看结果:

第一类别的用户数跟总体已经很接近了,完全没有区分度啊!

Step7‘&8’&9‘&10’&11:

选择变量&选择算法&设定参数&加载算法&重构变量

这一节你看标题都这么长……

既然我们用原始值来聚类的结果不太好,那么我把原始值重构成若干档次,比如发帖1-10的转换为1,10-50的转换为2,依次类推,再聚一次看看结果。

哦哦!

看上去有那么点意思了!

不过有一类的数量还是有一点少,我们聚成四类试试:

哦哦,完美!

我们运气不错,一次变量重构就输出了一个看上去还可以的模型结果,接下来去测试一下吧。

Step12:

结果测试

测试过程中,很重要的一步是要看模型的可解释性,如果可解释性较差,那么打回重做……

接下来,我们看看每一类的统计数据:

这个表出来以后,基本上可以对我们聚类结果中的每一类人群进行解读了。

结果测试通过!

Step13&14&15:

输出规则&模型加载&报告撰写

这个模型不用回朔到系统中,因为仅仅是一个我们用来研究的模型而已。

因此,输出规则和模型加载两步可以跳过,直接进入报告撰写。

聚类模型的结果可归结为下图:

眼熟不?

在我的第二篇专栏文章第一份数据报告的诞生–一个数据分析师的自我修养 中,我用这张图来说明了洞察结论的重要性,现在你们应该知道这张图是如何得来的了。

撰写报告的另外一部分,在描述统计-洞察结论的过程中已经提到了,把两部分放在一次,加上背景、研究方法等内容,就是完整的报告啦!

最后附送几张各类用户发帖内容中的关键词词云图:

那么,这篇文章就到此结束了,最后的最后,公布一下我做这份报告用到的工具:

大家可以看到,要当一个数据分析师,要用到很多类别的工具,多学一点总是没有坏处的,在此与大家共勉。

本文来自作者陈丹奕的知乎专栏>>>

End.

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 职业教育 > 其它

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1