全国职业院校技能大赛大数据题库任务书4.docx

上传人:b****8 文档编号:10467203 上传时间:2023-02-13 格式:DOCX 页数:24 大小:29.63KB
下载 相关 举报
全国职业院校技能大赛大数据题库任务书4.docx_第1页
第1页 / 共24页
全国职业院校技能大赛大数据题库任务书4.docx_第2页
第2页 / 共24页
全国职业院校技能大赛大数据题库任务书4.docx_第3页
第3页 / 共24页
全国职业院校技能大赛大数据题库任务书4.docx_第4页
第4页 / 共24页
全国职业院校技能大赛大数据题库任务书4.docx_第5页
第5页 / 共24页
点击查看更多>>
下载资源
资源描述

全国职业院校技能大赛大数据题库任务书4.docx

《全国职业院校技能大赛大数据题库任务书4.docx》由会员分享,可在线阅读,更多相关《全国职业院校技能大赛大数据题库任务书4.docx(24页珍藏版)》请在冰豆网上搜索。

全国职业院校技能大赛大数据题库任务书4.docx

全国职业院校技能大赛大数据题库任务书4

 

2021年全国职业院校技能大赛

高职组

 

“大数据技术与应用”

赛项赛卷(GZ-xxxxxxx-X卷)

 

参赛队编号:

背景描述

据央视财经报道,2020年我国O2O市场规模突破万亿元,O2O市场存在着巨大的潜力。

特别是餐饮和外卖行业,占据市场较大份额,并且业务增长迅速。

截至2020年底,全国外卖总体订单量已超过171.2亿单,同比增长7.5%,全国外卖市场交易规模达到8352亿元,同比增长14.8%。

我国外卖用户规模已接近5亿人,其中80后、90后是餐饮外卖服务的中坚消费力量,消费者使用餐饮外卖服务也不再局限于传统的一日三餐,下午茶和夜宵逐渐成为消费者的外卖新宠。

为把握这一商业机遇,ChinaSkills公司计划进驻外卖平台市场,现需对大规模成熟外卖平台进行详细评估调研,采集多方多维度数据,寻找行业痛点,摸清市场需求,以技术为手段为投资保驾护航。

为完成该项工作,你所在的小组将应用大数据技术,以Python、Java、Scala作为整个项目的基础开发语言,基于大数据平台综合利用MapReduce、Spark、MySQL、Scrapy、Flask、ECharts等,对数据进行获取、处理、清洗、挖掘、分析、可视化呈现,力求实现对公司未来的重点战略方向提出建议。

你们作为该小组的技术人员,请按照下面任务完成本次工作,并编制综合报告。

模块A:

环境搭建(15分)

环境说明:

编号

主机名

类型

用户

密码

1

master

主节点

root

123456

2

slave1

从节点

root

123456

3

slave2

从节点

root

123456

补充说明:

主节点MySQL数据库用户名/密码:

root/123456

相关软件安装包在/chinaskills目录下

所有模块中应用命令必须采用绝对路径

任务一:

Hadoop全分布部署管理

本环节需要使用root用户完成相关配置,安装Hadoop需要配置前置环境。

命令中要求使用绝对路径,具体部署要求如下:

1、将/chinaskills下的JDK包解压到/usr/local/src路径,将完整命令复制粘贴到对应报告中;

2、修改/root/.bash_profile文件,设置JDK环境变量,并使环境变量只对当前root用户生效将环境变量配置内容复制粘贴至对应报告中;

3、从master复制上面步骤配置的JDK环境变量文件到slave1、slave2节点,命令和结果复制粘贴在对应报告中;

4、配置SSH密钥登录,实现从master登录到slave1,将登录命令和结果复制粘贴在对应报告中;

5、根据要求修改Hadoop相关文件(hadoop-env.sh、core-site.xml、hdfs-site.xml、mapred-site.xml、yarn-site.xml),并初始化Hadoop。

1)将配置文件hadoop-env.sh变更内容复制粘贴在对应报告中;

2)将配置文件core-site.xml变更内容复制粘贴在对应报告中;

3)初始化Hadoop环境,将命令及结果复制粘贴在对应报告中;

6、查看master及slave1节点jps进程,将其命令及结果复制粘贴至对应报告中。

任务二:

Sqoop部署管理

本环节需要使用root用户完成相关配置,已安装Hadoop及需要配置前置环境,具体部署要求如下:

1、解压/chinaskills路径下的Sqoop安装包到/usr/local/src路径下,并使用相关命令,修改解压后文件夹名为sqoop,进入sqoop文件夹,并将查看内容复制粘贴至对应报告中;

2、修改Sqoop环境变量,并使环境变量只对当前root用户生效;具体任务要求:

修改基于当前用户root的环境变量,将环境变量配置内容复制粘贴至对应报告中;

3、修改并配置sqoop-env.sh文件,将命令及结果复制粘贴至对应报告中;

4、测试Sqoop连接MySQL数据库是否成功,将命令及结果复制粘贴至对应报告中。

具体任务要求:

使用sqoop命令连接MySQL数据库,查询MySQL中所有数据库名称,将命令及结果复制粘贴至对应报告中;

任务三:

Hive部署管理

本环节需要使用root用户完成相关配置,已安装Hadoop及需要配置前置环境,具体部署要求如下:

1、将指定路径下的Hive安装包解压到(/usr/local/src)下,使用绝对路径,将命令复制并粘贴至对应报告中;

2、把解压后的apache-hive-1.1.0-bin文件夹更名为hive;进入hive文件夹,并将查看命令及结果复制并粘贴至对应报告中;

3、设置Hive环境变量,并使环境变量只对当前root用户生效;并将环境变量配置内容复制并粘贴至对应报告中;

4、将Hive安装目录里hive-default.xml.template文件更名为hive-site.xml;并将更改命令复制并粘贴至对应报告中;

5、通过VI编辑器配置hive-site.xml文件,将MySQL数据库作为Hive元数据库。

将配置文件Hive元存储相关内容复制并粘贴至对应报告中;

6、初始化Hive元数据,将MySQL数据库JDBC驱动拷贝到Hive安装目录的lib文件夹下;并通过schematool执行初始化,将初始化结果复制粘贴至对应报告中;

7、启动Hive并保存命令输出结果,将结果输出复制粘贴至对应报告中。

模块B:

数据采集与处理(20分)

项目背景说明

1、查看餐饮外送统计平台网站源码结构。

1)打开网站,在网页中右键点击检查,或者F12快捷键,查看源码页面;

2)检查网站:

浏览网站源码查看所需内容。

2、从餐饮外送统计平台中采集需要数据,按照要求使用Python语言编写代码工程,获取指定数据项,并对结果数据集进行必要的数据处理。

请将符合任务要求的结果复制粘贴至对应报告中。

具体步骤如下:

1)创建工程工程项目:

C:

\food_delivery_crawl

2)构建采集请求

3)按要求定义相关字段

4)获取有效数据

5)将获取到的数据保存到指定位置

6)对数据集进行基础的数据处理

至此已从餐饮外送统计平台中获取所需数据,并完成了必要的基础的数据处理。

3、自行创建Scrapy工程项目food_delivery_crawl,路径为C:

\food_delivery_crawl按照任务要求从餐饮外送统计平台中获取数据。

4、每条数据记录请以单独一行保存,信息存储格式为key:

value。

文件保存路径为:

C:

\output。

示例:

{"rest_id":

"***","rest_name":

"***",……},

{"rest_id":

"***","rest_name":

"***",……},

……

任务一:

爬取指定数据页面

自行创建Scrapy工程编写爬虫代码,爬取“店铺基础信息”页面与“店铺运营数据”页面相关数据,通过爬虫代码分页爬取,将使用re解析分页链接的程序源代码复制粘贴至对应报告中。

任务二:

爬取数据至指定文件

运行代码,爬取“店铺基础信息”页面与“店铺运营数据”页面数据分别至POI.json与grey_test.json文件。

查看文件并填写采集到的记录条数,并将答案复制粘贴至对应报告中。

示例格式:

POI.json的行数为:

grey_value.json的行数为:

任务三:

各商家“30天销量”数据处理

POI.json文件中,“商家id(A平台)”字段值重复的样本,请以多条样本记录的“30天销量(A平台)”属性均值作为该属性的值,并删除多余样本。

请在PyCharm控制台打印输出删除的样本条数,并将打印语句复制粘贴至对应报告中。

示例格式:

===因重复样本记录,删除样本条数为***条===

任务四:

数据探索

针对爬取的grey_value数据,利用DataFrame.describe方法探索数据基本情况,将数据基本情况复制粘贴至对应报告中。

任务五:

缺失值统计

针对缺失值较多的属性“推单数-8日”,“有效完成率-8日”,“超时率-8日”,请分别计算下列任务,并将正确结果复制粘贴至对应报告中。

(1)属性“推单数-8日”空值记录条数为:

,中位数为:

(2)属性“有效完成率-8日”空值记录条数为:

,平均值为:

(3)属性“超时率-8日”空值记录条数为:

,平均值为:

(4)请根据计算结果,对数据集中存在空值的字段使用均值进行填充。

查看填充后的数据集前5条记录,将查看结果复制粘贴至对应报告中。

任务六:

日志输出

将Scrapy日志(日志等级设置为INFO)以时间命名输出至路径:

C:

\food_delivery\output,并将日志内容复制粘贴至对应报告中。

模块C:

数据清洗、分析与挖掘(25分)

项目背景说明

餐饮外卖平台的核心价值体现在配送,而配送的价值则依赖于商家与客户的双向选择。

外卖平台通常会通过内容激活消费者和商家两个群体的活跃度。

消费者会参考平台展示的内容选择商家,商家也会以消费者评价与平台统计数据为依据调整策略,由此再吸引更多的用户下单、评论、形成正向循环。

保证配送的时效与品质是从优化用户体验的角度,吸引更多的用户参与,进而带动商家不断入驻。

由此,商家、消费者、骑手在平台上形成越来越多的真实可靠的数据,帮助消费者更好的做出消费决策,同时促进商家提高服务质量。

而平台通过数据,不断调整优化服务,从而不断提升这种多边网络效应。

提升网络效应的直接结果就是用户和商家规模大幅提升,进而形成规模效应——降低获客成本、提高效益,并且不断提升自己的行业壁垒。

为探索各大外卖平台的市场策略与经营模式,现已从及平台获取到了原始数据集,包含“id,request_id,walle_id,retailer_id,retailer_name,retailer_address,etailer_location,city_id,city_name,grid_id,carrier_id,team_id,applicant_id,applicant_name,first_auditor_role,first_auditor_candidate_ids,first_auditor_id,first_auditor_name,second_auditor_role,second_auditor_candidate_ids,second_auditor_id,second_auditor_name,status,max_distance_before_edit,min_distance_before_edit,max_distance_after_edit,min_distance_after_edit,area_before_edit,area_after_edit,created_at,updated_at,申请时间,创建时间”等字段,为保障用户隐私和行业敏感信息,已经对数据脱敏。

数据脱敏是指对某些敏感信息通过脱敏规则进行数据的变形,实现敏感隐私数据的可靠保护。

在涉及客户安全数据或一些商业性敏感数据的情况下,对真实数据进行改造并提供测试使用,如身份证号、手机号等个人敏感信息都需要进行数据脱敏。

本题已将脱敏后的数据存放于平台对应任务/chinaskills目录下。

工程所需配置文件pom.xml存放于“C:

\清洗配置文件”。

任务中所有命令务必使用绝对路径。

任务一:

数据清洗

子任务1

任务背景:

数据源为众多网站及平台的数据汇总,且为多次采集的结果,在整合多来源数据时可能遇到数据冲突,或数据拼接导致的属性列矛盾或冗余等情况。

请根据任务具体参数要求,针对原始数据集进行清洗,并写入指定的数据库或数据文件,复制并保存结果。

任务描述:

相关数据源文件存放于平台对应任务/chinaskills目录下,请参考模块C中列举的各项字段,按照如下要求编写Spark程序对数据进行清洗,并将结果输出/diliveryoutput1。

1)分析/chinaskills中json数据源文件

2)查看属性字段数量异常数据条目,剔除缺失数据信息大于n(n=3)个字段的数据记录,并以打印语句输出删除条目数;

3)程序打包并在Spark平台运行,结果输出至HDFS文件系统/diliveryoutput1

具体任务要求:

1、将相关文件上传至HDFS新建目录/platform_data中,编写Spark程序,删除数据源中缺失值大于3个字段的数据记录,打印输出删除条目数,将运行结果复制粘贴至对应报告中

打印语句格式如下:

===“删除缺失值大于3个的字段的数据条数为***条”===

2、程序打包并在Spark平台运行,将剔除异常数据后的结果数据集json文件输出至HDFS文件系统/diliveryoutput1(将分区数设置为1)。

并查看输出文件前5条数据记录,将查看命令与执行结果复制粘贴至对应报告中。

子任务2

任务背景:

数据的维数是指数据具有的特征数量,数据特征矩阵过大,将导致计算量比较大,训练时间长的等问题。

当数据存在冗余属性时,对多余属性剔除的过程,称为“数据降维”。

降维的好处十分明显,它不仅可以数据减少对内存的占用,还能够加快学习算法的执行与收敛。

请根据任务具体要求,针对原始数据集中可能存在的冗余属性进行排查,复制并保存结果。

任务描述:

请使用子任务1的结果数据作为数据源,判断属性“申请时间”、“创建时间”与“created_at”、“updated_at”是否为重复属性。

请按照如下要求编写Spark程序对数据进行清洗,并将结果输出/diliveryoutput2(将分区数设置为1)。

1)分析数据文件

2)排除属性列“申请时间”、“创建时间”与“created_at”、“updated_at”是否为重复属性

3)程序打包并在Spark平台运行

具体任务要求:

3、利用/diliveryoutput1作为源数据,使用hadoopshell命令查看数据集条数,请将查看命令及结果复制并粘贴至对应报告中。

4、如果仅考虑年、月、日数据,忽略时刻信息,“申请时间”、“创建时间”与“created_at”、“updated_at”是否为重复属性?

请编写Spark程序,并在程序中以打印语句输出两对属性对应相等的数据条数。

将打印输出结果以及你的结论复制并粘贴至对应报告中。

(复制内容需包含打印语句输出结果的上下各5行运行日志)。

示例格式:

===两组属性同时相等的数据条数为***条===

结论:

“申请时间”、“创建时间”与“created_at”、“updated_at”(是/不是)重复属性。

如果数据相等的比例超过原始数据集的90%,则剔除属性“created_at”与“updated_at”,并将结果数据集json文件保存至/diliveryoutput2。

任务二:

数据挖掘分析

任务背景:

外卖的配送范围一般由外卖平台的业务人员为商家设定,商家也可以根据实际情况向平台申请修改配送范围。

在申请配送范围修改时,审核员将考虑实际道路限制、综合运力成本、顾客等待时长等因素,对配送范围变更的申请进行考量,最终做出通过/拒绝/驳回的结果判定。

一级审核员通常为该地区的渠道经理,针对运力等综合因素对审核记录进行考量;二级审核员为外卖平台专职审核人员,将综合考虑配送范围的合理性及更改后的用户体验。

考核员的审核具有一定的时效要求,审核效率直接影响合作商家平台活跃性以及商家的合作体验。

下面请根据任务具体要求,分析范围审核相关数据。

任务描述:

请根据你的数据清洗的结论数据源(/diliveryoutput2),编写Spark程序,按照如下要求实现对数据的分析,并将结果输出至HDFS文件系统中。

1)解析数据清洗任务结果数据集

2)计算配送范围申请的审核时长

3)分析配送范围变更幅度对审核结果的影响

4)程序打包并在Spark平台运行,结果输出至HDFS文件系统/diliveryoutput3

具体任务要求:

1、从审核申请到审核完成的时间差为一条审核记录的处理时长,请编写Spark程序,计算全部申请记录的平均处理时长(单位为分钟,忽略“秒“级数值),并在程序中以打印语句输出结果。

将打印输出结果复制并粘贴至对应报告中。

(复制内容需包含打印语句输出结果的上下各5行运行日志)。

示例格式:

===平均申请处理时长为***分钟===

2、为保证用户体验,申请的审批应具有时效性。

公司规定在当天18:

00前递交的范围审核申请,处理时间应在12小时以内;在当天18:

00后递交的范围审核申请,应在第二天中午12:

00前审核完成。

请根据这一标准,分别统计全部数据记录中,在18:

00前/后递交的申请超时记录数,在并在程序中以打印语句输出结果。

将打印输出结果复制并粘贴至对应报告中。

(复制内容需包含打印语句输出结果的上下各5行运行日志)。

示例格式:

===18:

00前递交申请的记录中,超时记录数为***条===

===18:

00后递交申请的记录中,超时记录数为***条===

3、申请前后配送范围的最大/最小距离标识了商家配送范围的变更幅度,请统计配送范围(最大配送距离减最小配送距离)在申请前后变更幅度超过以下百分比数值时:

40%、50%、60%、70%、80%、90%,申请的通过率分别为多少(百分比数值保留小数点后2位)。

请在程序中以打印语句输出结果,并打印输出结果复制并粘贴至对应报告中。

(复制内容需包含打印语句输出结果的上下各5行运行日志)。

示例格式:

==申请后配送范围超过原始配送范围的40%,审核通过率为***%==

==申请后配送范围超过原始配送范围的50%,审核通过率为***%==

==申请后配送范围超过原始配送范围的60%,审核通过率为***%==

==申请后配送范围超过原始配送范围的70%,审核通过率为***%==

==申请后配送范围超过原始配送范围的80%,审核通过率为***%==

==申请后配送范围超过原始配送范围的90%,审核通过率为***%==

4、统计各商户的配送面积(请参考申请后配送面积),在以下4个区间内的商户数及占比(百分比数值保留小数点后2位):

0~10,000,000(平方米),10,000,000~20,000,000(平方米),20,000,000~30,000,000(平方米),30,000,000(平方米)以上。

请在程序中以打印语句输出结果,并打印输出结果复制并粘贴至对应报告中。

(复制内容需包含打印语句输出结果的上下各5行运行日志)。

示例格式:

==配送面积0~1000,0,000(平方米),商家数为****,占比***%==

==配送面积10,000,000~20,000,000(平方米),商家数为****,占比***%==

==配送面积20,000,000~30,000,000(平方米),商家数为****,占比***%==

==配送面积30,000,000(平方米)以上,商家数为****,占比***%==

 

模块D、数据可视化(20分)

MySQL数据库中的相关数据集包含了城市、地点、商家id、网格id、餐品种类、标品属性等多项基础信息字段。

请使用Flask框架,结合Echarts完成下列任务。

数据库账号:

root密码:

123456

自行创建代码工程路径为:

C:

\food_delivery

任务一:

双柱状图呈现审核结果比例

任务背景:

外卖的配送范围一般由外卖平台的业务人员为商家设定,商家也可以根据实际情况向平台申请修改配送范围。

通常配送范围并不是毫无棱角的圆形,因为这种划分并没有因地制宜,是不合理的。

最大配送距离指的是配送范围中距离商家最远的直线距离,最小配送距离则是配送范围中距离商家最近的直线距离。

在申请配送范围修改时,审核员将考虑实际道路限制、综合运力成本、顾客等待时长等因素,对配送范围变更的申请进行考量,最终做出通过/拒绝/驳回的结果判定。

请根据相关数据集,按任务指定要求,输出范围审核相关分析图例。

任务描述:

请根据数据库相关数据表数据,统计审核通过与拒绝的范围申请记录数量,并以双柱图表达。

具体任务要求:

1、根据相关表格中“id,Request_id,Walle_id,Retailer_id,retailer_name,retailer_address,etailer_location,City_id,City_name,Grid_id,Carrier_id,Team_id,Applicant_id,Applicant_name,first_auditor_role,first_auditor_candidate_ids,first_auditor_id,first_auditor_name,second_auditor_role,second_auditor_candidate_ids,second_auditor_id,second_auditor_name,status,max_distance_before_edit,min_distance_before_edit,max_distance_after_edit,min_distance_after_edit,area_before_edit,area_after_edit,created_at,updated_at,申请时间,创建时间”等字段,汇总各二级审核人审批的申请数量,并统计其中通过与拒绝的条数。

在PyCharm控制台打印输出审核记录数最多的10位审核人id,审批总数,以及其中通过与拒绝的条数,按审批总数降序排列。

示例格式:

==1.二级审核人id:

***,审批数量:

***条,其中通过**条,拒绝**条===

==2.二级审核人id:

***,审批数量:

***条,其中通过**条,拒绝**条===

……

2、使用Flask框架,结合Echarts,完成双柱状图输出。

要求柱图标题为“审核通过与拒绝对比”,横坐标为审核人id,纵坐标为审核记录数。

画出审核数量最多的10位二级审核人记录审批情况,通过记录数以蓝色柱形表示,右侧以红色柱形表示拒绝和驳回记录数,以审批总数降序排列。

将可视化结果截图并保存(截图需包含浏览器地址栏)。

任务二:

饼图呈现营业区间商家数量

任务背景:

营业时长指商户开市接单到闭市停业的时长,适当地增加营业时长有利于提升店铺的曝光量,同时能够在一定程度上获得平台排名加权。

营业时间长的店铺在特定时间段(大部分商家关店休息后)面对的竞争压力将减小,但增加营业时间将增加商家运营店铺的人工成本,同时也需要考虑不同时间段内运力不同的情况,例如有些区域在晚上12点以后无法配送。

请根据相关数据集,按任务指定要求,输出营业时间相关分析图例。

任务描述:

请根据相关数据表中的数据,统计平台各商家的营业时间占比,并饼图呈现。

具体任务要求:

1、根据相关数据表中的数据,参考“餐厅id,餐厅名称,所属城市,营业时长,餐厅状态,是否托管,总单量,总单量增长率,有效订单量,有效订单增长率,订单配送成功率,超时订单率,无效订单率,平均预计送达时长,平均实际配送时长,当前配送面积,面积变更值,网格id,网格名称,战营”等字段,统计4小时以内、4~6小时、6-8小时、8~12小时、12小时以上,5个区间段内平台各商家的营业时间占比(区间取值为前闭后开区间)。

请在PyCharm控制台以区间商家数量降序打印输出城市名称,商家数量。

示例格式:

==区间“4小时以内”,商家***个===

==区间“4~6小时

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 法律文书 > 起诉状

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1