佛山科学技术学院-云计算-实验报告-了解MapReduce编程Word文档格式.doc
《佛山科学技术学院-云计算-实验报告-了解MapReduce编程Word文档格式.doc》由会员分享,可在线阅读,更多相关《佛山科学技术学院-云计算-实验报告-了解MapReduce编程Word文档格式.doc(16页珍藏版)》请在冰豆网上搜索。
1
(六)主要实验设备及配套数:
微机80台,数据中心服务器集群
(七)所在实验室:
计算机技术实验室
第15页
佛山科学技术学院
实验报告
课程名称云计算概论
实验项目实验三了解MapReduce编程
一、实验环境
1.Ubuntu14.04.3LTS32位
2.Hadoop2.6.0
3.JDK1.7.0_181
二、实验内容与完成情况
学习MapReduce编程模型,理解MapReduce编程思想,会用MapReduce框架编写简单的并行程序;
熟练使用Eclipse编写、调试和运行MapReduce并行程序。
1)编程实现文件合并和去重操作
对于两个输入文件,即文件A和文件B,请编写MapReduce程序,对两个文件进行合并,并剔除其中重复的内容,得到一个新的输出文件C。
下面是输入文件和输出文件的一个样例供参考。
输入文件A的样例如下:
20150101x
20150102y
20150103x
20150104y
20150105z
20150106x
输入文件B的样例如下:
20150101y
20150102y
20150103x
20150104z
20150105y
根据输入文件A和B合并得到的输出文件C的样例如下:
20150101x
20150104y
20150105z
20150106x
答案:
代码如下:
packagecom.Merge;
importjava.io.IOException;
importorg.apache.hadoop.conf.Configuration;
importorg.apache.hadoop.fs.Path;
importorg.apache.hadoop.io.IntWritable;
importorg.apache.hadoop.io.Text;
importorg.apache.hadoop.mapreduce.Job;
importorg.apache.hadoop.mapreduce.Mapper;
importorg.apache.hadoop.mapreduce.Reducer;
importorg.apache.hadoop.mapreduce.lib.input.FileInputFormat;
importorg.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
importorg.apache.hadoop.util.GenericOptionsParser;
publicclassMerge{
/**
*@paramargs
*对A,B两个文件进行合并,并剔除其中重复的内容,得到一个新的输出文件C
*/
//重载map函数,直接将输入中的value复制到输出数据的key上
publicstaticclassMapextendsMapper<
Object,Text,Text,Text>
{
privatestaticTexttext=newText();
publicvoidmap(Objectkey,Textvalue,Contextcontext)throwsIOException,InterruptedException{
text=value;
context.write(text,newText("
"
));
}
}
//重载reduce函数,直接将输入中的key复制到输出数据的key上
publicstaticclassReduceextendsReducer<
Text,Text,Text,Text>
publicvoidreduce(Textkey,Iterable<
Text>
values,Contextcontext)throwsIOException,InterruptedException{
context.write(key,newText("
publicstaticvoidmain(String[]args)throwsException{
//TODOAuto-generatedmethodstub
Configurationconf=newConfiguration();
conf.set("
fs.default.name"
"
hdfs:
//localhost:
9000"
);
String[]otherArgs=newString[]{"
input"
output"
};
/*直接设置输入参数*/
if(otherArgs.length!
=2){
System.err.println("
Usage:
wordcount<
in>
<
out>
System.exit
(2);
}
Jobjob=Job.getInstance(conf,"
Mergeandduplicateremoval"
job.setJarByClass(Merge.class);
job.setMapperClass(Map.class);
job.setCombinerClass(Reduce.class);
job.setReducerClass(Reduce.class);
job.setOutputKeyClass(Text.class);
job.setOutputValueClass(Text.class);
FileInputFormat.addInputPath(job,newPath(otherArgs[0]));
FileOutputFormat.setOutputPath(job,newPath(otherArgs[1]));
System.exit(job.waitForCompletion(true)?
0:
1);
}
2)编写程序实现对输入文件的排序
现在有多个输入文件,每个文件中的每行内容均为一个整数。
要求读取所有文件中的整数,进行升序排序后,输出到一个新的文件中,输出的数据格式为每行两个整数,第一个数字为第二个整数的排序位次,第二个整数为原待排列的整数。
输入文件1的样例如下:
33
37
12
40
输入文件2的样例如下:
4
16
39
5
输入文件3的样例如下:
45
25
根据输入文件1、2和3得到的输出文件如下:
11
24
35
412
516
625
733
837
939
1040
1145
packagecom.MergeSort;
importorg.apache.hadoop.mapreduce.Partitioner;
publicclassMergeSort{
*输入多个文件,每个文件中的每行内容均为一个整数
*输出到一个新的文件中,输出的数据格式为每行两个整数,第一个数字为第二个整数的排序位次,第二个整数为原待排列的整数
//map函数读取输入中的value,将其转化成IntWritable类型,最后作为输出key
Object,Text,IntWritable,IntWritable>
privatestaticIntWritabledata=newIntWritable();
Stringtext=value.toString();
data.set(Integer.parseInt(text));
context.write(data,newIntWritable
(1));
//reduce函数将map输入的key复制到输出的value上,然后根据输入的value-list中元素的个数决定key的输出次数,定义一个全局变量line_num来代表key的位次
IntWritable,IntWritable,IntWritable,IntWritable>
privat