如何分布式运行mapreduce程序
一、 首先要知道此前提 转载
若在windows的Eclipse工程中直接启动mapreduc程序,需要先把hadoop集群的配置目录下的xml都拷贝到src目录下,让程序自动读取集群的地址后去进行分布式运行(您也可以自己写java代码去设置job的configuration属性)。
若不拷贝,工程中bin目录没有完整的xml配置文件,则windows执行的mapreduce程序全部通过本机的jvm执行,作业名也是带有“local"字眼的作业,如 job_local2062122004_0001。 这不是真正的分布式运行mapreduce程序。
估计得研究org.apache.hadoop.conf.Configuration的源码,反正xml配置文件会影响执行mapreduce使用的文件系统是本机的windows文件系统还是远程的hdfs系统; 还有影响执行mapreduce的mapper和reducer的是本机的jvm还是集群里面机器的jvm
二、 本文的结论
第一点就是: windows上执行mapreduce,必须打jar包到所有slave节点才能正确分布式运行mapreduce程序。(有个需求是要windows上触发一个mapreduce分布式运行)
第二点就是: Linux上,只需拷贝jar文件到集群master上,执行命令hadoop jarPackage.jar MainClassName即可分布式运行mapreduce程序。
第三点就是: 推荐使用附一,实现了自动打jar包并上传,分布式执行的mapreduce程序。
附一、 推荐使用此方法:实现了自动打jar包并上传,分布式执行的mapreduce程序:
请先参考博文五篇:
Hadoop作业提交分析(一)~~(五)
引用博文的附件中EJob.java到工程中,然后main中添加如下方法和代码。
public static File createPack() throws IOException {
File jarFile = EJob.createTempJar("bin");
ClassLoader classLoader = EJob.getClassLoader();
Thread.currentThread().setContextClassLoader(classLoader);
return jarFile;
}
在作业启动代码中使用打包:
Job job = Job.getInstance(conf, "testAnaAction");
添加:
String jarPath = createPack().getPath();
job.setJar(jarPath);
即可实现直接run as java application 在windows跑分布式的mapreduce程序,不用手工上传jar文件。
附二、得出结论的测试过程
(未有空看书,只能通过愚笨的测试方法得出结论了)
一. 直接通过windows上Eclipse右击main程序的java文件,然后"run as application"或选择hadoop插件"run on hadoop"来触发执行MapReduce程序的测试。
1,如果不打jar包到进集群任意linux机器上,它报错如下:
[work] 2012-06-25 15:42:47,360 - org.apache.hadoop.mapreduce.Job -10244 [main] INFO org.apache.hadoop.mapreduce.Job - map 0% reduce 0%
[work] 2012-06-25 15:42:52,223 - org.apache.hadoop.mapreduce.Job -15107 [main] INFO org.apache.hadoop.mapreduce.Job - Task Id : attempt_1403517983686_0056_m_000000_0, Status : FAILED
Error: java.lang.RuntimeException: java.lang.ClassNotFoundException: Class bookCount.BookCount$BookCountMapper not found
at org.apache.hadoop.conf.Configuration.getClass(Configuration.java:1720)
at org.apache.hadoop.mapreduce.task.JobContextImpl.getMapperClass(JobContextImpl.java:186)
at org.apache.hadoop.mapred.MapTask.runNewMapper(MapTask.java:721)
at org.apache.hadoop.mapred.MapTask.run(MapTask.java:339)
at org.apache.hadoop.mapred.YarnChild$2.run(YarnChild.java:162)
at java.security.AccessController.doPrivileged(Native Method)
at javax.security.auth.Subject.doAs(Subject.java:415)
at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1491)
at org.apache.hadoop.mapred.YarnChild.main(YarnChild.java:157)
Caused by: java.lang.ClassNotFoundException: Class bookCount.BookCount$BookCountMapper not found
at org.apache.hadoop.conf.Configuration.getClassByName(Configuration.java:1626)
at org.apache.hadoop.conf.Configuration.getClass(Configuration.java:1718)
... 8 more
# Error:后重复三次
2012-06-25 15:44:53,234 - org.apache.hadoop.mapreduce.Job -37813 [main] INFO org.apache.hadoop.mapreduce.Job - map 100% reduce 100%
现象就是:报错,无进度,无运行结果。
2,拷贝jar包到“只是”集群master的$HADOOP_HOME/share/hadoop/mapreduce/目录上,直接通过windows的eclipse "run as application"和通过hadoop插件"run on hadoop"来触发执行,它报错同上。
现象就是:报错,无进度,无运行结果。
3,拷贝jar包到集群某些slave的$HADOOP_HOME/share/hadoop/mapreduce/目录上,直接通过windows的eclipse "run as application"和通过hadoop插件"run on hadoop"来触发执行
和报错:
Error: java.lang.RuntimeException: java.lang.ClassNotFoundException: Class bookCount.BookCount$BookCountMapper not found
at org.apache.hadoop.conf.Configuration.getClass(Configuration.java:1720)
at org.apache.hadoop.mapreduce.task.JobContextImpl.getMapperClass(JobContextImpl.java:186)
和报错:
Error: java.lang.RuntimeException: java.lang.ClassNotFoundException: Class bookCount.BookCount$BookCountReducer not found
现象就是:有报错,但仍然有进度,有运行结果。
用mapreduce计算框架对数据做基本分布式处理的流程
您好,MapReduce是一种分布式计算框架,它通过将计算任务分解为可并行处理的小任务,来处理大规模的数据集。下面是使用MapReduce计算框架对数据进行基本分布式处理的流程:1.切分输入数据:将输入数据切分为多个小块,并将每个小块分配给不同的计算节点。2. Map操作:在每个计算节点上,使用Map函数对数据进行处理,Map函数将输入数据转换为键值对的形式,其中键表示输入数据中的某个属性,值表示该属性出现的次数或其他统计信息。3. Shuffle操作:在Map操作之后,MapReduce框架会自动执行Shuffle操作,将所有Map输出的键值对按照键进行分组,并将相同键的值发送到同一个Reduce节点上。4. Reduce操作:在Reduce节点上,使用Reduce函数对键值对进行处理,Reduce函数对同一键的所有值进行聚合,生成最终结果。5.输出结果:将Reduce函数生成的结果写入输出文件。整个流程中,数据的切分、Map操作、Shuffle操作和Reduce操作都是在不同的计算节点上并行执行的,因此可以大大提高数据处理的效率。同时,MapReduce框架提供了自动容错和负载均衡等功能,可以确保计算任务的可靠性和高效性。【摘要】
用mapreduce计算框架对数据做基本分布式处理的流程【提问】
您好,MapReduce是一种分布式计算框架,它通过将计算任务分解为可并行处理的小任务,来处理大规模的数据集。下面是使用MapReduce计算框架对数据进行基本分布式处理的流程:1.切分输入数据:将输入数据切分为多个小块,并将每个小块分配给不同的计算节点。2. Map操作:在每个计算节点上,使用Map函数对数据进行处理,Map函数将输入数据转换为键值对的形式,其中键表示输入数据中的某个属性,值表示该属性出现的次数或其他统计信息。3. Shuffle操作:在Map操作之后,MapReduce框架会自动执行Shuffle操作,将所有Map输出的键值对按照键进行分组,并将相同键的值发送到同一个Reduce节点上。4. Reduce操作:在Reduce节点上,使用Reduce函数对键值对进行处理,Reduce函数对同一键的所有值进行聚合,生成最终结果。5.输出结果:将Reduce函数生成的结果写入输出文件。整个流程中,数据的切分、Map操作、Shuffle操作和Reduce操作都是在不同的计算节点上并行执行的,因此可以大大提高数据处理的效率。同时,MapReduce框架提供了自动容错和负载均衡等功能,可以确保计算任务的可靠性和高效性。【回答】