ejob

时间:2024-10-20 19:03:42编辑:阿星

如何分布式运行mapreduce程序

一、 首先要知道此前提 转载
  若在windows的Eclipse工程中直接启动mapreduc程序,需要先把hadoop集群的配置目录下的xml都拷贝到src目录下,让程序自动读取集群的地址后去进行分布式运行(您也可以自己写java代码去设置job的configuration属性)。
  若不拷贝,工程中bin目录没有完整的xml配置文件,则windows执行的mapreduce程序全部通过本机的jvm执行,作业名也是带有“local"字眼的作业,如 job_local2062122004_0001。 这不是真正的分布式运行mapreduce程序。
  估计得研究org.apache.hadoop.conf.Configuration的源码,反正xml配置文件会影响执行mapreduce使用的文件系统是本机的windows文件系统还是远程的hdfs系统; 还有影响执行mapreduce的mapper和reducer的是本机的jvm还是集群里面机器的jvm
  二、 本文的结论

  第一点就是: windows上执行mapreduce,必须打jar包到所有slave节点才能正确分布式运行mapreduce程序。(有个需求是要windows上触发一个mapreduce分布式运行)
  第二点就是: Linux上,只需拷贝jar文件到集群master上,执行命令hadoop jarPackage.jar MainClassName即可分布式运行mapreduce程序。
  第三点就是: 推荐使用附一,实现了自动打jar包并上传,分布式执行的mapreduce程序。
  附一、 推荐使用此方法:实现了自动打jar包并上传,分布式执行的mapreduce程序:
  请先参考博文五篇:
  Hadoop作业提交分析(一)~~(五)
  引用博文的附件中EJob.java到工程中,然后main中添加如下方法和代码。

  public static File createPack() throws IOException {
  File jarFile = EJob.createTempJar("bin");
  ClassLoader classLoader = EJob.getClassLoader();
  Thread.currentThread().setContextClassLoader(classLoader);
  return jarFile;
  }
  在作业启动代码中使用打包:
  Job job = Job.getInstance(conf, "testAnaAction");
  添加:
  String jarPath = createPack().getPath();
  job.setJar(jarPath);
  即可实现直接run as java application 在windows跑分布式的mapreduce程序,不用手工上传jar文件。
  附二、得出结论的测试过程
  (未有空看书,只能通过愚笨的测试方法得出结论了)
  一. 直接通过windows上Eclipse右击main程序的java文件,然后"run as application"或选择hadoop插件"run on hadoop"来触发执行MapReduce程序的测试。
  1,如果不打jar包到进集群任意linux机器上,它报错如下:
  [work] 2012-06-25 15:42:47,360 - org.apache.hadoop.mapreduce.Job -10244 [main] INFO org.apache.hadoop.mapreduce.Job - map 0% reduce 0%
  [work] 2012-06-25 15:42:52,223 - org.apache.hadoop.mapreduce.Job -15107 [main] INFO org.apache.hadoop.mapreduce.Job - Task Id : attempt_1403517983686_0056_m_000000_0, Status : FAILED
  Error: java.lang.RuntimeException: java.lang.ClassNotFoundException: Class bookCount.BookCount$BookCountMapper not found
  at org.apache.hadoop.conf.Configuration.getClass(Configuration.java:1720)
  at org.apache.hadoop.mapreduce.task.JobContextImpl.getMapperClass(JobContextImpl.java:186)
  at org.apache.hadoop.mapred.MapTask.runNewMapper(MapTask.java:721)
  at org.apache.hadoop.mapred.MapTask.run(MapTask.java:339)
  at org.apache.hadoop.mapred.YarnChild$2.run(YarnChild.java:162)
  at java.security.AccessController.doPrivileged(Native Method)
  at javax.security.auth.Subject.doAs(Subject.java:415)
  at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1491)
  at org.apache.hadoop.mapred.YarnChild.main(YarnChild.java:157)
  Caused by: java.lang.ClassNotFoundException: Class bookCount.BookCount$BookCountMapper not found
  at org.apache.hadoop.conf.Configuration.getClassByName(Configuration.java:1626)
  at org.apache.hadoop.conf.Configuration.getClass(Configuration.java:1718)
  ... 8 more
  # Error:后重复三次
  2012-06-25 15:44:53,234 - org.apache.hadoop.mapreduce.Job -37813 [main] INFO org.apache.hadoop.mapreduce.Job - map 100% reduce 100%
  现象就是:报错,无进度,无运行结果。
  
  2,拷贝jar包到“只是”集群master的$HADOOP_HOME/share/hadoop/mapreduce/目录上,直接通过windows的eclipse "run as application"和通过hadoop插件"run on hadoop"来触发执行,它报错同上。
  现象就是:报错,无进度,无运行结果。
  3,拷贝jar包到集群某些slave的$HADOOP_HOME/share/hadoop/mapreduce/目录上,直接通过windows的eclipse "run as application"和通过hadoop插件"run on hadoop"来触发执行
  和报错:
  Error: java.lang.RuntimeException: java.lang.ClassNotFoundException: Class bookCount.BookCount$BookCountMapper not found
  at org.apache.hadoop.conf.Configuration.getClass(Configuration.java:1720)
  at org.apache.hadoop.mapreduce.task.JobContextImpl.getMapperClass(JobContextImpl.java:186)
  和报错:
  Error: java.lang.RuntimeException: java.lang.ClassNotFoundException: Class bookCount.BookCount$BookCountReducer not found
  
  现象就是:有报错,但仍然有进度,有运行结果。


用mapreduce计算框架对数据做基本分布式处理的流程

您好,MapReduce是一种分布式计算框架,它通过将计算任务分解为可并行处理的小任务,来处理大规模的数据集。下面是使用MapReduce计算框架对数据进行基本分布式处理的流程:1.切分输入数据:将输入数据切分为多个小块,并将每个小块分配给不同的计算节点。2. Map操作:在每个计算节点上,使用Map函数对数据进行处理,Map函数将输入数据转换为键值对的形式,其中键表示输入数据中的某个属性,值表示该属性出现的次数或其他统计信息。3. Shuffle操作:在Map操作之后,MapReduce框架会自动执行Shuffle操作,将所有Map输出的键值对按照键进行分组,并将相同键的值发送到同一个Reduce节点上。4. Reduce操作:在Reduce节点上,使用Reduce函数对键值对进行处理,Reduce函数对同一键的所有值进行聚合,生成最终结果。5.输出结果:将Reduce函数生成的结果写入输出文件。整个流程中,数据的切分、Map操作、Shuffle操作和Reduce操作都是在不同的计算节点上并行执行的,因此可以大大提高数据处理的效率。同时,MapReduce框架提供了自动容错和负载均衡等功能,可以确保计算任务的可靠性和高效性。【摘要】
用mapreduce计算框架对数据做基本分布式处理的流程【提问】
您好,MapReduce是一种分布式计算框架,它通过将计算任务分解为可并行处理的小任务,来处理大规模的数据集。下面是使用MapReduce计算框架对数据进行基本分布式处理的流程:1.切分输入数据:将输入数据切分为多个小块,并将每个小块分配给不同的计算节点。2. Map操作:在每个计算节点上,使用Map函数对数据进行处理,Map函数将输入数据转换为键值对的形式,其中键表示输入数据中的某个属性,值表示该属性出现的次数或其他统计信息。3. Shuffle操作:在Map操作之后,MapReduce框架会自动执行Shuffle操作,将所有Map输出的键值对按照键进行分组,并将相同键的值发送到同一个Reduce节点上。4. Reduce操作:在Reduce节点上,使用Reduce函数对键值对进行处理,Reduce函数对同一键的所有值进行聚合,生成最终结果。5.输出结果:将Reduce函数生成的结果写入输出文件。整个流程中,数据的切分、Map操作、Shuffle操作和Reduce操作都是在不同的计算节点上并行执行的,因此可以大大提高数据处理的效率。同时,MapReduce框架提供了自动容错和负载均衡等功能,可以确保计算任务的可靠性和高效性。【回答】


上一篇:观开学第一课有感

下一篇:没有了