配置IDEA开发环境向远程集群提交MapReduce应用

本文的主要目的

本文主要记录了通过windows10上的IDEA向远程HADOOP集群提交应用的配置过程。之前写的不是很详细,现在做一下补充。

安装配置HADOOP集群

安装配置IDEA

配置windows端HADOOP客户端

  1. 复制集群中的hadoop文件夹到windows,作为windows上的hadoop客户端。
  2. 配置windows hadoop环境变量
# hadoop的home目录所在位置
HADOOP_HOME=D:\hadoop-ocdp3.5
HADOOP_BIN_PATH=%HADOOP_HOME%\bin
HADOOP_PREFIX=%HADOOP_HOME%
# 在path后追加
;%HADOOP_HOME%\sbin;%HADOOP_HOME%\bin;
  1. 配置hosts文件
    如果你的hadoop配置文件中的相关地址使用的是域名,而非IP地址,你需要在windows的hosts文件中添加域名解析。
    Windows系统hosts文件位于:C:\Windows\System32\drivers\etc,其映射格式同Linux,可以直接将hadoop namenode节点的/etc/hosts文件中的域名映射直接复制到windows hosts文件中。
  2. 验证HADOOP
    执行hadoop version,不报错即可。如图
    配置IDEA开发环境向远程集群提交MapReduce应用_第1张图片
  3. 备注
    可能还需要hadoop.dll,winutils.exe,相关下载地址:http://www.downxia.com/downinfo/201744.html。 下载完成后,将以上两个文件放于HADOOP_HOME/bin的目录下。

配置IDEA(针对MAVEN项目)

非MAVEN项目的话,可以自己从HADOOP_HOME/share/hadoop文件夹下导入jar包。

  • 配置maven依赖
    下面贴出我自己的maven文件,仅供参考

<project xmlns="http://maven.apache.org/POM/4.0.0"
         xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
         xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
    <modelVersion>4.0.0modelVersion>
    <groupId>pers.zhaopygroupId>
    <artifactId>bigdataartifactId>
    <version>1.0-SNAPSHOTversion>
    
    <dependencies>
        
        <dependency>
            <groupId>org.apache.hadoopgroupId>
            <artifactId>hadoop-commonartifactId>
            <version>2.6.0version>
        dependency>

        
        <dependency>
            <groupId>org.apache.hadoopgroupId>
            <artifactId>hadoop-hdfsartifactId>
            <version>2.6.0version>
        dependency>

        
        <dependency>
            <groupId>org.apache.hadoopgroupId>
            <artifactId>hadoop-mapreduce-client-coreartifactId>
            <version>2.6.0version>
        dependency>

        <dependency>
            <groupId>org.apache.hadoopgroupId>
            <artifactId>hadoop-clientartifactId>
            <version>2.6.0version>
        dependency>

        
        <dependency>
            <groupId>org.apache.hadoopgroupId>
            <artifactId>hadoop-mapreduce-client-coreartifactId>
            <version>2.6.0version>
        dependency>


        
        
        <dependency>
            <groupId>junitgroupId>
            <artifactId>junitartifactId>
            <version>4.12version>
        dependency>

        
        <dependency>
            <groupId>org.apache.mrunitgroupId>
            <artifactId>mrunitartifactId>
            <version>1.1.0version>
            <scope>testscope>
            <classifier>hadoop2classifier>
        dependency>

    dependencies>

    <repositories>
        
        
            
            
            
                
            
            
                
                
                
            
        
        <repository> 
            
            <id>centralid>
            <name>mvnrepositoryname>
            <url>http://www.mvnrepository.com/url>
            <layout>defaultlayout>
            <releases>
                <enabled>trueenabled>
            releases>
            <snapshots>
                <enabled>falseenabled>
            snapshots>
        repository>
    repositories>
project>
  • 配置生成可执行jar包
    配置IDEA开发环境向远程集群提交MapReduce应用_第2张图片
    配置IDEA开发环境向远程集群提交MapReduce应用_第3张图片
    配置IDEA开发环境向远程集群提交MapReduce应用_第4张图片
    配置IDEA开发环境向远程集群提交MapReduce应用_第5张图片

编写涉及到本地运行的代码。

// 指定日志文件位置,必须使用绝对路径,可以直接使用hadoop配置文件中的log4j.properties,也可单独建立
PropertyConfigurator.configure("D:\\IJworkspace\\bigdata\\src\\main\\resources\\hadoop\\log4j.properties");

// 添加配置文件
Configuration conf = new Configuration();
conf.addResource("hadoop/hdfs-site.xml");
conf.addResource("hadoop/core-site.xml");
conf.addResource("hadoop/mapred-site.xml");
conf.addResource("hadoop/yarn-site.xml");

// 如果要从windows系统中运行这个job提交客户端的程序,则需要加这个跨平台提交的参数
conf.set("mapreduce.app-submission.cross-platform","true");

// 指定jar文件,该jar文件为mapreduce程序,需要是可执行jar包,文件路径可以是本地文件路径或hdfs路径
Job job = Job.getInstance(conf);
// 此处路径之前设置的jar文件路径
job.setJar("D:\\IJworkspace\\bigdata\\out\\artifacts\\bigdata_jar\\bigdata.jar");

配置运行参数,以下图为例进行配置,此处可配置命令行参数

配置IDEA开发环境向远程集群提交MapReduce应用_第6张图片
配置IDEA开发环境向远程集群提交MapReduce应用_第7张图片
配置IDEA开发环境向远程集群提交MapReduce应用_第8张图片

运行

以上配置完成后点击三角运行即可
配置IDEA开发环境向远程集群提交MapReduce应用_第9张图片
配置IDEA开发环境向远程集群提交MapReduce应用_第10张图片

实例

此处使用LocalRunner类封装了一下,相关路径已经写死了
项目Github地址

package common;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.mapreduce.Job;
import org.apache.log4j.PropertyConfigurator;

import java.io.IOException;

/**
 * 打包win提交时的运行参数
 */
public class LocalRunner {

    static {
        PropertyConfigurator.configure("D:\\IJworkspace\\bigdata\\src\\main\\resources\\hadoop\\log4j.properties");
    }

    /**
     * 向配置中添加hadoop集群配置文件
     * @param conf Configuration 实例
     */
    public static void packageConfiguration(Configuration conf) {
        conf.addResource("hadoop/hdfs-site.xml");
        conf.addResource("hadoop/core-site.xml");
        conf.addResource("hadoop/mapred-site.xml");
        conf.addResource("hadoop/yarn-site.xml");

        // 如果要从windows系统中运行这个job提交客户端的程序,则需要加这个跨平台提交的参数
        conf.set("mapreduce.app-submission.cross-platform","true");
    }

    /**
     * 返回一个包装过的job实例
     * @param conf Configuration 实例
     * @return Job 包装过的job实例
     */
    public static Job packageJob(Configuration conf) throws IOException {
        Job job = Job.getInstance(conf);
        job.setJar("D:\\IJworkspace\\bigdata\\out\\artifacts\\bigdata_jar\\bigdata.jar");
        return job;
    }
}

使用时调用如下即可

package chapter6.v2;
/*
 * @date 2018/11/5
 */

import common.LocalRunner;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.conf.Configured;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.util.Tool;
import org.apache.hadoop.util.ToolRunner;

public class MaxTemperatureDriver extends Configured implements Tool {

    public int run(String[] strings) throws Exception {
        if (strings.length != 2) {
            System.out.printf("[Usage]: %s [generic options]  \n", getClass().getSimpleName());
            ToolRunner.printGenericCommandUsage(System.err);
            return -1;
        }
        Configuration conf = getConf();
        // 本地提交
        LocalRunner.packageConfiguration(conf);
        Job job = LocalRunner.packageJob(conf);

        job.setJobName("Max Temperature Test");

        job.setMapperClass(MaxTemperatureMapper.class);
        job.setReducerClass(MaxTemperatureReducer.class);
        job.setCombinerClass(MaxTemperatureReducer.class);
        FileSystem fs = FileSystem.get(conf);
        fs.delete(new Path(strings[1]), true);

        FileInputFormat.addInputPath(job, new Path(strings[0]));
        FileOutputFormat.setOutputPath(job, new Path(strings[1]));

        job.setOutputKeyClass(Text.class);
        job.setOutputValueClass(IntWritable.class);

        return job.waitForCompletion(true) ? 0: 1;
    }

    public static void main(String[] args) throws Exception {
        int exitCode = ToolRunner.run(new MaxTemperatureDriver(), args);
        System.exit(exitCode);
    }
}

你可能感兴趣的:(hadoop权威指南学习笔记)