Sqoop简介与安装

Sqoop 简介
Apache Sqoop(TM)是一种旨在有效地在 Apache Hadoop 和诸如关系数据库等结构化数据存储之间传输大量数据的工具。
Sqoop 于 2012 年 3 月孵化出来,现在是一个顶级的 Apache 项目。
最新的稳定版本是 1.4.6。 Sqoop2 的最新版本是 1.99.7。请注意, 1.99.7 与 1.4.6 不兼容,且没有特征不完整,它并不打算用于生产部署。

Sqoop 原理
将导入或导出命令翻译成 mapreduce 程序来实现。
在翻译出的 mapreduce 中主要是对 inputformat 和 outputformat 进行定制。

Sqoop 安装
安装 Sqoop 的前提是已经具备 Java 和 Hadoop 的环境。

1、 下载并解压
1 上传安装包 sqoop-1.4.6.bin__hadoop-2.0.4-alpha.tar.gz 到虚拟机中,如我的上传目录是:/opt/softwares

2 解压 sqoop 安装包到指定目录,如:
tar -zxvf sqoop-1.4.6.bin__hadoop-2.0.4-alpha.tar.gz -C /opt/module/

2、 修改配置文件
Sqoop 的配置文件与大多数大数据框架类似,在 sqoop 根目录下的 conf 目录中。
1 重命名配置文件
mv sqoop-env-template.sh sqoop-env.sh

2 修改配置文件
vim sqoop-env.sh 加入

export HADOOP_COMMON_HOME=/opt/module/hadoop-2.7.2
export HADOOP_MAPRED_HOME=/opt/module/hadoop-2.7.2
export HIVE_HOME=/opt/module/apache-hive-1.2.2-bin
export ZOOKEEPER_HOME=/opt/module/zookeeper-3.4.10
export ZOOCFGDIR=/opt/module/zookeeper-3.4.10/conf

3、拷贝 JDBC 驱动
拷贝 jdbc 驱动到 sqoop 的 lib 目录下,如:
mv mysql-connector-java-5.1.27-bin.jar /opt/module/sqoop-1.4.6.bin__hadoop-2.0.4-alpha/lib/

4、验证 Sqoop
我们可以通过某一个 command 来验证 sqoop 配置是否正确:

bin/sqoop help

出现一些 Warning 警告(警告信息已省略) ,并伴随着帮助命令的输出:
Available commands:
codegen Generate code to interact with database records
create-hive-table Import a table definition into Hive
eval Evaluate a SQL statement and display the results
export Export an HDFS directory to a database table
help List available commands
import Import a table from a database to HDFS
import-all-tables Import tables from a database to HDFS
import-mainframe Import datasets from a mainframe server to HDFS
job Work with saved jobs
list-databases List available databases on a server
list-tables List available tables in a database
merge Merge results of incremental imports
metastore Run a standalone Sqoop metastore

5、 测试 Sqoop 是否能够成功连接数据库

bin/sqoop list-databases --connect jdbc:mysql://hadoop102:3306/ --username root --password 000000

出现如下输出:
information_schema
metastore
mysql
performance_schema

Hadoop集群的起停脚本配置:

[root@hadoop102 ~]# cd ~
[root@hadoop102 ~]# cat /etc/profile >> .bashrc 

启动脚本:vim start.sh

#!/bin/bash
echo "============ zookeeper启动 ============="
for i in root@hadoop102 root@hadoop103 root@hadoop104
do
    ssh $i '/opt/module/zookeeper-3.4.10/bin/zkServer.sh start'
done

echo "============ hdfs启动 ============="
ssh root@hadoop102 '/opt/module/hadoop-2.7.2/sbin/start-dfs.sh'

echo "============ yarn启动 ============="
ssh root@hadoop103 '/opt/module/hadoop-2.7.2/sbin/start-yarn.sh'

chmod +x start.sh

停止脚本:vim stop.sh

#!/bin/bash
echo "============ zookeeper关闭 ============="
for i in root@hadoop102 root@hadoop103 root@hadoop104
do
    ssh $i '/opt/module/zookeeper-3.4.10/bin/zkServer.sh stop'
done

echo "============ hdfs关闭 ============="
ssh root@hadoop102 '/opt/module/hadoop-2.7.2/sbin/stop-dfs.sh'

echo "============ yarn关闭 ============="
ssh root@hadoop103 '/opt/module/hadoop-2.7.2/sbin/stop-yarn.sh'

chmod +x stop.sh

你可能感兴趣的:(大数据)