大数据方向的工作目前主要分为三个主要方向:
- 大数据工程师
- 数据分析师
- 大数据科学家
- 其他(数据挖掘等)
二、大数据工程师的技能要求
附上大数据工程师技能图:
必须掌握的技能11条
- Java高级(虚拟机、并发)
- Linux 基本操作
- Hadoop(HDFS+MapReduce+Yarn )
- HBase(JavaAPI操作+Phoenix )
- Hive(Hql基本操作和原理理解)
- Kafka
- Storm/JStorm
- Scala
- Python
- Spark (Core+sparksql+Spark streaming )
- 辅助小工具(Sqoop/Flume/Oozie/Hue等)
高阶技能6条
- 机器学习算法以及mahout库加MLlib
- R语言
- Lambda 架构
- Kappa架构
- Kylin
- Alluxio
三、学习路径
假设每天可以抽出3个小时的有效学习时间,加上周末每天保证10个小时的有效学习时间;
3个月会有(21*3+4*2*10)*3=423小时的学习时间。
第一阶段(基础阶段)
1)Linux学习(跟鸟哥学就ok了)—–20小时
- Linux操作系统介绍与安装。
- Linux常用命令。
- Linux常用软件安装。
- Linux网络。
- 防火墙。
- Shell编程等。
官网:https://www.centos.org/download/
中文社区:http://www.linuxidc.com/Linux/2017-09/146919.htm
2)Java 高级学习(《深入理解Java虚拟机》、《Java高并发实战》)—30小时
- 掌握多线程。
- 掌握并发包下的队列。
- 了解JMS。
- 掌握JVM技术。
- 掌握反射和动态代理。
官网:https://www.java.com/zh_CN/
中文社区:http://www.java-cn.com/index.html
3)Zookeeper学习(可以参照这篇博客进行学习:http://www.cnblogs.com/wuxl360/p/5817471.html)
- Zookeeper分布式协调服务介绍。
- Zookeeper集群的安装部署。
- Zookeeper数据结构、命令。
- Zookeeper的原理以及选举机制。
官网:http://zookeeper.apache.org/
中文社区:http://www.aboutyun.com/forum-149-1.html
第二阶段(攻坚阶段)
4)Hadoop (《Hadoop 权威指南》)—80小时
HDFS
- HDFS的概念和特性。
- HDFS的shell操作。
- HDFS的工作机制。
- HDFS的Java应用开发。
MapReduce
- 运行WordCount示例程序。
- 了解MapReduce内部的运行机制。
- MapReduce程序运行流程解析。
- MapTask并发数的决定机制。
- MapReduce中的combiner组件应用。
- MapReduce中的序列化框架及应用。
- MapReduce中的排序。
- MapReduce中的自定义分区实现。
- MapReduce的shuffle机制。
- MapReduce利用数据压缩进行优化。
- MapReduce程序与YARN之间的关系。
- MapReduce参数优化。
MapReduce的Java应用开发
官网:http://hadoop.apache.org/
中文文档:http://hadoop.apache.org/docs/r1.0.4/cn/
中文社区:http://www.aboutyun.com/forum-143-1.html
5)Hive(《Hive开发指南》)–20小时
Hive 基本概念
- Hive 应用场景。
- Hive 与hadoop的关系。
- Hive 与传统数据库对比。
- Hive 的数据存储机制。
Hive 基本操作
- Hive 中的DDL操作。
- 在Hive 中如何实现高效的JOIN查询。
- Hive 的内置函数应用。
- Hive shell的高级使用方式。
- Hive 常用参数配置。
- Hive 自定义函数和Transform的使用技巧。
- Hive UDF/UDAF开发实例。
Hive 执行过程分析及优化策略
官网:https://hive.apache.org/
中文入门文档:http://www.aboutyun.com/thread-11873-1-1.html
中文社区:http://www.aboutyun.com/thread-7598-1-1.html
6)HBase(《HBase权威指南》)—20小时
- hbase简介。
- habse安装。
- hbase数据模型。
- hbase命令。
- hbase开发。
- hbase原理。
官网:http://hbase.apache.org/
中文文档:http://abloz.com/hbase/book.html
中文社区:http://www.aboutyun.com/forum-142-1.html
7)Scala(《快学Scala》)–20小时
- Scala概述。
- Scala编译器安装。
- Scala基础。
- 数组、映射、元组、集合。
- 类、对象、继承、特质。
- 模式匹配和样例类。
- 了解Scala Actor并发编程。
- 理解Akka。
- 理解Scala高阶函数。
- 理解Scala隐式转换。
官网:http://www.scala-lang.org/
初级中文教程:http://www.runoob.com/scala/scala-tutorial.html
8)Spark (《Spark 权威指南》)—60小时
Spark core
- Spark概述。
- Spark集群安装。
- 执行第一个Spark案例程序(求PI)。
RDD
- RDD概述。
- 创建RDD。
- RDD编程API(Transformation 和 Action Operations)。
- RDD的依赖关系
- RDD的缓存
- DAG(有向无环图)
Spark SQL and DataFrame/DataSet
- Spark SQL概述。
- DataFrames。
- DataFrame常用操作。
- 编写Spark SQL查询程序。
Spark Streaming
- park Streaming概述。
- 理解DStream。
- DStream相关操作(Transformations 和 Output Operations)。
Structured Streaming
其他(MLlib and GraphX )
这个部分一般工作中如果不是数据挖掘,机器学习一般用不到,可以等到需要用到的时候再深入学习。
官网:http://spark.apache.org
中文文档(但是版本有点老):https://www.gitbook.com/book/aiyanbo/spark-programming-guide-zh-cn/details
中文社区:http://www.aboutyun.com/forum-146-1.html
9)Python (推荐廖雪峰的博客—30小时
10)自己用虚拟机搭建一个集群,把所有工具都装上,自己开发一个小demo —30小时
可以自己用VMware搭建4台虚拟机,然后安装以上软件,搭建一个小集群(本人亲测,I7,64位,16G内存,完全可以运行起来,以下附上我学习时用虚拟机搭建集群的操作文档)
集群搭建文档1.0版本
1. 集群规划
所有需要用到的软件:
链接:http://pan.baidu.com/s/1jIlAz2Y
密码:kyxl
2. 前期准备
-
-
-
-
-
2.1.0 vi /etc/sysconfig/network
-
-
-
2.1.1 vi /etc/sysconfig/network
-
-
-
-
2.1.2 vi /etc/sysconfig/network
-
-
-
2.1.3 vi /etc/sysconfig/network
-
-
-
-
-
-
-
-
-
-
2.3 关闭防火墙(centos 7默认使用的是firewall,centos 6 默认是iptables)
-
-
2.3.0 systemctl
stop firewalld.service (停止firewall)
-
-
2.3
.1 systemctl
disable firewalld.service (禁止firewall开机启动)
-
-
-
-
2.4 免密登录(ys01 ->ys02,
03,
04)
-
-
ssh-copy-
id ys02(随后输入密码)
-
ssh-copy-
id ys03(随后输入密码)
-
ssh-copy-
id ys04(随后输入密码)
-
-
-
-
-
-
-
cp /usr/
share/zoneinfo/Asia/Shanghai /etc/
localtime(将日期文件copy到本地时间中)
3. 软件安装
-
-
-
3.0.0所有软件的安装放到/usr/
local/ys/soft目录下(mkdir /usr/
local/ys/soft)
-
-
3.0.1所有软件安装到/usr/
local/ys/app目录下(mkdir /usr/
local/ys/app)
-
-
-
-
3.1.1 alt+p 后出现sftp窗口,
cd /usr/
local/ys/soft,使用sftp上传tar包到虚机ys01的/usr/
local/ys/soft目录下
-
-
-
-
-
tar -zxvf jdk-7u80-linux-x64.tar.gz -C /usr/
local/ys/app
-
-
-
-
-
export JAVA_HOME= /usr/
local/ys/app/ jdk-7u80
-
export PATH=
$PATH:
$JAVA_HOME/bin
-
-
-
-
-
-
-
-
tar -zxvf zookeeper-3.4.5.tar.gz -C /usr/
local/ys/app(解压)
-
-
-
mv zookeeper-3.4.5 zookeeper(重命名文件夹zookeeper-3.4.5为zookeeper)
-
-
-
-
-
export ZOOKEEPER_HOME=/usr/
local/ys/app/zookeeper
-
export PATH=
$PATH:
$ZOOKEEPER_HOME/bin
-
-
-
-
-
-
-
-
cp zoo_sample.cfg zoo.cfg
-
-
-
dataDir=/usr/
local/ys/app/zookeeper/data
-
dataLogDir=/usr/
local/ys/app/zookeeper/
log
-
server.1=ys01:2888:3888 (主机名, 心跳端口、数据端口)
-
-
-
-
-
cd /usr/
local/ys/app/zookeeper/
-
-
-
-
3.2.6 在data文件夹下新建myid文件,myid的文件内容为:
-
-
-
-
-
-
scp -r /usr/
local/ys/app/zookeeper ys02:/usr/
local/ys/app/
-
scp -r /usr/
local/ys/app/zookeeper ys04:/usr/
local/ys/app/
-
-
-
-
-
-
-
-
-
-
zkServer.sh status(查看集群状态,主从信息)
-
-
-
-
3.3.0 alt+p 后出现sftp窗口,使用sftp上传tar包到虚机ys01的/usr/
local/ys/soft目录下
-
-
-
-
-
tar -zxvf cenos-7-hadoop-2.6.4.tar.gz -C /usr/
local/ys/app
-
-
-
-
hdfs-site.xml
yarn-sifite.xml
-
-
-
-
-
-
-
-
3.3.3.1启动zookeeper集群(分别在ys01、ys02、ys04上启动zk)
-
cd /usr/
local/ys/app/zookeeper-3.4.5/bin/
-
-
-
-
-
3.3.3.2启动journalnode(分别在在mini5、mini6、mini7上执行)
-
cd /usr/
local/ys/app/hadoop-2.6.4
-
sbin/hadoop-daemon.sh start journalnode
-
-
-
-
-
-
-
scp -r tmp/ ys02:/usr/
local/ys /app/hadoop-2.6.4/
-
-
-
3.3.3.4格式化ZKFC(在ys01上执行一次即可)
-
-
-
-
-
-
-
-
-
-
-
-
-
-
3.4.1 alt+p 后出现sftp窗口,
cd /usr/
local/ys/soft,使用sftp上传tar包到虚机ys01的/usr/
local/ys/soft目录下
-
-
-
-
tar -zxvf hive-0.9.0.tar.gz -C /usr/
local/ys/app
-
-
-
-
3.4.3.1配置HIVE_HOME环境变量 vi conf/hive-env.sh 配置其中的
$hadoop_home
-
-
3.4.3.2配置元数据库信息 vi hive-site.xml
添加如下内容:
-
3.4.4 安装hive和mysq完成后,将mysql的连接jar包拷贝到
$HIVE_HOME/lib目录下
-
如果出现没有权限的问题,在mysql授权(在安装mysql的机器上执行)
-
-
-
GRANT ALL PRIVILEGES ON *.* TO
'root'@
'%' IDENTIFIED BY
'root' WITH GRANT OPTION;
-
-
-
3.4.5 Jline包版本不一致的问题,需要拷贝hive的lib目录中jline.2.12.jar的jar包替换掉hadoop中的 /usr/
local/ys/app/hadoop-2.6.4/share/hadoop/yarn/lib/jline-0.9.94.jar
-
-
-
-
-
-
-
http://kafka.apache.org/downloads.html
-
-
wget http://mirrors.hust.edu.cn/apache/kafka/0.8.2.2/kafka_2.11-0.8.2.2.tgz
-
-
-
tar -zxvf /usr/
local/ys/soft/kafka_2.11-0.8.2.2.tgz -C /usr/
local/ys/app/
-
-
ln -s kafka_2.11-0.8.2.2 kafka
-
-
-
-
/usr/
local/ys/app/kafka/config/server.properties
-
/usr/
local/ys/app/kafka/config/server.properties.bak
-
vi /usr/
local/ys/kafka/config/server.properties
输入以下内容:
-
-
scp -r /usr/
local/ys/app/kafka_2.11-0.8.2.2 ys02: /usr/
local/ys/app/
-
scp -r /usr/
local/ys/app/kafka_2.11-0.8.2.2 ys03: /usr/
local/ys/app/
-
scp -r /usr/
local/ys/app/kafka_2.11-0.8.2.2 ys04: /usr/
local/ys/app/
-
-
-
ln -s kafka_2.11-0.8.2.2 kafka
-
-
-
依次修改各服务器上配置文件的的broker.id,分别是0,1,2不得重复。
-
-
-
-
bin/kafka-server-start.sh config/server.properties
-
-
-
-
3.6.1 alt+p 后出现sftp窗口,
cd /usr/
local/ys/soft,使用sftp上传tar包到虚机ys01的/usr/
local/ys/soft目录下
-
-
-
tar -zxvf /usr/
local/ys/soft/ spark-1.6.1-bin-hadoop2.6.tgz -C /usr/
local/ys/app/
-
-
3.6.3 修改Spark配置文件(两个配置文件spark-env.sh和slaves)
-
cd /usr/
local/ys/soft/spark-1.6.1-bin-hadoop2.6
-
进入conf目录并重命名并修改spark-env.sh.template文件
-
-
mv spark-env.sh.template spark-env.sh
-
-
-
export JAVA_HOME=/usr/java/jdk1.7.0_45
-
export SPARK_MASTER_PORT=7077
-
export SPARK_DAEMON_JAVA_OPTS=
"-Dspark.deploy.recoveryMode=ZOOKEEPER -Dspark.deploy.zookeeper.url=ys01,ys02,ys04 -Dspark.deploy.zookeeper.dir=/spark"
-
-
-
mv slaves.template slaves
-
-
在该文件中添加子节点所在的位置(Worker节点)
-
-
-
-
-
-
-
scp -r spark-1.6.1-in-hadoop2.6/ ys02:/usr/
local/ys/app
-
scp -r spark-1.6.1-bin-hadoop2.6/ ys03:/usr/
local/ys/app
-
scp -r spark-1.6.1-bin-hadoop2.6/ ys04:/usr/
local/ys/app
-
-
-
在ys01上执行sbin/start-all.sh脚本
-
然后在ys02上执行sbin/start-master.sh启动第二个Master
-
-
-
-
-
解压azkaban-web-server-2.5.0.tar.gz
-
命令: tar –zxvf /usr/
local/ys/soft/azkaban-web-server-2.5.0.tar.gz -C /usr/
local/ys/app/azkaban
-
将解压后的azkaban-web-server-2.5.0 移动到 azkaban目录中,并重新命名 webserver
-
命令: mv azkaban-web-server-2.5.0 ../azkaban
-
-
mv azkaban-web-server-2.5.0 webserver
-
-
-
解压azkaban-executor-server-2.5.0.tar.gz
-
命令:tar –zxvf /usr/
local/ys/soft/azkaban-executor-server-2.5.0.tar.gz -C /usr/
local/ys/app/azkaban
-
将解压后的azkaban-executor-server-2.5.0 移动到 azkaban目录中,并重新命名 executor
-
命令:mv azkaban-executor-server-2.5.0 ../azkaban
-
-
mv azkaban-executor-server-2.5.0 executor
-
-
-
解压: azkaban-sql-script-2.5.0.tar.gz
-
命令:tar –zxvf azkaban-sql-script-2.5.0.tar.gz
-
-
-
mysql> create database azkaban;
-
-
-
mysql>
source /usr/
local/ys/soft/azkaban-2.5.0/create-all-sql-2.5.0.sql;
-
-
-
参考地址: http://docs.codehaus.org/display/JETTY/How+to+configure+SSL
-
命令: keytool -keystore keystore -
alias jetty -genkey -keyalg RSA
-
运行此命令后,会提示输入当前生成 keystor的密码及相应信息,输入的密码请劳记,信息如下(此处我输入的密码为:123456)
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
CN=Unknown, OU=Unknown, O=Unknown, L=Unknown, ST=Unknown, C=CN 正确吗?
-
-
输入的主密码(如果和 keystore 密码相同,按回车):
-
-
完成上述工作后,将在当前目录生成 keystore 证书文件,将keystore 考贝到 azkaban web服务器根目录中.如:cp keystore azkaban/webserver
-
-
-
-
先生成时区配置文件Asia/Shanghai,用交互式命令 tzselect 即可
-
-
cp /usr/share/zoneinfo/Asia/Shanghai /etc/localtime
-
-
-
进入azkaban web服务器安装目录 conf目录
-
-
内容说明如下:
-
*Azkaban Personalization Settings
-
azkaban
.name=Test
#服务器UI名称,用于服务器上方显示的名字
-
azkaban
.label=My Local Azkaban
#描述
-
azkaban
.color=
#FF3601 #UI颜色
-
azkaban
.default
.servlet
.path=/index
#
-
web
.resource
.dir=web/
#默认根web目录
-
default
.timezone
.id=Asia/Shanghai
#默认时区,已改为亚洲/上海 默认为美国
-
-
*Azkaban UserManager
class
-
user
.manager
.class=azkaban
.user
.XmlUserManager
#用户权限管理默认类
-
user
.manager
.xml
.file=conf/azkaban-users
.xml
#用户配置,具体配置参加下文
-
-
-
executor
.global
.properties=conf/
global
.properties
# global配置文件所在位置
-
azkaban
.project
.dir=projects
#
-
-
database
.type=mysql
#数据库类型
-
-
mysql
.host=localhost
#数据库连接IP
-
mysql
.database=azkaban
#数据库实例名
-
-
mysql
.password=Root123456
#数据库密码
-
mysql
.numconnections=
100
#最大连接数
-
-
-
velocity
.dev
.mode=
false
-
-
jetty
.maxThreads=
25
#最大线程数
-
jetty
.ssl
.port=
8443
#Jetty SSL端口
-
jetty
.port=
8081
#Jetty端口
-
jetty
.keystore=keystore
#SSL文件名
-
jetty
.password=
123456
#SSL文件密码
-
jetty
.keypassword=
123456
#Jetty主密码 与 keystore文件相同
-
jetty
.truststore=keystore
#SSL文件名
-
jetty
.trustpassword=
123456
# SSL文件密码
-
-
-
executor
.port=
12321
#执行服务器端
-
-
-
mail
.sender=xxxxxxxx
@163
.com
#发送邮箱
-
mail
.host=smtp
.163
.com
#发送邮箱smtp地址
-
mail
.user=xxxxxxxx
#发送邮件时显示的名称
-
mail
.password=**********
#邮箱密码
-
job
.failure
.email=xxxxxxxx
@163
.com
#任务失败时发送邮件的地址
-
job
.success
.email=xxxxxxxx
@163
.com
#任务成功时发送邮件的地址
-
lockdown
.create
.projects=
false
#
-
cache
.directory=cache
#缓存目录
-
-
3.7
.7azkaban 执行服务器executor配置
-
进入执行服务器安装目录conf,修改azkaban
.properties
-
-
-
default
.timezone
.id=Asia/Shanghai
#时区
-
-
-
azkaban
.jobtype
.plugin
.dir=plugins/jobtypes
#jobtype 插件所在位置
-
-
-
executor
.global
.properties=conf/
global
.properties
-
azkaban
.project
.dir=projects
-
-
-
database
.type=mysql
#数据库类型(目前只支持mysql)
-
mysql
.port=
3306
#数据库端口号
-
mysql
.host=
192.168
.20
.200
#数据库IP地址
-
mysql
.database=azkaban
#数据库实例名
-
-
mysql
.password=Root23456
#数据库密码
-
mysql
.numconnections=
100
#最大连接数
-
-
-
executor
.maxThreads=
50
#最大线程数
-
executor
.port=
12321
#端口号(如修改,请与web服务中一致)
-
executor
.flow
.threads=
30
#线程数
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- 10
- 11
- 12
- 13
- 14
- 15
- 16
- 17
- 18
- 19
- 20
- 21
- 22
- 23
- 24
- 25
- 26
- 27
- 28
- 29
- 30
- 31
- 32
- 33
- 34
- 35
- 36
- 37
- 38
- 39
- 40
- 41
- 42
- 43
- 44
- 45
- 46
- 47
- 48
- 49
- 50
- 51
- 52
- 53
- 54
- 55
- 56
- 57
- 58
- 59
- 60
- 61
- 62
- 63
- 64
- 65
- 66
- 67
- 68
- 69
- 70
- 71
- 72
- 73
- 74
- 75
-
-
进入
azkaban
web服务器
conf目录,修改
azkaban-users
.xml
-
vi
azkaban-users
.xml 增加 管理员用户
-
-
-
-
-
-
nohup bin/azkaban-web-start.sh
1>/tmp/azstd.
out
2>/tmp/azerr.
out &
-
-
-
-
-
bin/azkaban-executor-start.sh
-
-
-
启动完成后,在浏览器(建议使用谷歌浏览器)中输入https:
-
-
-
-
-
-
-
-
-
tar –zxvf /usr/
local/ys/soft/hbase-
0.99.
2-bin.tar.gz -C /usr/
local/ys/app
-
-
-
-
-
-
-
-
-
export JAVA_HOME=/usr/
local/ys/app/jdk1.
7.0_80
-
export HBASE_CLASSPATH=/usr/
local/ys/app/hadoop-
2.6.
4/etc/hadoop
-
export HBASE_MANAGES_ZK=false #如果使用独立安装的zookeeper这个地方就是false(此处使用自己的zookeeper)
-
-
-
-
-
-
-
-
-
-
3.9.
4将Hadoop的配置文件hdfs-site.xml和core-site.xml拷贝到HBase配置文件中
-
cp /usr/
local/ys/app/Hadoop-
2.6.
4/etc/hadoop/hdfs-site.xml /usr/
local/ys/app/hbase/conf
-
cp /usr/
local/ys/app/hadoop-
2.6.
4/etc/hadoop/core-site.xml /usr/
local/ys/app/hbase/conf
-
-
-
scp –r /usr/
local/ys/app/hbase ys02: /usr/
local/ys/app
-
scp –r /usr/
local/ys/app/hbase ys03: /usr/
local/ys/app
-
scp –r /usr/
local/ys/app/hbase ys04: /usr/
local/ys/app
-
-
-
cd /usr/
local/ys/app/hbase/bin
-
-
-
-
-
进入hbase的shell:hbase shell
-
-
-
-
3.10KAfkaOffsetMonitor(Kafka集群的监控程序,本质就是一个jar包)
-
-
-
-
-
-
nohup java -cp KafkaOffsetMonitor-assembly-
0.2.
1.jar com.quantifind.kafka.offsetapp.OffsetGetterWeb --zk ys01,ys02,ys04 --refresh
5.minutes --retain
1.day --port
8089 $
4. 集群调优
-
4.1 辅助工具尽量不安装到数据或者运算节点,避免占用过多计算或内存资源。
-
-
4.2 dataNode和spark的slave节点尽量在一起;这样运算的时候就可以避免通过网络拉取数据,加快运算速度。
-
-
4.3 Hadoop集群机架感知配置,配置之后可以使得数据在同机架的不同机器
2份,然后其他机架机器
1份,可是两台机器四台虚机没有必要配感知个人感觉。
-
-
-
第三阶段(辅助工具工学习阶段)
11)Sqoop(CSDN,51CTO ,以及官网)—20小时
- 数据导出概念介绍
- Sqoop基础知识
- Sqoop原理及配置说明
- Sqoop数据导入实战
- Sqoop数据导出实战、
- Sqoop批量作业操作
推荐学习博客:http://student-lp.iteye.com/blog/2157983
官网:http://sqoop.apache.org/
12)Flume(CSDN,51CTO ,以及官网)—20小时
- FLUME日志采集框架介绍。
- FLUME工作机制。
- FLUME核心组件。
- FLUME参数配置说明。
- FLUME采集nginx日志案例(案例一定要实践一下)
推荐学习博客:http://www.aboutyun.com/thread-8917-1-1.html
官网:http://flume.apache.org
13)Oozie(CSDN,51CTO ,以及官网)–20小时
- 任务调度系统概念介绍。
- 常用任务调度工具比较。
- Oozie介绍。
- Oozie核心概念。
- Oozie的配置说明。
- Oozie实现mapreduce/hive等任务调度实战案例。