大数据学习之路
06-09 423
【转载】http://blog.csdn.net/zys_1997/article/details/78358992
原文:https://blog.csdn.net/zys_1997/article/details/78358992
看到一个博主写的大数据学习路线,看了比较心动,想着自己可以先在Java的道路上继续努力,打好基础。这篇文章也许以后会有用,就转载如下:
【不要错过文末彩蛋】
申明:
本文旨在为普通程序员(Java程序员最佳)提供一个入门级别的大数据技术学习路径,不适用于大数据工程师的进阶学习,也不适用于零编程基础的同学。
前言:
正文:
本人目前是一名大数据工程师,项目数据50T,日均数据增长20G左右,个人是从Java后端开发,经过3个月的业余自学成功转型大数据工程师。
大数据本质也是数据,但是又有了新的特征,包括数据来源广、数据格式多样化(结构化数据、非结构化数据、Excel文件、文本文件等)、数据量大(最少也是TB级别的、甚至可能是PB级别)、数据增长速度快等。
针对以上主要的4个特征我们需要考虑以下问题:
数据来源广,该如何采集汇总?,对应出现了Sqoop,Cammel,Datax等工具。
数据采集之后,该如何存储?,对应出现了GFS,HDFS,TFS等分布式文件存储系统。
由于数据增长速度快,数据存储就必须可以水平扩展。
数据存储之后,该如何通过运算快速转化成一致的格式,该如何快速运算出自己想要的结果?
对应的MapReduce这样的分布式运算框架解决了这个问题;但是写MapReduce需要Java代码量很大,所以出现了Hive,Pig等将SQL转化成MapReduce的解析引擎;
普通的MapReduce处理数据只能一批一批地处理,时间延迟太长,为了实现每输入一条数据就能得到结果,于是出现了Storm/JStorm这样的低时延的流式计算框架;
但是如果同时需要批处理和流处理,按照如上就得搭两个集群,Hadoop集群(包括HDFS+MapReduce+Yarn)和Storm集群,不易于管理,所以出现了Spark这样的一站式的计算框架,既可以进行批处理,又可以进行流处理(实质上是微批处理)。
而后Lambda架构,Kappa架构的出现,又提供了一种业务处理的通用架构。
为了提高工作效率,加快运速度,出现了一些辅助工具:
以上大致就把整个大数据生态里面用到的工具所解决的问题列举了一遍,知道了他们为什么而出现或者说出现是为了解决什么问题,进行学习的时候就有的放矢了。
大数据方向的工作目前主要分为三个主要方向:
附上大数据工程师技能图:
必须掌握的技能11条
高阶技能6条
假设每天可以抽出3个小时的有效学习时间,加上周末每天保证10个小时的有效学习时间;
3个月会有(21*3+4*2*10)*3=423小时的学习时间。
第一阶段(基础阶段)
1)Linux学习(跟鸟哥学就ok了)—–20小时
官网:https://www.centos.org/download/
中文社区:http://www.linuxidc.com/Linux/2017-09/146919.htm
2)Java 高级学习(《深入理解Java虚拟机》、《Java高并发实战》)—30小时
官网:https://www.java.com/zh_CN/
中文社区:http://www.java-cn.com/index.html
3)Zookeeper学习(可以参照这篇博客进行学习:http://www.cnblogs.com/wuxl360/p/5817471.html)
官网:http://zookeeper.apache.org/
中文社区:http://www.aboutyun.com/forum-149-1.html
第二阶段(攻坚阶段)
4)Hadoop (《Hadoop 权威指南》)—80小时
HDFS
MapReduce
MapReduce的Java应用开发
官网:http://hadoop.apache.org/
中文文档:http://hadoop.apache.org/docs/r1.0.4/cn/
中文社区:http://www.aboutyun.com/forum-143-1.html
5)Hive(《Hive开发指南》)–20小时
Hive 基本概念
Hive 基本操作
Hive 执行过程分析及优化策略
官网:https://hive.apache.org/
中文入门文档:http://www.aboutyun.com/thread-11873-1-1.html
中文社区:http://www.aboutyun.com/thread-7598-1-1.html
6)HBase(《HBase权威指南》)—20小时
官网:http://hbase.apache.org/
中文文档:http://abloz.com/hbase/book.html
中文社区:http://www.aboutyun.com/forum-142-1.html
7)Scala(《快学Scala》)–20小时
官网:http://www.scala-lang.org/
初级中文教程:http://www.runoob.com/scala/scala-tutorial.html
8)Spark (《Spark 权威指南》)—60小时
Spark core
RDD
Spark SQL and DataFrame/DataSet
Spark Streaming
Structured Streaming
其他(MLlib and GraphX )
这个部分一般工作中如果不是数据挖掘,机器学习一般用不到,可以等到需要用到的时候再深入学习。
官网:http://spark.apache.org
中文文档(但是版本有点老):https://www.gitbook.com/book/aiyanbo/spark-programming-guide-zh-cn/details
中文社区:http://www.aboutyun.com/forum-146-1.html
9)Python (推荐廖雪峰的博客—30小时
10)自己用虚拟机搭建一个集群,把所有工具都装上,自己开发一个小demo —30小时
可以自己用VMware搭建4台虚拟机,然后安装以上软件,搭建一个小集群(本人亲测,I7,64位,16G内存,完全可以运行起来,以下附上我学习时用虚拟机搭建集群的操作文档)
集群搭建文档1.0版本
1. 集群规划
所有需要用到的软件:
链接:http://pan.baidu.com/s/1jIlAz2Y
密码:kyxl
2. 前期准备
-
2.0 系统安装
-
-
2.1 主机名配置
-
-
2.1.0 vi /etc/sysconfig/network
-
NETWORKING=yes
-
-
2.1.1 vi /etc/sysconfig/network
-
NETWORKING=yes
-
HOSTNAME=ys02
-
-
2.1.2 vi /etc/sysconfig/network
-
NETWORKING=yes
-
-
2.1.3 vi /etc/sysconfig/network
-
NETWORKING=yes
-
HOSTNAME=ys04
-
-
2.2 host文件修改
-
2.2.0 vi /etc/hosts
-
10.1.1.149 ys01
-
10.1.1.148 ys02
-
10.1.1.146 ys03
-
10.1.1.145 ys04
-
2.3 关闭防火墙(centos 7默认使用的是firewall,centos 6 默认是iptables)
-
-
2.3.0 systemctl
stop firewalld.service (停止firewall)
-
-
2.3
.1 systemctl
disable firewalld.service (禁止firewall开机启动)
-
-
2.3
.2 firewall-cmd
--state (查看默认防火墙状态(关闭后显示notrunning,开启后显示running)
-
-
2.4 免密登录(ys01 ->ys02,
03,
04)
-
ssh-keygen -t rsa
-
ssh-copy-
id ys02(随后输入密码)
-
ssh-copy-
id ys03(随后输入密码)
-
ssh-copy-
id ys04(随后输入密码)
-
ssh ys02(测试是否成功)
-
ssh ys03(测试是否成功)
-
ssh ys04(测试是否成功)
-
-
2.5 系统时区与时间同步
-
tzselect(生成日期文件)
-
cp /usr/
share/zoneinfo/Asia/Shanghai /etc/
localtime(将日期文件copy到本地时间中)
3. 软件安装
-
3.0 安装目录规划(软件为所有用户公用)
-
-
3.0.0所有软件的安装放到/usr/
local/ys/soft目录下(mkdir /usr/
local/ys/soft)
-
-
3.0.1所有软件安装到/usr/
local/ys/app目录下(mkdir /usr/
local/ys/app)
-
-
3.1 JDK(jdk1.7)安装
-
-
3.1.1 alt+p 后出现sftp窗口,
cd /usr/
local/ys/soft,使用sftp上传tar包到虚机ys01的/usr/
local/ys/soft目录下
-
-
3.1.2解压jdk
-
cd /usr/
local/ys/soft
-
#解压
-
tar -zxvf jdk-7u80-linux-x64.tar.gz -C /usr/
local/ys/app
-
-
3.1.3将java添加到环境变量中
-
vim /etc/profile
-
#在文件最后添加
-
export JAVA_HOME= /usr/
local/ys/app/ jdk-7u80
-
export PATH=
$PATH:
$JAVA_HOME/bin
-
-
3.1.4 刷新配置
-
source /etc/profile
-
-
3.2 Zookeeper安装
-
-
3.2.0解压
-
tar -zxvf zookeeper-3.4.5.tar.gz -C /usr/
local/ys/app(解压)
-
-
3.2.1 重命名
-
mv zookeeper-3.4.5 zookeeper(重命名文件夹zookeeper-3.4.5为zookeeper)
-
-
3.2.2修改环境变量
-
vi /etc/profile(修改文件)
-
添加内容:
-
export ZOOKEEPER_HOME=/usr/
local/ys/app/zookeeper
-
export PATH=
$PATH:
$ZOOKEEPER_HOME/bin
-
-
3.2.3 重新编译文件:
-
source /etc/profile
-
注意:3台zookeeper都需要修改
-
-
3.2.4修改配置文件
-
cd zookeeper/conf
-
cp zoo_sample.cfg zoo.cfg
-
vi zoo.cfg
-
添加内容:
-
dataDir=/usr/
local/ys/app/zookeeper/data
-
dataLogDir=/usr/
local/ys/app/zookeeper/
log
-
server.1=ys01:2888:3888 (主机名, 心跳端口、数据端口)
-
server.2=ys02:2888:3888
-
server.3=ys04:2888:3888
-
-
3.2.5 创建文件夹
-
cd /usr/
local/ys/app/zookeeper/
-
mkdir -m 755 data
-
mkdir -m 755
log
-
-
3.2.6 在data文件夹下新建myid文件,myid的文件内容为:
-
cd data
-
vi myid
-
添加内容:
-
1
-
将集群下发到其他机器上
-
scp -r /usr/
local/ys/app/zookeeper ys02:/usr/
local/ys/app/
-
scp -r /usr/
local/ys/app/zookeeper ys04:/usr/
local/ys/app/
-
-
3.2.7修改其他机器的配置文件
-
到ys02上:修改myid为:2
-
到ys02上:修改myid为:3
-
-
3.2.8启动(每台机器)
-
zkServer.sh start
-
查看集群状态
-
jps(查看进程)
-
zkServer.sh status(查看集群状态,主从信息)
-
-
3.3 Hadoop(HDFS+Yarn)
-
-
3.3.0 alt+p 后出现sftp窗口,使用sftp上传tar包到虚机ys01的/usr/
local/ys/soft目录下
-
-
3.3.1 解压jdk
-
cd /usr/
local/ys/soft
-
#解压
-
tar -zxvf cenos-7-hadoop-2.6.4.tar.gz -C /usr/
local/ys/app
-
-
3.3.2 修改配置文件
-
-
core-site.xml
hdfs-site.xml
yarn-sifite.xml
-
svales
-
-
ys02
-
ys03
-
ys04
-
-
3.3.3集群启动(严格按照下面的步骤)
-
3.3.3.1启动zookeeper集群(分别在ys01、ys02、ys04上启动zk)
-
cd /usr/
local/ys/app/zookeeper-3.4.5/bin/
-
./zkServer.sh start
-
#查看状态:一个leader,两个follower
-
./zkServer.sh status
-
-
3.3.3.2启动journalnode(分别在在mini5、mini6、mini7上执行)
-
cd /usr/
local/ys/app/hadoop-2.6.4
-
sbin/hadoop-daemon.sh start journalnode
-
#运行jps命令检验,ys02、ys03、ys04上多了JournalNode进程
-
-
3.3.3.3格式化HDFS
-
#在ys01上执行命令:
-
hdfs namenode -format
-
#格式化后会在根据core-site.xml中的hadoop.tmp.dir配置生成个文件,这里我配置的是/usr/local/ys/app/hadoop-2.6.4/tmp,然后将/usr/local/ys/app/hadoop-2.6.4/tmp拷贝到ys02的/usr/local/ys/app/hadoop-2.6.4/下。
-
scp -r tmp/ ys02:/usr/
local/ys /app/hadoop-2.6.4/
-
##也可以这样,建议hdfs namenode -bootstrapStandby
-
-
3.3.3.4格式化ZKFC(在ys01上执行一次即可)
-
hdfs zkfc -formatZK
-
-
3.3.3.5启动HDFS(在ys01上执行)
-
sbin/start-dfs.sh
-
-
3.3.3.6启动YARN
-
sbin/start-yarn.sh
-
-
3.3MySQL-5.6安装
-
略过
-
-
3.4 Hive
-
-
3.4.1 alt+p 后出现sftp窗口,
cd /usr/
local/ys/soft,使用sftp上传tar包到虚机ys01的/usr/
local/ys/soft目录下
-
-
3.4.2解压
-
cd /usr/
local/ys/soft
-
tar -zxvf hive-0.9.0.tar.gz -C /usr/
local/ys/app
-
-
3.4.3 .配置hive
-
-
3.4.3.1配置HIVE_HOME环境变量 vi conf/hive-env.sh 配置其中的
$hadoop_home
-
-
3.4.3.2配置元数据库信息 vi hive-site.xml
添加如下内容:
-
3.4.4 安装hive和mysq完成后,将mysql的连接jar包拷贝到
$HIVE_HOME/lib目录下
-
如果出现没有权限的问题,在mysql授权(在安装mysql的机器上执行)
-
mysql -uroot -p
-
#(执行下面的语句 *.*:所有库下的所有表 %:任何IP地址或主机都可以连接)
-
GRANT ALL PRIVILEGES ON *.* TO
'root'@
'%' IDENTIFIED BY
'root' WITH GRANT OPTION;
-
FLUSH PRIVILEGES;
-
-
3.4.5 Jline包版本不一致的问题,需要拷贝hive的lib目录中jline.2.12.jar的jar包替换掉hadoop中的 /usr/
local/ys/app/hadoop-2.6.4/share/hadoop/yarn/lib/jline-0.9.94.jar
-
-
3.4.6启动hive
-
bin/hive
-
-
3.5 Kafka
-
3.5.1 下载安装包
-
http://kafka.apache.org/downloads.html
-
在linux中使用wget命令下载安装包
-
wget http://mirrors.hust.edu.cn/apache/kafka/0.8.2.2/kafka_2.11-0.8.2.2.tgz
-
-
3.5.2 解压安装包
-
tar -zxvf /usr/
local/ys/soft/kafka_2.11-0.8.2.2.tgz -C /usr/
local/ys/app/
-
cd /usr/
local/ys/app/
-
ln -s kafka_2.11-0.8.2.2 kafka
-
-
3.5.3 修改配置文件
-
cp
-
/usr/
local/ys/app/kafka/config/server.properties
-
/usr/
local/ys/app/kafka/config/server.properties.bak
-
vi /usr/
local/ys/kafka/config/server.properties
输入以下内容:
-
3.5.4 分发安装包
-
scp -r /usr/
local/ys/app/kafka_2.11-0.8.2.2 ys02: /usr/
local/ys/app/
-
scp -r /usr/
local/ys/app/kafka_2.11-0.8.2.2 ys03: /usr/
local/ys/app/
-
scp -r /usr/
local/ys/app/kafka_2.11-0.8.2.2 ys04: /usr/
local/ys/app/
-
然后分别在各机器上创建软连
-
cd /usr/
local/ys/app/
-
ln -s kafka_2.11-0.8.2.2 kafka
-
-
3.5.5 再次修改配置文件(重要)
-
依次修改各服务器上配置文件的的broker.id,分别是0,1,2不得重复。
-
-
3.5.6 启动集群
-
依次在各节点上启动kafka
-
bin/kafka-server-start.sh config/server.properties
-
-
3.6 Spark
-
-
3.6.1 alt+p 后出现sftp窗口,
cd /usr/
local/ys/soft,使用sftp上传tar包到虚机ys01的/usr/
local/ys/soft目录下
-
-
3.6.2 解压安装包
-
tar -zxvf /usr/
local/ys/soft/ spark-1.6.1-bin-hadoop2.6.tgz -C /usr/
local/ys/app/
-
-
3.6.3 修改Spark配置文件(两个配置文件spark-env.sh和slaves)
-
cd /usr/
local/ys/soft/spark-1.6.1-bin-hadoop2.6
-
进入conf目录并重命名并修改spark-env.sh.template文件
-
cd conf/
-
mv spark-env.sh.template spark-env.sh
-
vi spark-env.sh
-
在该配置文件中添加如下配置
-
export JAVA_HOME=/usr/java/jdk1.7.0_45
-
export SPARK_MASTER_PORT=7077
-
export SPARK_DAEMON_JAVA_OPTS=
"-Dspark.deploy.recoveryMode=ZOOKEEPER -Dspark.deploy.zookeeper.url=ys01,ys02,ys04 -Dspark.deploy.zookeeper.dir=/spark"
-
保存退出
-
重命名并修改slaves.template文件
-
mv slaves.template slaves
-
vi slaves
-
在该文件中添加子节点所在的位置(Worker节点)
-
Ys02
-
Ys03
-
Ys04
-
保存退出
-
-
3.6.4 将配置好的Spark拷贝到其他节点上
-
scp -r spark-1.6.1-in-hadoop2.6/ ys02:/usr/
local/ys/app
-
scp -r spark-1.6.1-bin-hadoop2.6/ ys03:/usr/
local/ys/app
-
scp -r spark-1.6.1-bin-hadoop2.6/ ys04:/usr/
local/ys/app
-
-
3.6.5 集群启动
-
在ys01上执行sbin/start-all.sh脚本
-
然后在ys02上执行sbin/start-master.sh启动第二个Master
-
-
3.7 Azkaban
-
-
3.7.1 azkaban web服务器安装
-
解压azkaban-web-server-2.5.0.tar.gz
-
命令: tar –zxvf /usr/
local/ys/soft/azkaban-web-server-2.5.0.tar.gz -C /usr/
local/ys/app/azkaban
-
将解压后的azkaban-web-server-2.5.0 移动到 azkaban目录中,并重新命名 webserver
-
命令: mv azkaban-web-server-2.5.0 ../azkaban
-
cd ../azkaban
-
mv azkaban-web-server-2.5.0 webserver
-
-
3.7.2 azkaban 执行服器安装
-
解压azkaban-executor-server-2.5.0.tar.gz
-
命令:tar –zxvf /usr/
local/ys/soft/azkaban-executor-server-2.5.0.tar.gz -C /usr/
local/ys/app/azkaban
-
将解压后的azkaban-executor-server-2.5.0 移动到 azkaban目录中,并重新命名 executor
-
命令:mv azkaban-executor-server-2.5.0 ../azkaban
-
cd ../azkaban
-
mv azkaban-executor-server-2.5.0 executor
-
-
3.7.3 azkaban脚本导入
-
解压: azkaban-sql-script-2.5.0.tar.gz
-
命令:tar –zxvf azkaban-sql-script-2.5.0.tar.gz
-
将解压后的mysql 脚本,导入到mysql中:
-
进入mysql
-
mysql> create database azkaban;
-
mysql> use azkaban;
-
Database changed
-
mysql>
source /usr/
local/ys/soft/azkaban-2.5.0/create-all-sql-2.5.0.sql;
-
-
3.7.4 创建SSL配置
-
参考地址: http://docs.codehaus.org/display/JETTY/How+to+configure+SSL
-
命令: keytool -keystore keystore -
alias jetty -genkey -keyalg RSA
-
运行此命令后,会提示输入当前生成 keystor的密码及相应信息,输入的密码请劳记,信息如下(此处我输入的密码为:123456)
-
输入keystore密码:
-
再次输入新密码:
-
您的名字与姓氏是什么?
-
[Unknown]:
-
您的组织单位名称是什么?
-
[Unknown]:
-
您的组织名称是什么?
-
[Unknown]:
-
您所在的城市或区域名称是什么?
-
[Unknown]:
-
您所在的州或省份名称是什么?
-
[Unknown]:
-
该单位的两字母国家代码是什么
-
[Unknown]: CN
-
CN=Unknown, OU=Unknown, O=Unknown, L=Unknown, ST=Unknown, C=CN 正确吗?
-
[否]: y
-
输入
的主密码(如果和 keystore 密码相同,按回车):
-
再次输入新密码
-
完成上述工作后,将在当前目录生成 keystore 证书文件,将keystore 考贝到 azkaban web服务器根目录中.如:cp keystore azkaban/webserver
-
-
3.7.5 配置文件
-
注:先配置好服务器节点上的时区
-
先生成时区配置文件Asia/Shanghai,用交互式命令 tzselect 即可
-
拷贝该时区文件,覆盖系统本地时区配置
-
cp /usr/share/zoneinfo/Asia/Shanghai /etc/localtime
-
-
3.7.6 azkaban web服务器配置
-
进入azkaban web服务器安装目录 conf目录
-
修改azkaban.properties文件
-
命令vi azkaban.properties
内容说明如下:
-
*Azkaban Personalization Settings
-
azkaban
.name=Test
#服务器UI名称,用于服务器上方显示的名字
-
azkaban
.label=My Local Azkaban
#描述
-
azkaban
.color=
#FF3601 #UI颜色
-
azkaban
.default
.servlet
.path=/index
#
-
web
.resource
.dir=web/
#默认根web目录
-
default
.timezone
.id=Asia/Shanghai
#默认时区,已改为亚洲/上海 默认为美国
-
-
*Azkaban UserManager
class
-
user
.manager
.class=azkaban
.user
.XmlUserManager
#用户权限管理默认类
-
user
.manager
.xml
.file=conf/azkaban-users
.xml
#用户配置,具体配置参加下文
-
-
*Loader
for projects
-
executor
.global
.properties=conf/
global
.properties
# global配置文件所在位置
-
azkaban
.project
.dir=projects
#
-
-
database
.type=mysql
#数据库类型
-
mysql
.port=
3306
#端口号
-
mysql
.host=localhost
#数据库连接IP
-
mysql
.database=azkaban
#数据库实例名
-
mysql
.user=root
#数据库用户名
-
mysql
.password=Root123456
#数据库密码
-
mysql
.numconnections=
100
#最大连接数
-
-
* Velocity dev mode
-
velocity
.dev
.mode=
false
-
* Jetty服务器属性.
-
jetty
.maxThreads=
25
#最大线程数
-
jetty
.ssl
.port=
8443
#Jetty SSL端口
-
jetty
.port=
8081
#Jetty端口
-
jetty
.keystore=keystore
#SSL文件名
-
jetty
.password=
123456
#SSL文件密码
-
jetty
.keypassword=
123456
#Jetty主密码 与 keystore文件相同
-
jetty
.truststore=keystore
#SSL文件名
-
jetty
.trustpassword=
123456
# SSL文件密码
-
-
* 执行服务器属性
-
executor
.port=
12321
#执行服务器端
-
-
*邮件设置
-
mail
.sender=xxxxxxxx
@163
.com
#发送邮箱
-
mail
.host=smtp
.163
.com
#发送邮箱smtp地址
-
mail
.user=xxxxxxxx
#发送邮件时显示的名称
-
mail
.password=**********
#邮箱密码
-
job
.failure
.email=xxxxxxxx
@163
.com
#任务失败时发送邮件的地址
-
job
.success
.email=xxxxxxxx
@163
.com
#任务成功时发送邮件的地址
-
lockdown
.create
.projects=
false
#
-
cache
.directory=cache
#缓存目录
-
-
3.7
.7azkaban 执行服务器executor配置
-
进入执行服务器安装目录conf,修改azkaban
.properties
-
vi azkaban
.properties
-
*Azkaban
-
default
.timezone
.id=Asia/Shanghai
#时区
-
-
* Azkaban JobTypes 插件配置
-
azkaban
.jobtype
.plugin
.dir=plugins/jobtypes
#jobtype 插件所在位置
-
-
*Loader
for projects
-
executor
.global
.properties=conf/
global
.properties
-
azkaban
.project
.dir=projects
-
-
*数据库设置
-
database
.type=mysql
#数据库类型(目前只支持mysql)
-
mysql
.port=
3306
#数据库端口号
-
mysql
.host=
192.168
.20
.200
#数据库IP地址
-
mysql
.database=azkaban
#数据库实例名
-
mysql
.user=root
#数据库用户名
-
mysql
.password=Root23456
#数据库密码
-
mysql
.numconnections=
100
#最大连接数
-
-
*执行服务器配置
-
executor
.maxThreads=
50
#最大线程数
-
executor
.port=
12321
#端口号(如修改,请与web服务中一致)
-
executor
.flow
.threads=
30
#线程数
-
3
.7
.8用户配置
-
进入
azkaban
web服务器
conf目录,修改
azkaban-users
.xml
-
vi
azkaban-users
.xml 增加 管理员用户
-
3.7.
9 web服务器启动
-
在azkaban web服务器目录下执行启动命令
-
bin/azkaban-web-start.sh
-
注:在web服务器根目录运行
-
或者启动到后台
-
nohup bin/azkaban-web-start.sh
1>/tmp/azstd.
out
2>/tmp/azerr.
out &
-
-
3.7.
10执行服务器启动
-
-
在执行服务器目录下执行启动命令
-
bin/azkaban-executor-start.sh
-
注:只能要执行服务器根目录运行
-
-
启动完成后,在浏览器(建议使用谷歌浏览器)中输入https:
//服务器IP地址:8443 ,即可访问azkaban服务了.在登录中输入刚才新的户用名及密码,点击 login
-
-
3.8 Zeppelin
-
参照如下文件:
-
http:
//blog.csdn.net/chengxuyuanyonghu/article/details/54915817
-
http:
//blog.csdn.net/chengxuyuanyonghu/article/details/54915962
-
-
3.9 HBase
-
3.9.
1解压
-
tar –zxvf /usr/
local/ys/soft/hbase-
0.99.
2-bin.tar.gz -C /usr/
local/ys/app
-
-
3.9.
2重命名
-
cd /usr/
local/ys/app
-
mv hbase-
0.99.
2 hbase
-
-
3.9.
3修改配置文件
-
每个文件的解释如下:
-
hbase-env.sh
-
export JAVA_HOME=/usr/
local/ys/app/jdk1.
7.0_80
//jdk安装目录
-
export HBASE_CLASSPATH=/usr/
local/ys/app/hadoop-
2.6.
4/etc/hadoop
//hadoop配置文件的位置
-
export HBASE_MANAGES_ZK=false #如果使用独立安装的zookeeper这个地方就是false(此处使用自己的zookeeper)
-
-
hbase-site.xml
-
Regionservers
//是从机器的域名
-
Ys02
-
ys03
-
ys04
-
-
注:此处HBase配置是针对HA模式的hdfs
-
-
3.9.
4将Hadoop的配置文件hdfs-site.xml和core-site.xml拷贝到HBase配置文件中
-
cp /usr/
local/ys/app/Hadoop-
2.6.
4/etc/hadoop/hdfs-site.xml /usr/
local/ys/app/hbase/conf
-
cp /usr/
local/ys/app/hadoop-
2.6.
4/etc/hadoop/core-site.xml /usr/
local/ys/app/hbase/conf
-
-
3.9.
5发放到其他机器
-
scp –r /usr/
local/ys/app/hbase ys02: /usr/
local/ys/app
-
scp –r /usr/
local/ys/app/hbase ys03: /usr/
local/ys/app
-
scp –r /usr/
local/ys/app/hbase ys04: /usr/
local/ys/app
-
-
3.9.
6启动
-
cd /usr/
local/ys/app/hbase/bin
-
./ start-hbase.sh
-
-
3.9.
7查看
-
进程:jps
-
进入hbase的shell:hbase shell
-
退出hbase的shell:quit
-
页面:http:
//master:60010/
-
-
3.10KAfkaOffsetMonitor(Kafka集群的监控程序,本质就是一个jar包)
-
-
3.10.
1上传jar包
-
略
-
-
3.10.
2 运行jar包
-
nohup java -cp KafkaOffsetMonitor-assembly-
0.2.
1.jar com.quantifind.kafka.offsetapp.OffsetGetterWeb --zk ys01,ys02,ys04 --refresh
5.minutes --retain
1.day --port
8089 $
4. 集群调优
-
4.1 辅助工具尽量不安装到数据或者运算节点,避免占用过多计算或内存资源。
-
-
4.2 dataNode和spark的slave节点尽量在一起;这样运算的时候就可以避免通过网络拉取数据,加快运算速度。
-
-
4.3 Hadoop集群机架感知配置,配置之后可以使得数据在同机架的不同机器
2份,然后其他机架机器
1份,可是两台机器四台虚机没有必要配感知个人感觉。
-
-
4.4 配置参数调优
-
可以参考http:
//blog.csdn.net/chndata/article/details/46003399
第三阶段(辅助工具工学习阶段)
11)Sqoop(CSDN,51CTO ,以及官网)—20小时
推荐学习博客:http://student-lp.iteye.com/blog/2157983
官网:http://sqoop.apache.org/
12)Flume(CSDN,51CTO ,以及官网)—20小时
推荐学习博客:http://www.aboutyun.com/thread-8917-1-1.html
官网:http://flume.apache.org
13)Oozie(CSDN,51CTO ,以及官网)–20小时
推荐学习博客:http://www.infoq.com/cn/articles/introductionOozie
官网:http://oozie.apache.org/
14)Hue(CSDN,51CTO ,以及官网)–20小时
推荐学习博客:http://ju.outofmemory.cn/entry/105162
官网:http://gethue.com/
第四阶段(不断学习阶段)
每天都会有新的东西出现,需要关注最新技术动态,不断学习。任何一般技术都是先学习理论,然后在实践中不断完善理论的过程。
备注
1)如果你觉得自己看书效率太慢,你可以网上搜集一些课程,跟着课程走也OK 。如果看书效率不高就很网课,相反的话就自己看书。
2)企业目前更倾向于使用Spark进行微批处理,Storm只有在对时效性要求极高的情况下,才会使用,所以可以做了解。重点学习Spark Streaming。
3)快速学习的能力、解决问题的能力、沟通能力**真的很重要。
4)要善于使用StackOverFlow和Google(遇到解决不了的问题,先Google,如果Google找不到解决方能就去StackOverFlow提问,一般印度三哥都会在2小时内回答你的问题)。
5)视频课程推荐:
可以去万能的淘宝购买一些视频课程,你输入“大数据视频课程”,会出现很多,多购买几份(100块以内可以搞定),然后选择一个适合自己的。个人认为小象学院的董西成和陈超的课程含金量会比较高。
1)点击流日志项目分析(此处借鉴CSDN博主的文章,由于没有授权,所以就没有贴过来,下面附上链接)—-批处理
http://blog.csdn.net/u014033218/article/details/76847263
2)Spark Streaming在京东的项目实战(京东的实战案例值得好好研究一下,由于没有授权,所以就没有贴过来,下面附上链接)—实时处理
http://download.csdn.net/download/csdndataid_123/8079233
最后但却很重要一点:每天都会有新的技术出现,要多关注技术动向,持续学习。
以上内容不保证一年以后仍适用。
06-09 423
【转载】http://blog.csdn.net/zys_1997/article/details/78358992
前言:
一、背景介绍
二、大数据介绍
正文:
一、大数据相关的工作介绍
…
来自: weixin_41122339的博客
大数据学习路线图
03-30
3329
一、入门准备
1、linux操作基础
-
Linux的介绍,Linux的安装:VMware Workstation虚拟软件安装过程、CentOS虚拟机安装过程
-
Linux的常用命令:常用命令…
来自: qq_38872310的博客
大数据经典学习路线(及供参考)资料群:905572354(新群)
09-08
11.4万
1.Linux基础和分布式集群技术
学完此阶段可掌握的核心能力:
熟练使用Linux,熟练安装Linux上的软件,了解熟悉负载均衡、高可靠等集群相关概念,搭建互联网高并发、高可靠的服务架构;…
来自: 啊哈程序
大数据开发学习路线图
11-21
881
入门知识推荐书籍
1、舍恩伯格的《大数据时代》;
2、巴拉巴西的《爆发》;
3、涂子沛的《大数据》;
4、吴军《智能时代》;
5、《大数据架构商业之路:从业务需求到技术方案》工具技能1、ha…
来自: http://bclsj.cn/
大数据技术学习路线
06-22
2.2万
如果你看完有信心能坚持学习的话,那就当下开始行动吧!
一、大数据技术基础
1、linux操作基础
linux系统简介与安装
linux常用命令–文件操作
linux常用命令–用户管理与权限…
来自: Think Different
大数据教程,大数据学习线路图
07-05
1040
前言先引用一下马云大大的话:
很多人还没搞清楚什么是PC互联网,移动互联网来了,我们还没搞清楚移动互联的时候,大数据时代又来了。 马云
深度解析大数据
“大数据”是近年来IT行业的热词,并广泛的…
来自: 传智播客官方博客
关于A类地址,B类地址,C类地址的划分和详细理解
11-30
2450
关于A类地址,B类地址,C类地址的划分和详细理解
…
来自: brandong
大数据学习心得
03-01
1.4万
大数据学习心得一、 概述1大数据简介
1.1起源
“大数据“,近几年来最火的词之一。虽然大数据这个词的正式产生也就10年左右,但对大数据分析却早就有之。早在互联网初期,就有很多公司通过计算机技术…
来自: 知行_那片天
hadoop学习之azkaban(5):azkaban-2.5.0的详细安装过程
12-11
1183
一个完整的数据分析系统通常由大量的任务单元组成:比如shell脚本,java程序,mr程序,hive脚本等等。
各任务单元之间存在时间先后及前后依赖关系,为了很好地组织起这样的复杂执行计划,需要一个…
来自: 欢迎来到Jimmy的博客
error during connect: Get http://%2F%2F.%2Fpipe%2Fdocker_engine/v1.28/version: open //./pipe/docker_
05-11
668
错误原因:可能是之前我就安装了virtual box,与其自带不同,没有设定值吧。
ps:win10,Docker有原生的。不用docker tollbox
docker-machi…
来自: Simple学习心得
PB 导入和导出Excel
03-13
6671
integer li_rtn,ii,li_asc
string ls_name,ls_pathname
boolean lb_exist
if datawin.RowCount()
MessageB…
来自: 一切安好
Go实战--golang中操作PDF(rsc.io/pdf、jung-kurt/gofpdf、signintech/gopdf)
10-10
8514
生命不止,继续 go go go !!!昨天介绍了golang中如何操作excel:
Go实战–golang中操作excel(tealeg/xlsx、360EntSecGroup-Skylar/ex…
来自: 一蓑烟雨任平生 也无风雨也无晴
零基础学习大数据:零基础学习大数据最完整的学习路线
08-10
338
最近很多人都想学习大数据开发,但是却不知道如何开始学习,今天软妹子专门整理了一份针对大数据初学者的大数据开发学习路线。
下面分十个章节来说明大数据开发要学习的内容:
…
来自: qq_41800874的博客
史上最新最全面的java大数据学习路线(新手小白必看版本)
09-20
294
第一阶段:大数据基础Java语言基础阶段
1.1:Java开发介绍
1.1.1 Java的发展历史
1.1.2 Java的应用领域
1.1.3 Java语言的特性
1.1.4 Java面向对…
来自: 千锋官方的博客
大数据学习路线(完整详细版)
01-05
3.2万
大数据学习路线
java(Java se,javaweb)
Linux(shell,高并发架构,lucene,solr)
Hadoop(Hadoop,HDFS,Mapreduce,yarn,…
来自: CSDN_fzs的博客
Hive学习路线图
04-19
246
Hive学习路线图
Hadoop家族系列文章,主要介绍Hadoop家族产品,常用的项目包括Hadoop,
Hive, Pig, HBase, Sqoop, Mahout, Zookeeper…
来自: qq646748739的专栏
大数据经典学习路线(storm,spark)
06-19
4666
1.Linux基础和分布式集群技术
学完此阶段可掌握的核心能力:
熟练使用linux,熟练安装Linux上的软件,了解熟悉负载均衡、高可靠等集群相关概念,搭建互联网高并发、高可靠的服务…
来自: zhubing10061210的博客
【大数据学习】数学基础及应用
10-10
2090
课程介绍
本课程主要介绍大数据中的数学基础:
一、向量、矩阵介绍
二、向量在游戏引擎中的应用
三、矩阵奇异值分解及其应用
四、导数、梯度介绍
五、最优化方法及其应用
课时列表
…
来自: _夜枫的博客
从小白到大数据技术专家的学习历程
10-16
879
那大数据处置技术怎样学习呢?首先我们要学习Java言语和Linux操作系统,这两个是学习大数据的基础,学习的顺序不分前后。#
Java:大家都知道Java的方向有JavaSE、JavaEE、Ja…
来自: 海牛大数据的博客
java通过SMS短信平台实现发短信的功能
02-13
1625
一、使用java发送短信的方法:
java发送手机短信,通常有几种方法:
(1)使用webserive接口发送手机短信;
(2)使用短信猫的方式进行短信的发送,比较常用的方式,不过需要购买硬件设…
来自: a745233700的博客
干货分享 | 大数据零基础学习路线:新手从入门到精通
08-02
386