大数据入门---1.大数据介绍

大数据的介绍

无处不在的大数据

大数据入门---1.大数据介绍_第1张图片

大数据的爆炸式增长

大数据入门---1.大数据介绍_第2张图片

大数据的特征

大数据入门---1.大数据介绍_第3张图片

大数据与我们的生活息息相关

大数据入门---1.大数据介绍_第4张图片

大数据入门---1.大数据介绍_第5张图片

思考:那么我们如何对这些数据进项存储与分析呢?

我们的hadoop就是在这样的场景下应运而生的

1. HADOOP背景介绍

1.1什么是HADOOP

(1)HADOOP是apache旗下的一套开源软件平台

(2)HADOOP提供的功能:利用服务器集群,根据用户的自定义业务逻辑,对海量数据进行分布式处理

 

1. HADOOP的核心组件有

HDFS(分布式文件系统)

MAPREDUCE(分布式运算编程框架)

YARN(运算资源调度系统)

大数据入门---1.大数据介绍_第6张图片

 

1.2 HADOOP产生背景

1. HADOOP最早起源于**Nutch,Nutch**的设计目标是构建一个大型的全网搜索引擎,包括网页抓取、索引、查询等功能,但随着抓取网页数量的增加,遇到了严重的可扩展性问题——如何解决数十亿网页的存储和索引问题。

2. 2003年、2004年谷歌发表的两篇论文为该问题提供了可行的解决方案

大数据入门---1.大数据介绍_第7张图片

——分布式文件系统(GFS),可用于处理海量网页的存储

——分布式计算框架MAPREDUCE,可用于处理海量网页的索引计算问题。

3. Nutch的开发人员完成了相应的开源实现**HDFS和MAPREDUCE**,并从Nutch中剥离成为独立项目HADOOP,到2008年1月,HADOOP成为Apache顶级项目,迎来了它的快速发展期。

1.3 HADOOP在大数据、云计算中的位置和关系

1. 云计算是分布式计算、并行计算、网络计算、多核计算、网络存储、虚拟化、负载均衡等传统计算机技术和互联网技术融合发展的产物。借助IaaS(基础设施即服务)、PaaS(平台即服务)、SaaS(软件即服务)等业务模式,把强大的计算能力提供给终端用户。

 

2. 现阶段,云计算的两大底层支撑技术为“虚拟化”和“大数据技术

 

3. 而HADOOP则是云计算的PaaS层的解决方案之一,并不等同于PaaS,更不等同于云计算本身。

 

1.4 HADOOP应用案例介绍

1**HADOOP应用于数据服务基础平台建设**

大数据入门---1.大数据介绍_第8张图片

2**.HADOOP用于用户画像**

大数据入门---1.大数据介绍_第9张图片

大数据入门---1.大数据介绍_第10张图片

 

3**、HADOOP用于网站点击流日志数据挖掘**

分析:哪个页面点击的人比较多,哪个页面跳出的人多

大数据入门---1.大数据介绍_第11张图片

 

1.5 HADOOP的就业情况

1、 HADOOP就业整体情况

A. 大数据产业已纳入国家十三五规划

B. 各大城市都在进行智慧城市项目建设,而智慧城市的根基就是大数据综合平台

C. 互联网时代数据的种类,增长都呈现爆发式增长,各行业对数据的价值日益重视

D. 相对于传统JAVAEE技术领域来说,大数据领域的人才相对稀缺

E. 随着现代社会的发展,数据处理和数据挖掘的重要性只会增不会减,因此,大数据技术是一个尚在蓬勃发展且具有长远前景的领域

2、 HADOOP就业职位要求

大数据是个复合专业,包括应用开发、软件平台、算法、数据挖掘等,因此,大数据技术领域的就业选择是多样的,但就HADOOP而言,通常都需要具备以下技能或知识:

A. HADOOP分布式集群的平台搭建

B. HADOOP分布式文件系统HDFS的原理理解及使用

C. HADOOP分布式运算框架MAPREDUCE的原理理解及编程

D. Hive数据仓库工具的熟练应用

E. Flume、sqoop、oozie等辅助工具的熟练使用

F. Shell/python等脚本语言的开发能力

 

3、 HADOOP相关职位的薪资水平

大数据技术或具体到HADOOP的就业需求目前主要集中在北上广深一线城市,薪资待遇普遍高于传统**JAVAEE开发人员**,以北京为例:

 

1.6 HADOOP生态圈以及各组成部分的简介

大数据入门---1.大数据介绍_第12张图片

各组件简介

重点组件:

HDFS:分布式文件系统

MAPREDUCE:分布式运算程序开发框架

HIVE:基于大数据技术(文件系统+运算框架)的SQL数据仓库工具

HBASE:基于HADOOP的分布式海量数据库

ZOOKEEPER**:分布式协调服务基础组件**

Mahout:基于mapreduce/spark/flink等分布式运算框架的机器学习算法库

Oozie:工作流调度框架(Azakaba)

Sqoop:数据导入导出工具

Flume:日志数据采集框架

 

2. 数据分析流程介绍

初步理解hadoop数据如何处理流程

一个应用广泛的数据分析系统:“web日志数据挖掘”

大数据入门---1.大数据介绍_第13张图片

2.1 案例需求描述

“Web点击流日志”包含着网站运营很重要的信息,通过日志分析,我们可以知道网站的访问量,哪个网页访问人数最多,哪个网页最有价值,广告转化率、访客的来源信息,访客的终端信息等。

2.2 数据来源

本案例的数据主要由用户的点击行为记录

获取方式:在页面预埋一段js程序,为页面上想要监听的标签绑定事件,只要用户点击或移动到标签,即可触发ajax请求到后台servlet程序,用log4j记录下事件信息,从而在web服务器(nginx、tomcat等)上形成不断增长的日志文件。

2.3 数据流程解析

本案例跟典型的BI系统极其类似,整体流程如下:

大数据入门---1.大数据介绍_第14张图片

但是,由于本案例的前提是处理海量数据,因而,流程中各环节所使用的技术则跟传统BI完全不同,后续课程都会一一讲解:

1) 数据采集:定制开发采集程序,或使用开源框架FLUME

2) 数据预处理:定制开发mapreduce程序运行于hadoop集群

3) 数据仓库技术:基于hadoop之上的Hive

4) 数据导出:基于hadoop的sqoop数据导入导出工具

5) 数据可视化:定制开发web程序或使用kettle等产品

6) 整个过程的流程调度:hadoop生态圈中的oozie工具或其他类似开源产品

 

 

2.4 项目技术架构图

大数据入门---1.大数据介绍_第15张图片

2.5 项目最终效果

经过完整的数据处理流程后,会周期性输出各类统计指标的报表,在生产实践中,最终需要将这些报表数据以可视化的形式展现出来,本案例采用web程序来实现数据可视化

效果如下所示:

大数据入门---1.大数据介绍_第16张图片

 

 

 

3. HADOOP集群搭建

3.1集群简介

HADOOP集群具体来说包含两个集群:HDFS集群和YARN集群,两者逻辑上分离,但物理上常在一起

HDFS集群:

负责海量数据的存储,集群中的角色主要有 NameNode / DataNode

YARN集群:

负责海量数据运算时的资源调度,集群中的角色主要有 ResourceManager /NodeManager

(mapreduce是什么呢?它其实是一个应用程序开发包)

也就是我们所说的计算框架

本集群搭建案例,以3节点为例进行搭建,角色分配如下:

 hadoop01 NameNode SecondaryNameNode ResourceManager hadoop02 DataNode NodeManager hadoop03 DataNode NodeManager

 

3.2服务器准备

本案例使用虚拟机服务器来搭建HADOOP集群,所用软件及版本:

 Vmware 14.0

Centos 7.5 64bit

3.3网络环境准备(配置网卡)

  1. 采用NAT方式联网
  2. 网关地址:19168.xx.xx
  3. 3个服务器节点IP地址:192.168.xx.110、192.168.xx.120、192.168.xx.130、192.168.xx.140
  4. 子网掩码:255.255.255.0

3.4服务器系统设置

  1. 同步时间 ntpdate pool.ntp.org
  2. 设置主机名 vi /etc/sysconfig/network
  3. hadoop01
  4. hadoop02
  5. hadoop03
  6. hadoop04

配置内网域名映射:vi /etc/hosts

n 192.168.xx.110 hadoop01

n 192.168.xx.120 hadoop02

n 192.168.xx.130 hadoop03

配置ssh免密登陆

ssh-keygen –t rsa

ssh-copy-id hadoop0x

配置防火墙

3.5 Jdk环境安装

  1. 上传jdk安装包
  2. 规划安装目录 /usr /local /jdk1.8.0102
  3. 解压安装包
  4. 配置环境变量 /etc/profile

3.6 HADOOP安装部署

  1. 上传HADOOP安装包
  2. 规划安装目录 /usr/local /hadoop-7.3
  3. 解压安装包
  4. 修改配置文件 /usr/local /hadoop-2.7.3/etc/hadoop/

最简化配置如下:

vi hadoop-env.sh

The java implementation to use. export JAVAHOME=/usr/local/jdk1.8.0102

 

vi core-site.xml

 #Namenode在哪里 ,临时文件存储在哪里   fs.defaultFS hdfs://hadoop01:9000   hadoop.tmp.dir /usr/local/hadoop-2.7.3/tmp  

vi hdfs-site.xml

   dfs.namenode.name.dir /usr/local/hadoop-2.7.3/data/name   dfs.datanode.data.dir /usr/local/hadoop-2.7.3/data/data   dfs.replication 3   dfs.secondary.http.address hadoop01:50090  

把临时文件修改过来:

mv mapred-site.xml.tmper mapred-site.xml

vi mapred-site.xml

   mapreduce.framework.name yarn  

 

vi yarn-site.xml

   yarn.resourcemanager.hostname hadoop01   yarn.nodemanager.aux-services mapreduce_shuffle  

 

vi slaves

 hadoop02 hadoop03

 

3.7 启动集群

初始化HDFS(只需要在hadoop01号机子上执行一次就好)

 hadoop namenode -format

 

一键启动(把hdfs与yarn全部启动,也可以使用下边的俩个命令

,二选一)

 start-all.sh

 

启动HDFS

 start-dfs.sh

 

启动YARN

 start-yarn.sh

 

 

 

你可能感兴趣的:(#,大数据,hadoop,spark,hdfs,mapreduce,kafka)