Hadoop综合大作业

1.用Hive对爬虫大作业产生的文本文件(或者英文词频统计下载的英文长篇小说)词频统计。

在网上下载英文小说,通过QQ邮箱下载到虚拟机的/home/hadoop/wc

Hadoop综合大作业_第1张图片

首先要启动dfs:Hadoop综合大作业_第2张图片

检查配置环境:Hadoop综合大作业_第3张图片

 在user/hadoop/上创建文件夹word:Hadoop综合大作业_第4张图片

上传下载文档到user/hadoop/word文件中:

启动hive:Hadoop综合大作业_第5张图片

在hive数据库创建表 world: Hadoop综合大作业_第6张图片

导入文本cwj.txt并查看Hadoop综合大作业_第7张图片

用HQL进行词频统计并保持到表 word_count:

Hadoop综合大作业_第8张图片

2.用Hive对爬虫大作业产生的csv文件进行数据分析,写一篇博客描述你的分析过程和分析结果。

同上,将爬虫大作业产生的txt文件放入bdlab数据库表bigdata_count中:

通过QQ邮箱,将爬虫大作业文本文件下载并放于虚拟机 /home/hadoop/wc 目录下,爬虫一共爬取了广州商学院校园网的全部新闻,共4300多条。

 创建用于存放csv数据目录:

把文件放入文件夹中

查看文件中的数据:Hadoop综合大作业_第9张图片

导入数据库表中Hadoop综合大作业_第10张图片

查看数据:Hadoop综合大作业_第11张图片

你可能感兴趣的:(Hadoop综合大作业)