python with hadoop

python with  hdfs

hdfs 可以在 linux 本地操作

bin/hdfs dfs -ls /foo

但是这种只能在 命令行 操作。

 

通常我们需要在程序中实现远程操作,python 是可以的。需要用到一个模块 snakebite,目前仅支持 python2

snakebite 有两种方式远程操作 hdfs,一种是通过命令行,这里不做介绍,另一种是通过 python 脚本实现。

 

仅需两步:1. 连接 hdfs;2. 执行 各种命令,只是要注意,每条操作都返回一个 Iterator,所以需要写在 for 循环中才能生效。

 

python 示例

from snakebite.client import Client

client = Client('192.168.10.10', 9000)
for x in client.ls(['/']):
    print x

# client.mkdir(['/foo2'], create_parent=True)      # 没有 for 循环是不行的
for i in client.mkdir(['/foo/f1', '/input4'], create_parent=True):  # 创建多个目录,而且 create_parent=True 确保每个目录可以是多层的
    print(i)
### 这个 for 循环相当于 挨个 执行创建目录的操作,如果只循环了一次,就只建一个目录

client.delete(['/foo', '/input4'], recurse=True).next()                   # 删除文件或目录,而且 recurse=True 确保删除多层目录
### 这里只 next 了一下,只删除了 一个目录,input4 并没有被删除

client.copyToLocal(['/usr/input/yanshw/README.txt'], 'e:').next() # 下载文件,下载到 e 盘当前目录,而不是搭建hadoop的服务器【文件是跑在 win 上的】

print client.text(['/usr/input/yanshw/README.txt']).next()    # 显示文件,打印出了文件

9000 是 core-site.xml 中 namenode 指定的端口号

 

这里涉及到一个权限问题:我的 hadoop 集群是在 linux root 搭建的,我的脚本是在 windows 上跑的,windows 主机名 叫 HP,在 操作目录时,会提示 HP 没有权限

当时我为了 测试 以上 API 是否有效,我把 hdfs 根目录的权限改成了 777

bin/hdfs dfs -chmod -R 777 /

然后我发现可以新增和删除目录了,新增的目录 owner 就是 HP

python with hadoop_第1张图片

 

所以,大家在 搭建 集群时就可以考虑后续远程操作的问题了。

 

python with mapreduce

用 python 写 mapreduce 完成 词频统计

 

数据文件 test.txt

python|thread|process
python|xlrd|pyinotiy
python|print|c++
c++|java|php
node.js|javascript|go

上传至 hdfs

bin/hadoop fs -put /usr/lib/hadoop-2.6.5/tmp/test.txt /usr/yanshw

数据必须上传至 hdfs 才能使用

 

1)mapper 文件

import sys

for line in sys.stdin:
    words = line.strip().split('|')
    for word in words:
        print word

从 stdin 逐行读入,拆分,print,这里的 print 相当于 stdout;

mapper 的 stdout 作为 reducer 的 stdin;

hadoop 内部 用  hadoop steaming 实现标准输入输出,使得数据在 map 和 reduce 之间流动

 

测试 mapper

执行本地测试,确保程序正确

cat tmp/test.txt | python mapper.py

 

2)reducer 文件

在 reduce 之前 是需要 sort 的,hadoop 内默认是 带 sort 的

sort 其实是个 分区的过程;

hadoop 自动把 不同的 key 发送给不同的 reducer;

虽然 reduce 之前会 分区,sort,发送给不同的 reducer,但 编写 reducer 时,不能认为是 一个分区 的数据,还得按照多个分区进行编写,只是 数据是经过 sort 的

import sys
from operator import itemgetter
from itertools import groupby

def read_mapper_output(files, separator='\t'):
    for line in files:
        yield line.strip().split(separator, 1)

def main():
    data = read_mapper_output(sys.stdin)
    for key, data in groupby(data, itemgetter(0)):
        count = 0
        for value in data:
            count += 1
        print "{word}\t{count}".format(word=key, count=count)

if __name__ == '__main__':
    main()

逐行读取 mapper 的 输出,就是一个个的单词;

reducer 逐个累加词的 个数,如果下个词与当前词不同,就把当前词的个数 print,然后统计下个词的个数,依次直至完毕;

 

测试 reducer

cat tmp/test.txt | python mapper.py |sort|python reducer.py

把 mapper 的输出 进行排序后再 送给 reducer;这也是 hadoop 的默认方式

 

3)运行 mapreduce

需要用 hadoop-streaming 方式来执行 python

命令行方式

hadoop jar share/hadoop/tools/lib/hadoop-streaming-2.6.5.jar 
-files /usr/lib/hadoop-2.6.5/mapper.py,/usr/lib/hadoop-2.6.5/reducer.py
-mapper 'python mapper.py' -reducer 'python reducer.py'
-input /usr/input/yanshw
-output /usr/output/yanshuw2

解释如下

hadoop:bin 下的 hadoop,这里设置了环境变量,所以直接 hadoop 就可以了

jar share/hadoop/tools/lib/hadoop-streaming-2.6.5.jar:运行 java streaming 程序

-files:输入 mapper 和 reducer 的绝对路径,hadoop 会把 这俩文件上传到 datanode,用于执行

  // 也可以写 两个 -file mapper  -file reducer

  // 注意两个文件之间不能有空格

-mapper:后面跟命令

-reducer:后面跟命令

  // 这两个命令是执行 python 文件,如果 python 文件中带 shebang,直接写 mapper.py 即可;如果没有,需要写 'python  mapper.py',引号不能省略,无需带路径

-input:hdfs 的输入路径

-output:hdfs 的输出路径,这个路径不能事先存在

 

完整命令

hadoop jar /usr/lib/hadoop-0.20-mapreduce/contrib/streaming/hadoop-streaming-2.0.0-mr1-cdh4.1.2.jar \
        -input /ngrams \
        -output /output-streaming \
        -mapper mapper.py \
        -combiner reducer.py \
        -reducer reducer.py \
        -jobconf stream.num.map.output.key.fields=3 \
        -jobconf stream.num.reduce.output.key.fields=3 \
        -jobconf mapred.reduce.tasks=10 \
        -file mapper.py \
        -file reducer.py

 

shell 脚本方式

编写 run.sh 来执行 mapreduce

#!/bin/bash

hadoop fs -rm -r -f /usr/output/yanshw102

hadoop jar share/hadoop/tools/lib/hadoop-streaming-2.6.5.jar \
-file /usr/lib/hadoop-2.6.5/mapper2.py \
-file /usr/lib/hadoop-2.6.5/reducer2.py \
-mapper "python mapper2.py" \
-reducer "python reducer2.py" \
-input /usr/yanshw/test.txt \
-output /usr/output/yanshw102 \

第 1 行 是删除 已经存在的 路径,这个路径用于存放 output,不能事先存在

 

然后直接执行

run2.sh

 

执行结束后,下载 output

bin/hdfs dfs -getmerge /usr/output/yanshw102  ttt

直接打印 

[root@hadoop10 hadoop-2.6.5]# cat ttt
c++    2
go    1
java    1
javascript    1
node.js    1
php    1
print    1
process    1
pyinotiy    1
python    3
thread    1
xlrd    1

 

一张图解释 上文 的 mapreduce

python with hadoop_第2张图片

 

 

mapreduce 实例

背景描述:两个文件,file1.txt 记录学生点击新闻的信息,file2.txt 记录活跃学生的信息;

目标:现在有某一天的这俩个文件,统计这一天 使用  ios/android 的 活跃学生 的 总点击次数

 

file1.txt

20170001 xiaoming android 331 学费
20170002 xiaohong ios 332 食堂
20170003 xiaohua android 333 考研
20170001 xiaoming android 222 评优
20170001 xiaoming android 225 学费
20170003 xiaohua android 111 期末考试
20170002 xiaohong ios 117 空调安装

file2.txt

20170001 xiaoming 20 android
20170002 xiaohong 19 ios
20170001 xiaoqiang 20 android

 

难点是同时利用两个文件,如何设计 key,能够很好的进行分区

方案1:把 ios/andriod 设为 key,统计每种手机各个学生的访问量,取出活跃学生的;可以实现,但是这个 分区 之分 2 个区,效率很低

方案2:把 学号 作为 key,统计每个学生的 不同手机的点击次数... 貌似不行

方案3:把 ios/andriod 和 学号 作为 key,然后统计每个 key 中 学号是 活跃学生的 点击次数;其实 直接从 需求看 也能确定这个 key

 

mapper

ios/andriod 和 学号 作为 key

import sys

def main():
    for line in sys.stdin:
        data = line.strip().split(" ")
        if len(data) == 5:      # file1
            student_id = data[0]
            os_name = data[2]
            key = student_id + '_' + os_name
            print "\t".join([key,"file1"])
        elif len(data) == 4:     # file2
            student_id = data[0]
            os_name = data[-1]
            key = student_id + '_' + os_name
            print "\t".join([key,"file2"])


if __name__ == "__main__":
    main()

 

reducer

按 key 排序后 喂给 reducer,不同的 key 给到不同的 reducer

在写 reducer 方法时,既定输入是 排序后的 多个 key 的序列

import sys
import json

dic_result = {'android': 0, 'ios': 0}
pre_key = ""


def post_deal(pre_key):
    # 相同key的数据的处理
    global dic

    # pre_key: student_id + '_' + os_name
    os_name = pre_key.strip().split("_")[1]
    if 'click' in dic and dic['click'] == 'yes' and 'active' in dic and dic['active'] == 'yes':     # 点击 的 活跃用户 +1
        dic_result[os_name] += 1

def deal(data):
    # 对每一行数据的处理
    # data:20170001_android  file1
    global dic

    if data[1].strip() == "file1":
        dic['click'] = 'yes'            # file1 代表点击
    if data[1].strip() == "file2":
        dic['active'] = 'yes'           # file2 代表活跃


def pre_deal():
    # 预处理,用于存储同一个key的一组value
    global dic
    dic = dict()

def main():
    # sys.stdin = ['20170001_android    file1',
    #             '20170001_android    file1',
    #             '20170001_android    file1',
    #             '20170001_android    file2',
    #             '20170001_android    file2',
    #             '20170002_ios    file1',
    #             '20170002_ios    file1',
    #             '20170002_ios    file2',
    #             '20170003_android    file1',
    #             '20170003_android    file1'
    #             ]   # sort 之后的
    for line in sys.stdin:
        data = line.strip().split("\t")

        key = data[0]
        global pre_key

        if key != pre_key:
            # 如果换 key,先给 上一个 key 加1,然后 初始化新 key
            if pre_key != "":
                post_deal(pre_key)  # 计数

            # 初始化 for 下一个 key
            pre_deal()
            pre_key = key

        deal(data)      # 来一个学生我先标记,然后计数
        post_deal(pre_key)

    if pre_key != "":
        post_deal(pre_key)

    print json.dumps(dic_result)


if __name__ == "__main__":
   main()

 

本地测试

[root@hadoop10 hadoop-2.6.5]# cat tmp/example1/file1.txt tmp/example1/file2.txt | python tmp/example1/mapper.py | sort| python tmp/example1/reducer.py 
{"android": 3, "ios": 2}

 

hadoop 上 运行 mapreduce

这里有些问题,解决方法 见 下面 进阶和 最后一个链接

具体的解决思路我后面会专门写一篇博客

 

进阶配置

-jobconf stream.num.map.output.key.fields=2 这行代码用于指定排序的字段,数字2指定map函数输出数据的第几列用于排序,就是例子中的sales字段。  【从 1 开始】

-jobconf num.key.fields.for.partition=1这行代码指定partition字段,数字1指定map函数输出数据的第一列用于分区。

-partitioner org.apache.hadoop.mapred.lib.KeyFieldBasedPartitioner这行代码是调用hadoop streaming包中的分区类,实现分区功能

 

 

 

参考资料:

https://www.jianshu.com/p/70bd81b2956f

《Hadoop with Python》  我的电子书

http://www.zhangdongshengtech.com/article-detials/236   十分清晰地解释了 python 怎么玩 mr

https://www.iteye.com/blog/blackproof-2154523    内容比较广,设计一些不太常用的操作

https://www.cnblogs.com/airnew/p/9574309.html  自定义排序 分区 等的实现

转载于:https://www.cnblogs.com/yanshw/p/11551771.html

你可能感兴趣的:(python with hadoop)