centos7-apache-storm-0.9.4-集群

Hadoop-2.5.1-HA搭建

前提:启动zookeeper

tar -zxvf apache-storm-0.9.4.tar.gz

mv apache-storm-0.9.4 /home/

cd /home/apache-storm-0.9.4

mkdir logs

vi conf/storm.yaml

centos7-apache-storm-0.9.4-集群_第1张图片

复制到其他节点上,下面是每次启动storm的顺序操作

home ]# scp -r apache-storm-0.9.4 root@hadoop2:/home/

启动niumbus,hadoop1上敲如一下命令

./bin/storm nimbus >> ./logs/nimbus.out 2>&1 &

启动supervisor集群,hadoop1,hadoop2,hadoop3,hadoop4分别敲如一下命令

./bin/storm supervisor >> ./logs/supervisor.out 2>&1 &

hadoop1节点启动UI即可

./bin/storm ui >> ./logs/ui.out 2>&1 &

core也是storm启动的标志

centos7-apache-storm-0.9.4-集群_第2张图片

启动logviewer

./bin/storm logviewer >> logs/logviewer.out 2>&1 &

tail -f logs/logviewer.log

启动topology,执行任务时用

./bin/storm jar examples/storm-starter/storm-starter- topologies-0.9.5.jar storm.starter.WordCountTopology wordcount

每次启动方式如上

hadoop1:8080 查看stormUI界面

centos7-apache-storm-0.9.4-集群_第3张图片

 

配置DRPC服务,所有storm节点都要配置

vi conf/storm.yaml

启动DRPC Server(看情况启动)启动drpc server  一定是你配置文件配置的server

./bin/storm drpc >> logs/drpc.out 2>&1 &

tail -f logs/drpc.log

1. 提交drpc的任务

bin/storm jar examples/storm-starter/storm-starter-topologies-0.9.4.jar storm.starter.BasicDRPCTopology basicDrpc

2. 可以在监控页面看到提交的任务

centos7-apache-storm-0.9.4-集群_第4张图片

搭建结束后的启动顺序

1. 启动

cd /home/apache-storm-0.9.4/

a) hadoop1启动nimbus

./bin/storm nimbus >> logs/nimbus.out 2>&1 &

b) hadoop1-hadoop4在各个从节点启动supervisor

./bin/storm supervisor >> logs/supervisor.out 2>&1 &

c) hadoop1启动storm ui ,./bin/storm ui >> logs/ui.out 2>&1 &

 

根据实际情况启动drpc服务

./bin/storm drpc >> logs/drpc.out 2>&1 &

 

你可能感兴趣的:(大数据,storm)