storm笔记:storm集群
Strom集群结构是有一个主节点(nimbus)和多个工作节点(supervisor)组成的主从结构,主节点通过配置静态指定(还有一种主从结构是在运行时动态选举,比如zookeeper)。通常这种主从结构存在出现单点故障的风险,Storm通过特殊处理规避这种风险,后面将解释Storm的半容错结构。
nimbus与supervisor都是Storm提供的后台守护进程,之间的通信是结合Zookeeper的状态变更通知和监控通知来处理。如下图所示:
Storm对Zookeeper的使用相对比较轻量,不会造成很重的资源负担。单节点的Zookeeper集群能够满足大部分的需求,但是如果部署大型Storm集群,为了Storm的稳定性,就需要相对大点的Zookeeper集群。
nimbus进程的主要职责是管理、协调和监控集群上运行的topology(包括topology的发布、任务指派、时间处理时重新指派任务等)。
topology的发布,需要将预先打成jar的topology和配置信息提交到nimbus服务器,当nimbus接收到topology压缩包,会将jar包分发到足够数量的supervisor节点上。当supervisor节点接收到topology压缩文件,nimbus就会指派task(bolt、spout实例)到每个supervisor并且发送信号指示supervisor生成足够的worker来执行指定task。
nimbus通过Zookeeper记录所有supervisor节点的状态和分配给它们的task。如果nimbus发现某个supervisor没有上报心跳或已经不可达,它将会把分配给故障supervisor的task重新分配给其他节点。
严格来讲,nimbus不会出现单点故障。这个特性是因为nimbus进程不参与topology(拓扑)的数据处理过程,仅仅是管理topology的初始化、任务分发和进行监控,所以如果nimbus在topology运行时停止,不会影响topology的运行。
supervisor进程等待nimbus分配任务后生成并监控worker(jvm进程)执行任务。supervisor与worker运行在不同的jvm上,如果由supervisor启动的某个worker因为错误异常退出(或被kill掉),supervisor会尝试重新生成新的worker进程。
ui进程是为Stom集群提供一个web的gui监控界面,对正在运行的nimbus、supervisor、topology进行展示,对正在运行的topology有一定管理功能,提供其统计信息,对监控Storm集群的运转和topology的功能有很大的帮助。ui进程属于Storm的可选服务,可以自由选择启动或不启动。
Strom的集群部署非常简单,而且nimbus、supervisor、zookeeper可以部署在同一台机器上,实现简单的伪分布式模式,其部署过程分为下面几步:
storm
命令启动进程关于Zookeeper集群的部署,可以查看ZooKeeper安装部署或A Guide to Deployment and Administration。
在nimbus、supervisor所在的机器上安装依赖,主要包括java和python,当前版本java最低使用jdk6,因为python2和3版本不兼容,官方推荐使用Python2.6.6。
wget或culr直接从这里下载压缩包,通过tar命令解压即可。
Storm需要配置的文件是conf/storm.yaml
,其默认配置在这里,storm.yaml会覆盖defaults.yaml中的配置。
storm.zookeeper.servers:
- "111.222.333.444"
- "555.666.777.888"
storm.zookeeper.port
修改配置,比如:storm.zookeeper.port: 9999
。storm.local.dir: "/mnt/storm"
nimbus.host: "111.222.333.444"
supervisor.slots.ports:
- 6700
- 6701
- 6702
- 6703
另外,storm集群还有一些可选配置,可以根据需要重新配置。storm的所有配置都可以通过前缀区分作用域,如下表所示:
前缀 | 分类 |
---|---|
storm.* | 通用配置 |
nimbus.* | Nimbus配置 |
supervisor.* | Supervisor配置 |
topology.* | Topology配置 |
ui.* | Storm UI配置 |
worker.* | Worker配置 |
zmq.* | Zero MQ配置 |
drpc.* | DRPC服务配置 |
最后是启动Storm守护进程,关键是需要在监控(supervison)下启动每个进程。因为Storm是快速失败的模式,也就是说,进程遇到任何意外情况,都会立即停止。Storm被设计成能够安全退成、快速回复的无状态进程。如果nimbus或supervisor重启了,不会对运行中的topology产生任何影响。
Storm提供了多用途的命令行程序,可以用来启动守护进程、执行topology管理等操作,基础命令格式为:storm [command] [arguments]...
。
./bin/storm nimbus
,启动nimbus守护进程;./bin/storm supervisor
,启动supervisor守护进程;./bin/storm ui
,默认端口是8080,可以通过浏览器访问。Storm的管理命令用来发布和管理集群的topology,通常需要在Storm集群外的工作站执行,管理命令从~/.storm/storm.yaml
文件中查找nimbus主机名,比如:
nimbus.host: "nimbus"
storm jar topology_jar topology_class [arguments...]
,用来向Storm提交topology,会上传topology_jar文件到nimbus并分发到整个集群,使用指定topology_class中的main方法。提交完成后,Storm会激活并开始运行topology。main方法中需要有StormSubmitter.submitTopology
方法,并需要有一个唯一的topology名,如果集群中有同名的topology,jar命令会执行失败。storm kill topology_name [-w wait_time]
,用来关闭已经部署的topology。该命令通过topology_name来关闭topology,Storm会在topology.message.timeout.secs
定义的时间或-m
参数定义的时间后,是topology的spout取消激活。然后停止worker进程,并尝试清理所有存储的状态信息。也可以在Storm UI上进行操作。storm deactivate topology_name
,用来通知Storm停止特定的topology的spout发送tuple,可以在Storm UI上取消激活操作。storm activate topology_name
,用来通知Storm重新回复指定的topology的spout发送tuple,可以在Storm UI上重新激活操作。storm rebalance topology_name [-w wait_time] [-n worker_count] [-e component_name=executer_count]
,只是Storm在集群的worker之间重新平均分派任务,不需要关闭或重新提交现有topology。还可以通过-n或-e参数修改topology分配的worker数及每个task分配的executor数。当执行rebalance命令时,Storm会先取消激活topology,等待配置的时间是剩余的tuple完成处理,然后在supervisor节点中均匀分配worker。重新平衡后,Storm会将topology重新激活。比如:等待15秒,指定5个worker,指定sentece-spout使用4个executor、split-bolt使用8个eexecutor,命令为:storm rebalance wordcount-topology -w 15 -n 5 -e sentence-spout=4 -e split-bolt=8
。storm remoteconfvalue conf-name
,用来查看集群中配置参数。可以看到整个集群的公共配置,不能单独查看topology中覆盖的特殊配置。