Storm单机环境部署文档

Java环境配置这里不再做介绍,太过简单。

一:Zookeeper安装

  Zookeeper是针对分布式应用的高性能协调服务,是高效可靠的协同工作系统,他提供的功能包括配置维护、名字服务、分布式同步、组服务等。Storm使用zookeeper存储各个节点的状态信息。

1.下载

Wget  http://www-us.apache.org/dist/zookeeper/stable/zookeeper-3.4.10.tar.gz

 

2.部署

将上一步下载的文件解压缩,我这里存放的目录为 /home/david/Zookeeper/zookeeper-3.4.10

。修改/etc/profile文件在最后添加

export ZOOKEEPER_HOME=/home/david/Zookeeper/zookeeper-3.4.10

export PATH=$JAVA_HOME/bin:$ZOOKEEPER_HOME/bin:$MAVEN_HOME/bin:$STORM_HOME/bin:$KAFKA_HOME/bin:$PATH 

运行source命令使环境立即生效,source /etc/profile

在命令行输入zkServer.sh测试环境是否安装成功。

3.配置

进入zookeeper下面的conf目录,如果.cfg文件名不是zoo.cfg,则改成这个名。修改zoo.cfg文件。

tickTime=2000

dataDir=自己设置个目录

ClientPort=2181

initLimit=5

syncLimit=2

4.运行

  启动:zkServer.sh start

  停止:zkServer.sh stop

 查看状态:zkServer.sh status

 

二:Storm安装

1.下载并解压

Wget  http://www-eu.apache.org/dist/storm/apache-storm-1.1.0/apache-storm-1.1.0.tar.gz

  我的解压目录为/home/david/Storm/apache-storm-1.1.0

2.部署

/etc/profile最后添加

export STORM_HOME=/home/david/Storm/apache-storm-1.1.0

 

export PATH=$JAVA_HOME/bin:$ZOOKEEPER_HOME/bin:$MAVEN_HOME/bin:$STORM_HOME/bin:$KAFKA_HOME/bin:$PATH 

运行source命令使立即生效。

3.配置

进入conf目录,修改storm.yaml文件

 storm.zookeeper.servers:

     - "127.0.0.1"

#     - "server2"

# nimbus.seeds: ["host1", "host2", "host3"]

 nimbus.host: "127.0.0.1"

 storm.zookeeper.port: 2181

 storm.local.dir: "/home/david/Storm/apache-storm-1.1.0"

 supervisor.slots.ports:

  - 6700

  - 6701

  - 6702

  - 6703

4.运行

Storm numbus &

Storm supervisor &

Storm ui &

 

三:kafka安装

1.下载并解压

Wget  http://www-us.apache.org/dist/kafka/0.11.0.0/kafka_2.11-0.11.0.0.tgz

我的解压目录为:

/home/david/Kafka/kafka_2.12-0.11.0.0

2.部署

修改/etc/profile文件

export KAFKA_HOME=/home/david/Kafka/kafka_2.12-0.11.0.0

export PATH=$JAVA_HOME/bin:$ZOOKEEPER_HOME/bin:$MAVEN_HOME/bin:$STORM_HOME/bin:$KAFKA_HOME/bin:$PATH 

3.运行

 

a.启动服务:Kafka用到了Zookeeper,所有首先启动Zookper,下面简单的启用一个单实例的Zookkeeper服务。可以在命令的结尾加个&符号,这样就可以启动后离开控制台。

zookeeper-server-start.sh config/zookeeper.properties &

现在启动Kafka:

kafka-server-start.sh config/server.properties &

 

b.创建topic

创建一个叫做“test”的topic,它只有一个分区,一个副本:

kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic test

可以通过list命令查看创建的topic:

kafka-topics.sh --list --zookeeper localhost:2181

 

删除一个topic

bin/kafka-topics.sh  --zookeeper localhost:2181 --delete --topic test

 

c.发送消息

Kafka 使用一个简单的命令行producer,从文件中或者从标准输入中读取消息并发送到服务端。默认的每条命令将发送一条消息。运行producer并在控制台中输一些消息,这些消息将被发送到服务端:

kafka-console-producer.sh --broker-list localhost:9092 --topic test 

输入消息....

 

d.启动consumer

Kafka也有一个命令行consumer可以读取消息并输出到标准输出:

kafka-console-consumer.sh --zookeeper localhost:2181 --topic test --from-beginning

显示输入的消息...

 

e.搭建一个多个broker的集群

刚才只是启动了单个broker,现在启动有3broker组成的集群,这些broker节点也都是在本机上的:

首先为每个节点编写配置文件:

david@david-pc:~/Kafka/kafka_2.12-0.11.0.0$  cp config/server.properties config/server-1.properties

david@david-pc:~/Kafka/kafka_2.12-0.11.0.0$  cp config/server.properties config/server-2.properties

在拷贝出的新文件中添加以下参数:

config/server-1.properties:

    broker.id=1

    port=9093

    log.dir=/tmp/kafka-logs-1

 

config/server-2.properties:

    broker.id=2

    port=9094

    log.dir=/tmp/kafka-logs-2

broker.id在集群中唯一的标注一个节点,因为在同一个机器上,所以必须制定不同的端口和日志文件,避免数据被覆盖。

启动刚刚添加的两个节点:

kafka-server-start.sh config/server-1.properties &

kafka-server-start.sh config/server-2.properties &

创建一个拥有3个副本的topic:

kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 3 --partitions 1 --topic my-replicated-topic

查看每个节点的信息:

kafka-topics.sh --describe --zookeeper localhost:2181 --topic my-replicated-topic

    显示:Topic:my-replicated-topic PartitionCount:1 ReplicationFactor:3 Configs:

Topic: my-replicated-topic Partition: 0 Leader: 1 Replicas: 1,0,2 Isr: 0,1,2

下面解释一下这些输出。第一行是对所有分区的一个描述,然后每个分区都会对应一行,因为我们只有一个分区所以下面就只加了一行。

leader:负责处理消息的读和写,leader是从所有节点中随机选择的.

replicas:列出了所有的副本节点,不管节点是否在服务中.

isr:是正在服务中的节点.

 

这个时候我们可以向topic发消息:

kafka-console-producer.sh --broker-list localhost:9092 --topic my-replicated-topic

消费消息:

kafka-console-consumer.sh --zookeeper localhost:2181 --from-beginning --topic my-replicated-topic

就算其中一个broker掉了,消息也可以被其他broker消费。如果leader掉了,另外一个节点会被选为leader

 

 

 

你可能感兴趣的:(storm)