如何使用Kafka MirrorMaker

业务场景

目前已经有一个kafka集群接收外部数据,但是由于某种原因要将业务迁移到新的集群,新的应用都要跑在新的集群上,而短时间内外部数据只能发送到旧集群,这样就需要将旧集群中的topic数据接到新集群的topic中。这里用到了MirrorMaker工具,简单的说,这个工具就是启动consumer消费旧集群中topic的数据,然后启动producer直接发送到新集群中的topic。

操作步骤

注:本文使用的Kafka版本是0.10.0

  • 准备工作

    1. 假设旧集群中topic叫做tutorials只有一个partition,在新的集群中创建一个同名的topic,并设置partition为3;

    2. 将两个集群中所有broker的ip和hostname的映射加到这些机器的/etc/hosts中;

    3. 创建consumer.config配置,zookeeper.connect为旧集群的地址,例如

      zookeeper.connect=oldhost:2181
      group.id=dp-MirrorMaker
      
    4. 创建producer.config配置,bootstrap.servers为新集群的地址,例如

      bootstrap.servers=newhost:6667
      
  • 运行测试

先检查一下旧topic中的offset情况

sh /usr/hdp/2.5.0.0-1245/kafka/bin/kafka-run-class.sh kafka.tools.GetOffsetShell --broker-list oldhost:6667 --topic tutorials --time -1

tutorials:0:3

在看一下新topic中的offset情况

sh /usr/hdp/2.5.0.0-1245/kafka/bin/kafka-run-class.sh kafka.tools.GetOffsetShell --broker-list newhost:6667 --topic tutorials --time -1

tutorials:2:1
tutorials:1:1
tutorials:0:2

在新的集群中运行下面的命令,使用jps可以看到会有个MirrorMaker进程

sh /usr/hdp/2.5.0.0-1245/kafka/bin/kafka-run-class.sh kafka.tools.MirrorMaker --consumer.config /opt/consumer.config --num.streams 2 --producer.config /opt/producer.config  —num.producers 2 --whitelist="tutorials"

向旧的topic中发送hello,可以通过在新集群的kafka-console-consumer.sh查看是否收到消息,并且使用上面的命令查看新的topic的offset的情况,可以看到新的消息被存在partition-2中了,说明接进来的消息会重新分配partition

tutorials:2:2
tutorials:1:1
tutorials:0:2

其他

在实际的生产环境中需要将这个命令放到后台运行,并且需要查看相关的日志,那么只需要增加几个参数即可

sh /usr/hdp/2.5.0.0-1245/kafka/bin/kafka-run-class.sh -daemon -name tutorials -loggc kafka.tools.MirrorMaker --consumer.config /opt/consumer.config --num.streams 2 --producer.config /opt/producer.config  —num.producers 2 --whitelist="tutorials"

这样生成的日志文件会在kafka目录下的log里面,并且日志的名字为tutorials-gc.log和tutorials.out,默认的log的配置在kafka中conf里面的tools-log4j.properties文件。

你可能感兴趣的:(如何使用Kafka MirrorMaker)