kafka设置外网消费者

kafka 的默认配置比较简单,但想把其端口暴露给外网(指定端口),则有一些额外的注意情况
kafka 的版本,0.8和0.10 的配置不同,这里以0.10.0.0 为主,
没有用集群,一台机做测试

zookeeper安装与启动

kafka 的安装包里自带有zookeeper,不过这里还是自行下载.
这里采用3.4.8版本
下载及安装请参考
http://zookeeper.apache.org/doc/r3.4.8/zookeeperStarted.html
启动:
bin/zkServer.sh start

zk默认客户端的连接
bin/zkCli.sh -server 127.0.0.1:2181

kafka的安装与启动

kafka采用0.10.0.0版本,文档请查看
http://kafka.apache.org/quickstart

【2018-7月最新版本是1.1.0,下面的命令都是确认过的,有部分有改动会注明】

官网中是内置了一个zookeeper, 要注意不用去执行了.

关闭kfk服务端(kafka没有关闭的命令,如果想关,可参考使用kill 命令)

ps ax | grep -i 'kafkaServer-gc.log' | grep java | awk '{print $1}' | xargs kill -9

启动
bin/kafka-server-start.sh config/server.properties

配置
conf/service.properties
里面有一个和zookeeper的配置,

zookeeper.connect=localhost:2181

一些操作:

日志
tail -111f  logs/server.log

创建1个topic
bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic test

查看topic list 
bin/kafka-topics.sh --list --zookeeper localhost:2181

查看topic 描述
bin/kafka-topics.sh --describe --zookeeper localhost:2181 --topic test

删除topic
bin/kafka-topics.sh --zookeeper 127.0.0.1:2181/chroot --delete --topic test


开启生产者 (使用内置工具开启一个通过产者,这是一个单独的进程,和kafka服务端无关,下面消费者同理)
bin/kafka-console-producer.sh --broker-list localhost:9092 --topic test2


开启消费者
0.10.0版本 :bin/kafka-console-consumer.sh --zookeeper localhost:2181 --topic test --from-beginning
1.1.0版本 :bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic test2 --from-beginning

如果 在1.1.0 中执行老版本的开启消费者,会有下面这个warning,但也可以使用
Using the ConsoleConsumer with old consumer is deprecated and will be removed in a future major release. Consider using the new consumer by passing [bootstrap-server] instead of [zookeeper].

创建kafka集群(这一部分内容在官网可直接查看)

准备另两个节点的配置文件

cp config/server.properties config/server-1.properties
cp config/server.properties config/server-2.properties

修改端口等参数:

config/server-1.properties:
    broker.id=1
    listeners=PLAINTEXT://:9093
    log.dir=/tmp/kafka-logs-1
 
config/server-2.properties:
    broker.id=2
    listeners=PLAINTEXT://:9094
    log.dir=/tmp/kafka-logs-2

开启另两个节点

bin/kafka-server-start.sh config/server-1.properties &
bin/kafka-server-start.sh config/server-2.properties &

使用kafka集群

创建topic

bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 3 --partitions 3 --topic my-replicated-topic

replication-factor为3,说明数据会分三个副本,这是因为我们有三台server了,如果设置成大于3是会抛错的:

Error while executing topic command : Replication factor: 5 larger than available brokers: 3.
[2018-07-05 11:34:58,818] ERROR org.apache.kafka.common.errors.InvalidReplicationFactorException: Replication factor: 5 larger than available brokers: 3.
 (kafka.admin.TopicCommand$)

查看topic列表

bin/kafka-topics.sh --list --zookeeper localhost:2181

查看topic详情

bin/kafka-topics.sh --describe --zookeeper localhost:2181 --topic my-replicated-topic

开启消费者和生产者参考上文

相关配置

数据目录,kfk有持久化,这里是放文件的地方(就是所有的数据)
server.properties 中的 log.dirs=/tmp/kafka-logs
里面能看到 数据 /tmp/kafka-logs/…

  • 注意事项

上面步骤后,基本上就能直接使用了,不过要改端口,和有外网访问,则需要修改些东西
server.properties 中,
重要配置
配置好 advertised.host.name 和 advertised.port
1,如果你的消费者是内网侧,则这个advertised.host.name 直接设置 kafka的内网ip即可。

2,如果你的消费者是外网侧,这个advertised.host.name 则要设置为外网ip,但是有些机器有网络限制,此kafak的机器访问不了这个外网ip,那么,这个advertised.host.name 设置为外网ip则会抛错.所以,一般的做法,如果是外网侧,advertised.host.name 设置为主机名,通过/etc/hosts的配置,来达到不同机器不同ip.

上面都是配置ip,不要配置成127.0.0.1 , 不然你其它机器访问kafka的时候,会kafka 没反应

以下为具体配置

  • kafka配置文件server.properties
listeners=PLAINTEXT://0.0.0.0:8180
advertised.host.name=ZN-YST-Backup03
advertised.port=8180
  • kafka服务端/etc/hosts
127.0.0.1   ZN-YST-Backup03
  • 消费者/etc/hosts
120.xxx.xxx.90 ZN-YST-Backup03

java客户端

官网里也可以直接找

生产者java客户端

 public static void main(String[] args) throws ExecutionException, InterruptedException {
        Properties props = new Properties();
        props.put("bootstrap.servers", "120.197.3.90:8180");
//        props.put("bootstrap.servers", "10.1.1.29:9092");
        props.put("acks", "all");
        props.put("retries", 0);
        props.put("batch.size", 16384);
        props.put("linger.ms", 1);
        props.put("buffer.memory", 33554432);
        props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");
        props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer");

        Producer producer = new KafkaProducer<>(props);
        for(int i = 0; i < 10000; i++) {
            Future futureresult = producer.send(new ProducerRecord("test2", Integer.toString(i), Integer.toString(i)+"gogo"), new Callback() {
                @Override
                public void onCompletion(RecordMetadata recordMetadata, Exception e) {
                    // 发送的返回

                }
            });
//            futureresult.get();//阻塞
        }

        producer.close();
    }

消费者java客户端

    public static void main(String[] args) {
        Properties props = new Properties();
        props.put("bootstrap.servers", "120.xx.xx.xx:8180");
//        props.put("bootstrap.servers", "10.1.1.29:9092");
        props.put("group.id", "tests");
        props.put("enable.auto.commit", "true");
        props.put("auto.commit.interval.ms", "1000");
        props.put("session.timeout.ms", "30000");
        props.put("key.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");
        props.put("value.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");
        KafkaConsumer consumer = new KafkaConsumer<>(props);
        consumer.subscribe(Arrays.asList("test2"));
        while (true) {
            ConsumerRecords records = consumer.poll(100);
            for (ConsumerRecord record : records)
                System.out.printf("offset = %d, key = %s, value = %s", record.offset(), record.key(), record.value());
        }
    }

关于spring 结合 ,参考:http://www.baeldung.com/spring-kafka

问题

  • 为什么java客户端不需要 zookeeper ip和端口?
    kafak内置的消费端工具是这样子的
    /home/huge/projects/kfk_cluster/kfk/kafka_2.11-0.10.0.0/bin/kafka-console-consumer.sh --zookeeper ZN-YST-Backup03:8181 --topic test2 --from-beginning
    而java没有填zookeeper的ip端口,而是kafka的ip端口>>.

在2018年7月更新,最新的 kafka的内置消费者也是直接填 broker地址了,不用填 zookeeper

  • java producer 访问不了服务端 ,没有抛错,如果用回调,可以看到有 timeout 的情况
    server.properties 加上 advertised.host.name=10.1.1.29

如果消费者出现
org.apache.kafka.clients.consumer.NoOffsetForPartitionException: Undefined offset with no reset policy for partition

消费者配置加上:auto.offset.reset=latest
这个参数关于官网的说法:
What to do when there is no initial offset in Kafka or if the current offset does not exist any more on the server (e.g. because that data has been deleted):(当没有存在的offset时候,用哪个?)

  • earliest: automatically reset the offset to the earliest offset
  • latest: automatically reset the offset to the latest offset
  • none: throw exception to the consumer if no previous offset is found for the consumer’s group
  • anything else: throw exception to the consumer.

你可能感兴趣的:(java,kafka-消息发布与订阅)