kafka学习一

kafka介绍:

Kafka最初由LinkedIn公司开发,使用Scala语言编写,之后成为Apache项目的一部分。Kafka是一个分布式,可划分的,多订阅者,冗余备份的持久性的日志服务。它主要用于处理活跃的流式数据。在大系统中,我们经常会碰到这样的一个问题,大系统下的各个子系统需要数据高性能、低延迟的不停流转。kafka很适合处理这样的问题!

消息队列的分类:
点对点:消息生产者生产消息发送到queue中,然后消息消费者从queue中取出并且消费消息,消息被消费以后,queue中不再有储存,所以消息消费者不可能消费到已经被消费的消息。,即对消息而言,只会有一个消费者。
发布/订阅:消息生产者将消息发不到topic中,同时可以有多个消息消费者消费该消息。和点对点方式不同,发不到topic的消息会被所有订阅者消费,kafka 就是典型发布。

kafka的特点:
1、同时为发布和订阅提供高吞吐量,kafka每秒可以产生约25万的消息(50MB),每秒能够处理55万消息(110MB)。
2、可进行持久化操作,将消息持久化到磁盘。
3、分布式系统,易于向外扩展。所有的producer、broker和consumer都会有多个。均为分布式的。
4、 消息被处理的状态是在consumer端维护,而不是在server端维护。当失败是能自动平衡。
5、支持online和offline的场景。

下面介绍一下Kafka的架构和组成:
Producer:是能够发布消息到topic的任何对象。
Consumer:消息和数据的消费者,订阅topics 并处理其发布的消息。
Consumer Group:可以并行消费Topic中的partition的消息。
Broker:缓存代理,Kafka集群中的一个kafka节点就是一个broker。
Topic: 特指Kafka 处理的消息源(feeds of messages)的不同分类。
Partition:topic物理上的分组,一个 topic 可以分为多个 partition,每个 partition 是一个有序的队列。partition中的每条消息都会被分配一个有序的 id(offset)。
Message:消息,是通信的基本单位,每个 producer 可以向一个topic(主题)发布一些消息。

kafka学习一_第1张图片
kafka结构图

kafka的安装和使用

kafka下载和相关文档地址:

http://kafka.apache.org/

修改zookeper配置文件:

dataDir=D:\tmp\kafka\zookeeper
clientPort=2181
maxClientCnxns=0

修改server配置文件:

broker.id=0
num.network.threads=3
num.io.threads=8
socket.send.buffer.bytes=102400
socket.receive.buffer.bytes=102400
socket.request.max.bytes=104857600
log.dirs=D:\tmp\kafka\kafka-logs
num.partitions=1
num.recovery.threads.per.data.dir=1

启动服务:
先启动zookeper服务:

./bin/zookeeper-server-start.sh  ./config/zookeeper.properties

再启动server服务:

./bin/kafka-server-start.sh  ./config/server.properties

pom依赖:

        
            org.apache.kafka
            kafka-clients
            0.10.0.1
        

Config.java文件代码:

package com.lqq.demo1;

public class Config {

    public final static String TOPIC = "TEST-TOPIC";
    public final static String bootstrap_servers = "localhost:9092";

    public final static String group_id = "jd-group";
    public final static String key_serializer="org.apache.kafka.common.serialization.StringSerializer";
    public final static String value_serializer="org.apache.kafka.common.serialization.StringSerializer";
    public final static String key_deserializer="org.apache.kafka.common.serialization.StringDeserializer";
    public final static String value_deserializer="org.apache.kafka.common.serialization.StringDeserializer";
    
}

生产者端:

package com.lqq.demo1;

public class KProducer {
    private final Producer producer;

    public KProducer() {
        Properties props = new Properties();
        props.put("bootstrap.servers", Config.bootstrap_servers);  
        props.put("acks", "all");  
        props.put("retries", 1);  
        props.put("batch.size", 16384);  
        props.put("key.serializer", Config.key_deserializer);    
        props.put("value.serializer", Config.value_deserializer);     
        producer = new KafkaProducer<>(props);
    }

    public void produce() {
        for(int i=0;i<1000;i++){
            String key = String.valueOf(i);
            String data = "hello kafka message " + i;
            ProducerRecord record=new ProducerRecord(Config.TOPIC, key, data);
            System.out.println("Produce record key: "+key+" value: "+data);
            producer.send(record);
        }
    }
    
    public void close(){
        producer.close();
    }
    
    public static void main(String[] args) {
        KProducer producer=new KProducer();
        producer.produce();
        producer.close();
    }
}

指定broker和序列化类型,然后向broker发送消息。

消费者端:

package com.lqq.demo1;

public class KConsumer {
    private final Consumer consumer;

    public  KConsumer() {
        Properties props = new Properties();
        props.put("bootstrap.servers", Config.bootstrap_servers);    
        props.put("group.id", Config.group_id);    
        props.put("enable.auto.commit", "true");    
        props.put("client.id", "25424tg2");
        props.put("heartbeat.interval.ms","1000");
        props.put("auto.commit.interval.ms", "1000");    
        props.put("session.timeout.ms", "30000");    
        props.put("key.deserializer", Config.key_deserializer);    
        props.put("value.deserializer", Config.value_deserializer);   
        consumer = new KafkaConsumer(props);
    }

    public void consume() {
        consumer.subscribe(Arrays.asList(Config.TOPIC));
        consumer.seekToBeginning(new ArrayList());
        while(true){
            ConsumerRecords records=consumer.poll(1000);
            for(ConsumerRecord record:records){
                System.out.println("Consumer  record  offset="+record.offset()+"  key="+record.key()+" value="+record.value());
            }
        }

    }
    public void close(){
        consumer.close();
    }
    public static void main(String[] args) {
        KConsumer kConsumer=new KConsumer();
        kConsumer.consume();
        kConsumer.close();
    }
}
  

你可能感兴趣的:(kafka学习一)