kafka 连接不上的解决方法

安装了kafka ,使用kafka本地的console-producer 可以成功的发送log, 但是不能在别的节点使用java api发送message。提示错误:

kafka.common.FailedToSendMessageException: Failed to send messages after 3 tries.
at kafka.producer.async.DefaultEventHandler.handle(DefaultEventHandler.scala:90)
at kafka.producer.Producer.send(Producer.scala:76)
at kafka.javaapi.producer.Producer.send(Producer.scala:33)
at com.duoku.kafka.ClassProducerTest.main(ClassProducerTest.java:33) 


看网上的解决方法主要是 要配置zk 的hosts映射,经过检查发现即使配了也提示这个错误。而且发现topic 是能创建成功的。但是消息没有记录下来。后来发现原来安装kafka的机器之前装过spark 。安装的scala 是2.9.11 ,但是kafka下载的版本是 2.8.0_0.8.0 。所以怀疑问题出在这里,于是更换了一台机器,连接一切正常。

看网上有一种解决方法,是把kafka 在scala 2.9 下重新编译,附上链接 供参考:

 http://dennyglee.com/2013/06/05/jump-start-on-apache-kafka-0-8-with-scala-2-9-2-on-mac-osx/




你可能感兴趣的:(kafka,scala)