连接kafka的sasl或ssl网络安全认证远程主机拒接访问

需要把kafka网络安全认证的用户名和密码设置为全局变量
如下:
连接kafka的sasl或ssl网络安全认证远程主机拒接访问_第1张图片
建kafka_client_java.conf同main函数一个级别目录, 里面写入如下代码:

KafkaClient {
org.apache.kafka.common.security.plain.PlainLoginModule required
username="cka*****3u7#zh***********hi"
password="1*******d";
};

将该文件在mian函数中配置为全局变量 能访问sasl的网络安全,即能连上kafka 如下:

System.setProperty("java.security.auth.login.config", "F:\\IdeaProjects\\flink_java_dataETL\\sr文件全路径va\\Kafka_client_jass.conf");
        

备注:连接不设网络安全认证的kafka消费数据,需要:
1:topic=xxx
2:group.id=自定义分组,不与别的组重名即可分别消费互不影响数据
3:kafka.bootstrap.servers=ip:port 或者 域名:port
4:剩下的是具体功能的kafka配置:如自动提交偏移量 精准消费等
若sasl的安全认证,需加上:

security.protocol=SASL_PLA***XT
CommonClientConfigs.SECURITY_PROTOCOL_CONFIG=SA****TEXT
sasl.mechanism=P**IN
SaslConfigs.SASL_MECHANISM=P**N

还有以上设置为全局变量的用户名和密码(运维拥有修改权限)
over~

你可能感兴趣的:(kafka,java,大数据)