大数据日志采集系统

ELK提供了一系列采集方案。但对于从app端过来的日志,没有接收模块。一种方案可以用logstash打开socket端口接收,需要客户端配合。这里提供通过http的方案。接收服务器采用springboot实现收集,发送日志到kafka。也可以直接写文件,用fileBeat读取发送到kafka。从kafka传送到elasticsearch用了大数据计算平台Beam实现。Beam编出的jar可以部署到spark,flink等。进入elasticsearch的数据可以做报警处理。用开源的elastAlert。可以将报警信息发往其他地方,可以用webhook,把报警信息post到服务器上,发送到如企业微信等。

大数据日志采集系统_第1张图片

git源码:

采集服务:https://github.com/bigben0123/dataPlatformCollector

beam服务:https://github.com/bigben0123/

 

转载于:https://www.cnblogs.com/bigben0123/p/10315857.html

你可能感兴趣的:(大数据日志采集系统)