前言:
本文从k8s平台层面收集pod日志,最终得到的是每个pod前台输出的日志。
其本质是在每个节点上启动了filebeat,收集该节点docker服务在 docker/containers 目录(containers 目录说明见 《docker的目录》一章)下的日志。
另外,收集pod中服务打印到文件中的日志将在下一篇中说明。
说明,我通常都是使用 https://github.com/helm/charts 里边的chart,但ELK是感觉不是很好,最后直接用 elastic的。
# git clone https://github.com/elastic/helm-charts.git
# ll
total 1
drwxr-xr-x 12 root root 4096 Sep 30 11:06 helm-charts
# kubectl create namespace elk
说明:按需要修改 values.yaml文件,以下方案仅供参考
image: "harborcto.xxx.com.cn/pulic/elasticsearch"
imageTag: "7.10.0"
imagePullPolicy: "IfNotPresent"
replicas: 1
minimumMasterNodes: 1
service:
……
# (1)修改type类型
type: NodePort
# (2)修改端口号
nodePort: "31009"
# (3)添加下边这行,模板没有给这个变量,我们自己定义
tra_nodePort: "31010"
……
resources:
requests:
cpu: "1000m"
memory: "2Gi"
limits:
cpu: "4000m"
memory: "8Gi"
注意:ES磁盘使用达到85%将变成只读,因此这里要结合日志清理计划规划好。
volumeClaimTemplate:
accessModes: [ "ReadWriteOnce" ]
resources:
requests:
storage: 200Gi
# cd helm-charts/elasticsearch
# helm install elasticsearch -n elk ./
NAME: elasticsearch
LAST DEPLOYED: Wed Sep 30 13:27:41 2020
NAMESPACE: elk
STATUS: deployed
REVISION: 1
NOTES:
1. Watch all cluster members come up.
$ kubectl get pods --namespace=elk -l app=elasticsearch-master -w
2. Test cluster health using Helm test.
$ helm test elasticsearch --cleanup
说明:按需要修改 values.yaml文件,以下方案仅供参考
image: "harborcto.xxx.com.cn/public/kibana"
imageTag: "8.0.0-SNAPSHOT"
imagePullPolicy: "IfNotPresent"
默认目录过不去,做如下修改。
healthCheckPath: "/app/status"
根据实际情况修改
resources:
requests:
cpu: "1000m"
memory: "2Gi"
limits:
cpu: "2000m"
memory: "8Gi"
修改为NodePort以提供外网访问。全部搭建好之后在web上访问30026这个端口。
service:
#type: ClusterIP
type: NodePort
loadBalancerIP: ""
port: 5601
nodePort: "30026"
# cd helm-charts/kibana
# helm install kibana -n elk ./
说明:按需要修改 values.yaml文件,没有什么必须修改的,修改和之前差不多。
说明:logstach默认链接 elasticsearch,但是ES并没有创建这个service,而默认创建了elasticsearch-master,查看如下:
[root@DoM01 elk]# kubectl get service -n elk
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE
elasticsearch-master ClusterIP 10.1.104.188 <none> 9200/TCP,9300/TCP 37h
elasticsearch-master-headless ClusterIP None <none> 9200/TCP,9300/TCP 37h
但是我又没有在logstach的chart中找到修改的位置,所以自己为ES写了一个叫elasticsearch的service。
这里用 NodePort为了在web上看看通不通,生产用ClusterIP即可。
apiVersion: v1
kind: Service
metadata:
name: elasticsearch
namespace: elk
labels:
name: elasticsearch
spec:
type: NodePort
ports:
- port: 9200
targetPort: 9200
nodePort: 30028
selector:
app: elasticsearch-master
[root@DoM01 elk]# kubectl create -f es-service.yml
[root@DoM01 elk]# kubectl get service -n elk
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE
elasticsearch NodePort 10.1.4.111 <none> 9200:30028/TCP 2d7h
elasticsearch-master ClusterIP 10.1.104.188 <none> 9200/TCP,9300/TCP 37h
elasticsearch-master-headless ClusterIP None <none> 9200/TCP,9300/TCP 37h
# cd helm-charts/logstash
# helm install logstash -n elk ./
说明:
1)会在每个节点上启动一个filebeat的pod,用来收集每个节点 docker/containers 目录下每个容器打印的日志。这些日志都是容器前台输出的。这样就将所有pod的日志汇总到es上
2)此处没有使用logstash,直接推给ES
说明:按需要修改 values.yaml文件,没有什么必须修改的,修改和之前差不多。
[root@DoM01 filebeat]# helm install filebeat -n elk ./
NAME: filebeat
LAST DEPLOYED: Sat Feb 20 22:47:33 2021
NAMESPACE: elk
STATUS: deployed
REVISION: 1
TEST SUITE: None
NOTES:
1. Watch all containers come up.
$ kubectl get pods --namespace=elk -l app=filebeat-filebeat -w
可见每个节点上启动了一个filebeat
[root@DoM01 filebeat]# kubectl get pod -n elk -o wide
NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES
elasticsearch-master-0 1/1 Running 0 37h 10.244.7.250 don05 <none> <none>
filebeat-filebeat-4k5j8 1/1 Running 0 98s 10.10.239.104 don01 <none> <none>
filebeat-filebeat-72gf6 1/1 Running 0 98s 10.10.239.108 don05 <none> <none>
filebeat-filebeat-8dkwm 1/1 Running 0 98s 10.10.239.107 don04 <none> <none>
filebeat-filebeat-mqbjq 1/1 Running 0 98s 10.10.239.106 don03 <none> <none>
filebeat-filebeat-z55kh 1/1 Running 0 98s 10.10.239.105 don02 <none> <none>
kibana-kibana-55945d944b-26rtv 1/1 Running 0 37h 10.244.5.244 don03 <none> <none>
logstash-logstash-0 1/1 Running 0 2d8h 10.244.7.238 don05 <none> <none>
访问地址
前文2.1中 修改Kibana service的时候,NodePort 指定的那个端口即是服务端口
查看结果
如下图可见刚才的 filebeat 已经链接上来了
服务搭建完毕,可以对容器日志做监控了,kibana的使用和日志筛选不在此说明。另外,logstash已经连接到ES但是我们现在并没有使用。