k8s cronjob 以及 数据卷 挂载情况

apiVersion: batch/v1beta1 #batch/v2alpha1
kind: CronJob
metadata:
  name: clean-job
  namespace: cloudai-2
spec:
  schedule: "*/1 * * * *" # 分钟,小时,日,月,星期
  startingDeadlineSeconds: 300 # 300秒没有启动成功,就不再启动
  concurrencyPolicy: Forbid #Allow 允许job并发执行,Forbid只允许当前这个执行,Replace取消当前这个,而执行新的
  suspend: false # 设置为true,后续所有执行被挂起
  jobTemplate:
    spec:
      #      ttlSecondsAfterFinished: 100 # 任务完成后的10s之后自动删除pod,k8s 1.12以后才有
      backoffLimit: 4 # 最大允许失败的次数
      template:
        spec:
          restartPolicy: OnFailure
          volumes:
            - name: tz-config  # volumeMounts的name 名字要对的上
              hostPath:  # 本地数据卷,可以用于存放pod内部程序的日志文件
                path: /usr/share/zoneinfo/Asia/Shanghai
            - name: code-path
              persistentVolumeClaim: # pvc 数据卷
                claimName: cloudai-code-pvc
            - name: file-path
              persistentVolumeClaim:
                claimName: cloudai-file-pvc
          containers:
            - name: clean-job
              image: luanpeng/lp:cloudai-cron-job
              command: ["python", "clean_job.py"]
              workingDir: /app/cronjob
              volumeMounts: # 和volumes中的name 名字要对的上
                - name: tz-config
                  mountPath: /etc/localtime
                - name: code-path
                  mountPath: /app
                - name: file-path
                  mountPath: /file

你可能感兴趣的:(kubenetes)