【云原生之kubernetes实战】在k8s环境下部署Spark分布式计算平台

【云原生之kubernetes实战】在k8s环境下部署Spark分布式计算平台

  • 一、Spark介绍
    • 1.Spark简介
    • 2.Spark作用
  • 二、检查本地集群状态
    • 1.检查工作节点状态
    • 2.检查k8s版本
  • 二、安装helm工具
    • 1.下载helm软件包
    • 2.解压压缩包
    • 3.复制二进制文件
    • 4.检查helm版本
    • 5.helm命令补全
  • 三、安装nfs服务器
    • 1.安装nfs软件
    • 2.创建共享目录
    • 3配置共享目录
    • 4.使nfs配置生效
    • 5.设置nfs服务开机自启
    • 6.其他节点检查nfs共享情况
  • 四、部署storagecla

你可能感兴趣的:(云原生,kubernetes,spark)