本文从本人简书博客同步过来
在上一篇中我们简要介绍了 LSF 作业管理系统,下面将介绍 SLURM 资源管理系统。
SLURM (Simple Linux Utility for Resource Management)是一种可用于大型计算节点集群的高度可伸缩和容错的集群管理器和作业调度系统,被世界范围内的超级计算机和计算集群广泛采用。SLURM 维护着一个待处理工作的队列并管理此工作的整体资源利用。它以一种共享或非共享的方式管理可用的计算节点(取决于资源的需求),以供用户执行工作。SLURM 会为任务队列合理地分配资源,并监视作业至其完成。如今,SLURM 已经成为了很多最强大的超级计算机上使用的领先资源管理器,如天河二号上便使用了 SLURM 资源管理系统。
下面是一些最常用的 SLURM 命令:
下表是 SLURM 环境变量:
变量 | 说明 |
---|---|
SLURM_NPROCS | 要加载的进程数 |
SLURM_TASKS_PER_NODE | 每节点要加载的任务数 |
SLURM_JOB_ID | 作业的 JobID |
SLURM_SUBMIT_DIR | 提交作业时的工作目录 |
SLURM_JOB_NODELIST | 作业分配的节点列表 |
SLURM_JOB_CPUS_PER_NODE | 每个节点上分配给作业的 CPU 数 |
SLURM_JOB_NUM_NODES | 作业分配的节点数 |
HOSTNAME | 对于批处理作业,此变量被设置为批处理脚本所执行节点的节点名 |
SLURM 资源管理系统的管理对象包括:节点,分区,作业和作业步。
节点:Node
分区:Partition
作业:Job
作业步:Jobstep
SLURM 系统有三种作业运行模式:
交互模式作业的使用过程为:
例如使用 srun 申请 4 个进程生成一个作业步:
$ srun -n 4 ./example
批处理模式作业的使用过程为:
下面给出作业脚本示例:
#!/bin/env bash
# file: example.sh
# set the number of nodes
#SBATCH --nodes=2
# set the number of tasks (processes) per node
#SBATCH --ntasks-per-node=4
# set partition
#SBATCH --partition=example-partition
# set max wallclock time
#SBATCH --time=2:00:00
# set name of job
#SBATCH --job-name=example-mpi4py
# set batch script's standard output
#SBATCH --output=example.out
# mail alert at start, end and abortion of execution
#SBATCH --mail-type=ALL
# send mail to this address
#SBATCH [email protected]
# run the application
srun python example-mpi4py.py
用以下命令提交批处理作业:
$ sbatch example.sh
分配模式作业的使用过程为:
分配模式通过 salloc 命令运行,举例如下(使用 2 个节点,4 个进程,预计运行时间 100 秒):
$ salloc -N 2 -n 4 -p example-partition -t 100 /bin/bash
资源分配请求成功后会进入 bash shell 终端,在其中可以使用 srun 交互式地执行作业任务。在终端输入 exit 命令或 Ctrl+D 退出分配模式。
天河二号上使用的是 SLURM 资源管理系统,不过天河二号上使用的 SLURM 命令都是将标准的 SLURM 命令开头的 s 改成了 yh,如下:
以上介绍了 SLURM 资源管理系统,在下一篇中我们将介绍 MPI-3 的新特性。