集群任务管理系统SGE的简明教程

简介: 我用的一个服务器上装了一个集群管理工具(SGE, Sun Grid Engine), 用于从登陆节点上向计算节点进行任务投递。一开始,不太会用,但是经过一段时间的摸索学习后,终于能顺手的用起来了。

我用的一个服务器上装了一个集群管理工具(SGE, Sun Grid Engine), 用于从登陆节点上向计算节点进行任务投递。一开始,不太会用,但是经过一段时间的摸索学习后,终于能顺手的用起来了。

在使用SGE之前,你得先了解SGE到底做了什么事情. SGE或者其他集群管理工作做的事情就是将用户投递的任务进行排队,然后将任务交给能够运行的结算节点执行,工作流程可以分为四步:

  1. 接受用户投放的任务
  2. 在任务运行以前,将任务放到一个存储区域
  3. 发送任务到一个执行设备,并监控任务的运行
  4. 运行结束写回结果并记录运行日志

SGE的常用命令

任务投递

SGE中投递任务所用到的命令是qsub. 最简单的用法是下面这种,即,将要执行的命令通过标准输入的方式传递给qsub

echo "ls -l " | qsub

投递之后可以用qstat查看自己投递的任务的运行情况,如下图

img_77795b82c445e4bb18e24818df86351c.jpe
任务投递情况

第一列是任务编号, 第二列是优先级,第三列是任务名字,在参数里没有特别说明的情况下,SGE会用任务的来源进行命令,STDIN表示来自于标准输入,第四列是用户名,第五列是运行状态("r"表示运行中), 第六列表示任务投递和开始时间,第七列是任务投递的节点,第8列则是要申请的线程数。在执行完成后会在家目录下生成"STDIN.e7883"和"STDIN.o7883", 其中7883就是任务编号, 前者存放标准错误输出, 后者存放标准输出, 因此"cat STDIN.o7883"的内容就是ls -l的内容。

另一种方法是先写一个脚本然后投递,比如先编辑一个文件"ls.sh", 内容如下,然后用"qsub ls.sh"投递任务。

ls -l

跟之前一样,最后在家目录下产生了"ls.sh.exxxx"和"ls.sh.exxxx"两个文件

当然实际时肯定没有那么简单,我们需要增加各种参数来调整qsub的行为,用qsub -help可以看完整的参数,但是常用的为如下几个

  • -q xxx : 指定要投递到的队列,如果不指定的话,SGE会在用户可使用的队列中选择一个满足要求的队列。
  • -V: 将当前的环境变量传递到执行命令的节点中
  • cwd: 在当前目录下执行任务, sge的日志会输出到当前路径。 不增加该指令,所有投递的任务都会在家目录下执行
  • -l resource=value: 请求资源数, 例如 -l vf=25G -l h=node1 就是任务的预估内存要25G(内存估计的值应稍微大于真实的内存,内存预估偏小可能会导致节点跑挂), 申请在node1上运行
  • -S /bin/bash: 表示在bash环境下执行命令。默认tcsh.
  • -pe openmpi 4: 表示使用openmpi进行并行运算,且申请的线程是4,
  • -N 任务名: 手动执行任务的名字
  • -j y|n :是否将标准输入和标准输入合并成一个文件
  • -sync y|n: 是否等待任务结束,返回退出码
  • -o path: 指定标准输出的文件夹

那么接下来就可以添加这些参数运行一些命令了,例如在命令行里投递一个比对任务

echo "bowtie2 -p 8 -x index/ref -1 data/A_1.fq -2 data/A_2.fq | samtools sort > A.bam" | qsub -V -cwd -l vf=25G -S /bin/bash -pe openmpi 8 -N A.bt2

这些参数除了在外部设置外,还可以在shell脚本里设置,如下

#!/bin/bash
#$ -S /bin/bash
#$ -V
#$ -cwd
#$ -l vf=25G
#$ -pe openmpi 8
#$ -N a.bt2
bowtie2 -p 8 -x index/ref -1 data/A_1.fq -2 data/A_2.fq | samtools sort > A.bam

查询任务

除了任务投递外,查询任务也是一个非常常用的命令,除了刚才直接用qstat查看,还有如下参数比较好用

qstat -f        # 查看用户任务
qstat -j jobId  # 按任务id查看
qstat -explain a|c|A|E -j jobID # 查看任务任务并给出解释
qstat -u user   # 按用户查看

任务状态:

  • qw: 表示等待状态
  • hqw: 任务挂起等待中,待依赖的任务完成后执行
  • Eqw: 投递任务出错
  • r: 表示任务正在运行
  • s: 暂时挂起
  • dr: 节点挂了之后,删除任务就会出现这个状态,只有节点重启之后,任务才会消失

删除任务

任务删除也比较重要,毕竟偶尔会出现任务投递出错的情况

qdel -j 1111   删除任务号为1111的任务

其他命令

  • qrsh:与qsub相比,是交互式的投递任务,注意参数:-now yes|no默认设置为yes
    • 若设置为yes,立即调度作业,如果没有可用资源,则拒绝作业,任务投递失败,任务状态为Eqw。
    • 若设置为no,调度时如果没有可用资源,则将作业排入队列,等待调度。
    • 例子: qrsh -l vf=*G -q all.q -now no -w n *sh
  • qacct 从集群日志中抽取任意账户信息
  • qalter 更改已提交但正处于暂挂状态的作业的属性
  • qconf 为集群和队列配置提供用户界面
    • qconf -spl查看可用并行环境
  • qhold 阻止已提交作业的执行
  • qhost 显示SGE执行主机(即各个计算节点)的状态信息
    • qhost -j按照节点显示任务
    • qhost -F展示每个节点的资源
  • qlogin 启动telnet或类似的登录会话。

案例:一个投递比对任务的简单脚本


#!/bin/bash

set -e
set -u
set -o pipefail

threads=8
index=index/hg19

FQ_DIR="analysis/0-raw-data"
ALIGN_DIR="analysis/2-read-align"
LOG_DIR="analysis/log"
TMP_DIR="analysis/tmp"

mkdir -p ${ALIGN_DIR}
mkdir -p ${LOG_DIR}
mkdir -p ${TMP_DIR}

tail -n+2 download_table.txt | cut -f 6 | while read id;
do
    echo "
    bowtie2 --very-sensitive-local --mm -p $threads -x $index -U ${FQ_DIR}/$id.fastq.gz 2> ${LOG_DIR}/$id.bt2.log | \
    samtools sort -@ 2 -m 1G -T ${TMP_DIR}/${id} -o ${ALIGN_DIR}/${id}.sort.bam" | qsub -V -cwd -pe openmpi $threads -N ${id}_bt2 -q all.q -S /bin/bash
done

目录
相关文章
|
6月前
阿里云ARMS的新版和老版界面是两套不同的系统
阿里云ARMS的新版和老版界面是两套不同的系统
142 2
|
存储 开发工具 数据库
搭建zotero到obsidian的工作流
所谓“工欲善其事,必先利其器”(差生文具多),想要针对一个领域研究出成果,首先需要建立其对于这个领域完善的知识体系,即形成属于自己的知识库。现在有非常多的笔记软件,例如Notion、语雀、Obsidian等等,对于建立知识库非常有帮助,下面我就来谈谈我个人探索出来的一套从zotero管理文献,到阅读文献做笔记再到obsidian中形成阅读笔记的丝滑工作流。
1912 0
|
23天前
|
敏捷开发 开发框架 数据可视化
有哪些任务管理跟踪系统值得推荐?高效工具一览
在快节奏的工作环境中,任务管理跟踪系统成为提升生产力的关键。本文介绍了五款优秀工具:板栗看板企业版、Jira、Trello、Monday.com 和 Asana,分别从多项目管理、敏捷开发支持、操作简便性、可视化工作流及跨部门协作等方面进行分析,帮助你根据团队需求选择最合适的工具。
45 3
|
5月前
|
DataWorks 安全 API
DataWorks产品使用合集之用API创建的补数据工作流,怎样才能获知工作流的运行状态
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
149 0
|
3月前
|
数据采集 DataWorks 监控
DataWorks产品使用合集之怎么把开发环境的任务调度运行到生产环境
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
|
5月前
|
SQL DataWorks 监控
DataWorks产品使用合集之有没有办法用python获取到那几个任务的实例再调度
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
|
6月前
|
Prometheus 监控 数据可视化
面试分享:Airflow工作流调度系统架构与使用指南
【4月更文挑战第10天】Apache Airflow是关键的工作流调度系统,本文结合面试经验,深入探讨其核心架构和使用技巧。重点包括:1) Airflow的Scheduler、Web Server、Worker和Metadata Database组件;2) DAG、Task和Operator的概念;3) DAG编写、调度及错误处理策略;4) 监控与扩展性,如自定义Operator和最佳实践。通过学习,助你在面试中应对Airflow相关问题,并提升实际工作中的数据工程能力。
436 5
|
12月前
|
DataWorks 索引
DataWorks现在离线节点手动执行,好慢的,要等好久,用公共集成资源就那么慢嘛?
DataWorks现在离线节点手动执行,好慢的,要等好久,用公共集成资源就那么慢嘛?
44 1
|
分布式计算 大数据 Shell
大数据开发中常用组件服务的集群管理脚本整理集合
在大数据开发中,需要对各个组件服务集群进行管理,为了效率和可靠性,可以编写shell脚本来统一管理和维护集群,确保系统的稳定性和可靠性。
147 0
|
运维 监控 数据库
【运维知识进阶篇】zabbix5.0稳定版详解6(zabbix自动化监控:自动发现+自动注册+监控项目主动式)(上)
【运维知识进阶篇】zabbix5.0稳定版详解6(zabbix自动化监控:自动发现+自动注册+监控项目主动式)
269 0