Shell脚本规范|学习笔记

本文涉及的产品
日志服务 SLS,月写入数据量 50GB 1个月
简介: 快速学习Shell脚本规范

开发者学堂课程【Shell 脚本进阶:Shell脚本规范】学习笔记,与课程紧密联系,让用户快速学习知识。

课程地址https://developer.aliyun.com/learning/course/799


Shell脚本规范

目录

脚本的命令与权限

脚本的基本结构

变量和函数的命令与引用

脚本中的路径

日志输出规范

一、脚本的命令与权限

1、脚本后缀:xxx.sh

2、脚本名称:start-app.sh、stop-app.sh(可读性)、chk-xxx.sh

3、执行权限:一定要加可执行权限

二、脚本的基本结构

1、#! Shebang

#!/bin/bash

#!/usr/bin/env bash

2、注释清晰可读

(1)对脚本的功能进行说明

(2)脚本的参数或帮助函数

(3)脚本的作者和更新记录

(4)函数或复杂命令的说明

3、功能函数与主函数

your_ _function() {}

main() {}

示例:

image.pngimage.jpeg

三、变量和函数的命令与引用

1、变量和函数的命名

(1)驼峰或下划线命名法

(2)避免使用bash关键字

2、常量的命名

(1)大写字母可用下划线分隔

(2)统一在非注释行开头声明

3、变量的使用

(1)通过${ 变量名}引用

4、函数的使用

(1)所有函数放在常量定义之后

(2)函数之间不要夹杂其他代码

(3)main函数放在脚本最后调用

四、脚本中的路径

1、相对路径和绝对路径

2、建议使用绝对路径

相对路径依赖脚本执行时的目录

能够规避一些可能出现的异常问题

3、如何获取脚本所在目录

$(cd $(dirname $0) && pwd)

$(dirname $( readlink -f $0 ) )

五、日志的输出规范

1、需要记录执行过程

2、单独封装函数

log () {}

3、日志格式

(1)可参考log4j

(2)包含日期时间

(3)包含日志级别

(4)包含日志信息

4、输出

(1)重定向到文件

相关实践学习
【涂鸦即艺术】基于云应用开发平台CAP部署AI实时生图绘板
【涂鸦即艺术】基于云应用开发平台CAP部署AI实时生图绘板
相关文章
|
8天前
|
机器人 API 调度
基于 DMS Dify+Notebook+Airflow 实现 Agent 的一站式开发
本文提出“DMS Dify + Notebook + Airflow”三位一体架构,解决 Dify 在代码执行与定时调度上的局限。通过 Notebook 扩展 Python 环境,Airflow实现任务调度,构建可扩展、可运维的企业级智能 Agent 系统,提升大模型应用的工程化能力。
|
14天前
|
人工智能 数据可视化 Java
Spring AI Alibaba、Dify、LangGraph 与 LangChain 综合对比分析报告
本报告对比Spring AI Alibaba、Dify、LangGraph与LangChain四大AI开发框架,涵盖架构、性能、生态及适用场景。数据截至2025年10月,基于公开资料分析,实际发展可能随技术演进调整。
913 152
|
人工智能 前端开发 API
前端接入通义千问(Qwen)API:5 分钟实现你的 AI 问答助手
本文介绍如何在5分钟内通过前端接入通义千问(Qwen)API,快速打造一个AI问答助手。涵盖API配置、界面设计、流式响应、历史管理、错误重试等核心功能,并提供安全与性能优化建议,助你轻松集成智能对话能力到前端应用中。
651 154
|
负载均衡 Java 微服务
OpenFeign:让微服务调用像本地方法一样简单
OpenFeign是Spring Cloud中声明式微服务调用组件,通过接口注解简化远程调用,支持负载均衡、服务发现、熔断降级、自定义拦截器与编解码,提升微服务间通信开发效率与系统稳定性。
348 156
|
6天前
|
分布式计算 监控 API
DMS Airflow:企业级数据工作流编排平台的专业实践
DMS Airflow 是基于 Apache Airflow 构建的企业级数据工作流编排平台,通过深度集成阿里云 DMS(Data Management Service)系统的各项能力,为数据团队提供了强大的工作流调度、监控和管理能力。本文将从 Airflow 的高级编排能力、DMS 集成的特殊能力,以及 DMS Airflow 的使用示例三个方面,全面介绍 DMS Airflow 的技术架构与实践应用。
|
4天前
|
存储 Kubernetes Docker
部署eck收集日志到k8s
本文介绍基于ECK(Elastic Cloud on Kubernetes)在K8s中部署Elasticsearch、Kibana和Filebeat的完整流程。采用Helm方式部署ECK Operator,通过自定义YAML文件分别部署ES集群、Kibana及Filebeat,并实现日志采集与可视化。重点涵盖命名空间一致性、版本匹配、HTTPS配置禁用、资源限制、存储挂载及权限RBAC设置,支持系统日志、应用日志与容器日志的多源采集,适用于生产环境日志系统搭建。
243 94