大数据技术之Shell(2)

简介: 大数据技术之Shell(2)

5 运算符-expr

1.基本语法

(1)“$((运算式))”或“$[运算式]”

(2)expr + , - , \*, /, % 加,减,乘,除,取余

注意:expr运算符间要有空格

2.案例实操:

(1)计算3+2的值

[oldlu@hadoop101 datas]$ expr 2 + 3
5

(2)计算3-2的值

[oldlu@hadoop101 datas]$ expr 3 - 2 
1

(3)计算(2+3)X4的值

(a)expr一步完成计算

[oldlu@hadoop101 datas]$ expr `expr 2 + 3` \* 4
20

(b)采用$[运算式]方式

[oldlu@hadoop101 datas]# S=$[(2+3)*4]
[oldlu@hadoop101 datas]# echo $S

6 条件判断

1.基本语法

[ condition ](注意condition前后要有空格)

注意:条件非空即为true,[ oldlu ]返回true,[] 返回false。

2.常用判断条件

(1)两个整数之间比较

= 字符串比较 -lt 小于(less than)

-le 小于等于(less equal)

-eq 等于(equal)

-gt 大于(greater than)

-ge 大于等于(greater equal)

-ne 不等于(Not equal)

(2)按照文件权限进行判断

-r 有读的权限(read)

-w 有写的权限(write)

-x 有执行的权限(execute)

(3)按照文件类型进行判断

-f 文件存在并且是一个常规的文件(file)

-e 文件存在(existence)

-d 文件存在并是一个目录(directory)

3.案例实操

(1)23是否大于等于22

[oldlu@hadoop101 datas]$ [ 23 -ge 22 ]
[oldlu@hadoop101 datas]$ echo $?
   0

(2)helloworld.sh是否具有写权限

[oldlu@hadoop101 datas]$ [ -w helloworld.sh ]
[oldlu@hadoop101 datas]$ echo $?
 0

(3)/home/oldlu/cls.txt目录中的文件是否存在

[oldlu@hadoop101 datas]$ [ -e /home/oldlu/cls.txt ]
[oldlu@hadoop101 datas]$ echo $?
 1

(4)多条件判断(&& 表示前一条命令执行成功时,才执行后一条命令,|| 表示上一条命令执行失败后,才执行下一条命令)

[oldlu@hadoop101 ~]$ [ condition ] && echo OK || echo notok
OK
[oldlu@hadoop101 datas]$ [ condition ] && [ ] || echo notok
notok

7 流程控制(重点)

7.1 if 判断

1.基本语法

if [ 条件判断式 ];then

程序

fi

或者

if [ 条件判断式 ]

then

程序

fi

注意事项:

(1)[ 条件判断式 ],中括号和条件判断式之间必须有空格

(2)if后要有空格

2.案例实操

(1)输入一个数字,如果是1,则输出banzhang zhen shuai,如果是2,则输出cls zhen mei,如果是其它,什么也不输出。

[oldlu@hadoop101 datas]$ touch if.sh
[oldlu@hadoop101 datas]$ vim if.sh
#!/bin/bash
if [ $1 -eq "1" ]
then
        echo "banzhang zhen shuai"
elif [ $1 -eq "2" ]
then
        echo "cls zhen mei"
fi
[oldlu@hadoop101 datas]$ chmod 777 if.sh 
[oldlu@hadoop101 datas]$ ./if.sh 1

7.2 case 语句

1.基本语法

case $变量名 in

“值1”)

如果变量的值等于值1,则执行程序1

;;

“值2”)

如果变量的值等于值2,则执行程序2

;;

…省略其他分支…

*)

如果变量的值都不是以上的值,则执行此程序

;;

esac

注意事项:

1)case行尾必须为单词“in”,每一个模式匹配必须以右括号“)”结束。

2)双分号“;;”表示命令序列结束,相当于java中的break。

3)最后的“*)”表示默认模式,相当于java中的default。

2.案例实操

(1)输入一个数字,如果是1,则输出banzhang,如果是2,则输出cls,如果是其它,输出renyao。

[oldlu@hadoop101 datas]$ touch case.sh
[oldlu@hadoop101 datas]$ vim case.sh
!/bin/bash
case $1 in
"1")
        echo "banzhang"
;;
"2")
        echo "cls"
;;
*)
        echo "renyao"
;;
esac
[oldlu@hadoop101 datas]$ chmod 777 case.sh
[oldlu@hadoop101 datas]$ ./case.sh 1
1

7.3 for 循环

1.基本语法1

for (( 初始值;循环控制条件;变量变化 ))

do

程序

done

2.案例实操

(1)从1加到100

[oldlu@hadoop101 datas]$ touch for1.sh
[oldlu@hadoop101 datas]$ vim for1.sh
#!/bin/bash
s=0
for((i=0;i<=100;i++))
do
        s=$[$s+$i]
done
echo $s
[oldlu@hadoop101 datas]$ chmod 777 for1.sh 
[oldlu@hadoop101 datas]$ ./for1.sh 
“5050”

3.基本语法2

for 变量 in 值1 值2 值3…

do

程序

done

4.案例实操

(1)打印所有输入参数

[oldlu@hadoop101 datas]$ touch for2.sh
[oldlu@hadoop101 datas]$ vim for2.sh
#!/bin/bash
#打印数字
for i in $*
 do
      echo "ban zhang love $i "
    done
[oldlu@hadoop101 datas]$ chmod 777 for2.sh 
[oldlu@hadoop101 datas]$ bash for2.sh cls xz bd
ban zhang love cls
ban zhang love xz
ban zhang love bd

(2)比较∗ 和 *和@区别

(a)∗ 和 *和@都表示传递给函数或脚本的所有参数,不被双引号“”包含时,都以$1 2 … 2 …2n的形式输出所有参数。

[oldlu@hadoop101 datas]$ touch for.sh
[oldlu@hadoop101 datas]$ vim for.sh
#!/bin/bash 
for i in $*
do
      echo "ban zhang love $i "
done
for j in $@
do      
        echo "ban zhang love $j"
done
[oldlu@hadoop101 datas]$ bash for.sh cls xz bd
ban zhang love cls 
ban zhang love xz 
ban zhang love bd 
ban zhang love cls
ban zhang love xz
ban zhang love bd

(b)当它们被双引号“”包含时,“$*”会将所有的参数作为一个整体,以“$1 2 … 2 …2n”的形式输出所有参数;“$@”会将各个参数分开,以“$1” “2 ” … ” 2”…”2”的形式输出所有参数。

[oldlu@hadoop101 datas]$ vim for.sh
#!/bin/bash 
for i in "$*" 
#$*中的所有参数看成是一个整体,所以这个for循环只会循环一次 
        do 
                echo "ban zhang love $i"
        done 
for j in "$@" 
#$@中的每个参数都看成是独立的,所以“$@”中有几个参数,就会循环几次 
        do 
                echo "ban zhang love $j" 
done
[oldlu@hadoop101 datas]$ chmod 777 for.sh
[oldlu@hadoop101 datas]$ bash for.sh cls xz bd
ban zhang love cls xz bd
ban zhang love cls
ban zhang love xz
ban zhang love bd

7.4 while 循环

1.基本语法

while [ 条件判断式 ]

do

程序

done

2.案例实操

(1)从1加到100

[oldlu@hadoop101 datas]$ touch while.sh
[oldlu@hadoop101 datas]$ vim while.sh
#!/bin/bash
s=0
i=1
while [ $i -le 100 ]
do
        s=$[$s+$i]
        i=$[$i+1]
done
echo $s
[oldlu@hadoop101 datas]$ chmod 777 while.sh 
[oldlu@hadoop101 datas]$ ./while.sh 
5050

8 read读取控制台输入

1.基本语法

read(选项)(参数)

选项:

-p:指定读取值时的提示符;

-t:指定读取值时等待的时间(秒)。

参数

变量:指定读取值的变量名

2.案例实操

(1)提示7秒内,读取控制台输入的名称

[oldlu@hadoop101 datas]$ touch read.sh
[oldlu@hadoop101 datas]$ vim read.sh
#!/bin/bash
read -t 7 -p "Enter your name in 7 seconds " NAME
echo $NAME
[oldlu@hadoop101 datas]$ ./read.sh 
Enter your name in 7 seconds xiaoze
xiaoze

9 函数

9.1 系统函数

1.basename基本语法

basename [string / pathname] [suffix] (功能描述:basename命令会删掉所有的前缀包括最后一个(‘/’)字符,然后将字符串显示出来。

选项:

suffix为后缀,如果suffix被指定了,basename会将pathname或string中的suffix去掉。

2.案例实操

(1)截取该/home/oldlu/banzhang.txt路径的文件名称

[oldlu@hadoop101 datas]$ basename /home/oldlu/banzhang.txt 
banzhang.txt
[oldlu@hadoop101 datas]$ basename /home/oldlu/banzhang.txt .txt
banzhang

dirname基本语法

dirname 文件绝对路径 (功能描述:从给定的包含绝对路径的文件名中去除文件名(非目录的部分),然后返回剩下的路径(目录的部分))

4.案例实操

(1)获取banzhang.txt文件的路径

   [oldlu@hadoop101 ~]$ dirname /home/oldlu/banzhang.txt 
   /home/oldlu
   9.2 自定义函数
   1.基本语法
   [ function ] funname[()]
   {
   Action;
   [return int;]
   }
   funname

2.经验技巧

(1)必须在调用函数地方之前,先声明函数,shell脚本是逐行运行。不会像其它语言一样先编译。

(2)函数返回值,只能通过$?系统变量获得,可以显示加:return返回,如果不加,将以最后一条命令运行结果,作为返回值。return后跟数值n(0-255)

3.案例实操

(1)计算两个输入参数的和

   [oldlu@hadoop101 datas]$ touch fun.sh
   [oldlu@hadoop101 datas]$ vim fun.sh
#!/bin/bash
function sum()
{
    s=0
    s=$[ $1 + $2 ]
    echo "$s"
}
read -p "Please input the number1: " n1;
read -p "Please input the number2: " n2;
sum $n1 $n2;
[oldlu@hadoop101 datas]$ chmod 777 fun.sh
[oldlu@hadoop101 datas]$ ./fun.sh 
Please input the number1: 2
Please input the number2: 5
7


相关实践学习
基于MaxCompute的热门话题分析
本实验围绕社交用户发布的文章做了详尽的分析,通过分析能得到用户群体年龄分布,性别分布,地理位置分布,以及热门话题的热度。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps&nbsp;
目录
相关文章
|
4天前
|
Cloud Native 数据处理 云计算
探索云原生技术在大数据分析中的应用
随着云计算技术的不断发展,云原生架构作为一种全新的软件开发和部署模式,正逐渐引起企业的广泛关注。本文将探讨云原生技术在大数据分析领域的应用,介绍其优势与挑战,并探讨如何利用云原生技术提升大数据分析的效率和可靠性。
|
4天前
|
数据采集 传感器 人工智能
大数据关键技术之电商API接口接入数据采集发展趋势
本文从数据采集场景、数据采集系统、数据采集技术方面阐述数据采集的发展趋势。 01 数据采集场景的发展趋势 作为大数据和人工智能工程的源头,数据采集的场景伴随着应用场景的发展而变化,以下是数据采集场景的发展趋势。
|
4天前
|
分布式计算 Hadoop 大数据
大数据技术与Python:结合Spark和Hadoop进行分布式计算
【4月更文挑战第12天】本文介绍了大数据技术及其4V特性,阐述了Hadoop和Spark在大数据处理中的作用。Hadoop提供分布式文件系统和MapReduce,Spark则为内存计算提供快速处理能力。通过Python结合Spark和Hadoop,可在分布式环境中进行数据处理和分析。文章详细讲解了如何配置Python环境、安装Spark和Hadoop,以及使用Python编写和提交代码到集群进行计算。掌握这些技能有助于应对大数据挑战。
|
4天前
|
存储 数据采集 数据可视化
大数据处理技术
【4月更文挑战第10天】大数据处理涵盖采集、预处理、存储、分析挖掘、展现和应用等关键步骤。采集涉及多种类型数据,预处理确保数据质量,存储管理关注规模、速度和安全,分析挖掘利用机器学习发现价值,展现和应用则通过可视化和检索实现数据价值。云计算和AI强化了大数据处理能力,整体目标是提取数据中的价值,驱动企业和社会进步。
35 4
大数据处理技术
|
4天前
|
机器学习/深度学习 运维 算法
大数据基础工程技术团队4篇论文入选ICLR,ICDE,WWW
近日,由阿里云计算平台大数据基础工程技术团队主导的四篇时间序列相关论文分别被国际顶会ICLR2024、ICDE2024和WWW2024接收。
|
4天前
|
存储 机器学习/深度学习 数据采集
大数据处理与分析实战:技术深度剖析与案例分享
【5月更文挑战第2天】本文探讨了大数据处理与分析的关键环节,包括数据采集、预处理、存储、分析和可视化,并介绍了Hadoop、Spark和机器学习等核心技术。通过电商推荐系统和智慧城市交通管理的实战案例,展示了大数据在提高用户体验和解决实际问题上的效能。随着技术进步,大数据处理与分析将在更多领域发挥作用,推动社会进步。
|
4天前
|
存储 数据可视化 大数据
大数据技术框架
【4月更文挑战第20天】大数据一般需要经过6个主要环节,包括数据收集、数据存储、资源管理与服务协调、计算引擎、数据分析和数据可视化。
|
4天前
|
存储 大数据 数据管理
大数据技术是如何发展的?
大数据虽已发展多年,但仍面临将恰当信息在正确时间传递给合适人员的挑战。尽管技术进步,大部分企业员工仍难以获取所需信息。数据仓库、数据湖和数据结构等存储系统涌现,但集中数据并不实际,数据去中心化趋势明显。数据结构允许异构数据并促进治理,同时,云计算影响大数据战略,提供灵活实验空间。数据治理和隐私规则的遵守至关重要,流程成熟度聚焦于数据质量和共享。目前大数据正处于“幻灭低谷”,成功的关键在于数据治理和处理流程的改进。
|
4天前
|
NoSQL 大数据 数据挖掘
现代数据库技术与大数据应用
随着信息时代的到来,数据量呈指数级增长,对数据库技术提出了前所未有的挑战。本文将介绍现代数据库技术在处理大数据应用中的重要性,并探讨了一些流行的数据库解决方案及其在实际应用中的优势。
|
4天前
|
机器学习/深度学习 人工智能 数据可视化
基于Python的数据可视化技术在大数据分析中的应用
传统的大数据分析往往注重数据处理和计算,然而数据可视化作为一种重要的技术手段,在大数据分析中扮演着至关重要的角色。本文将介绍如何利用Python语言中丰富的数据可视化工具,结合大数据分析,实现更直观、高效的数据展示与分析。