Shell编程

文章目录

  • 1、Shell概述
  • 2、Shell解析器
  • 3、Shell脚本入门
  • 4、Shell中的变量
    • 4.1 系统变量
    • 4.2 自定义变量
    • 4.3 特殊变量
  • 5、运算符
  • 6、条件判断
  • 7、流程控制
    • 7.1 if判断
    • 7.2 case语句
    • 7.3 for循环
    • 7.4 whilie 循环
  • 8、read读取控制台输入
  • 9、函数
    • 9.1 系统函数
    • 9.2 自定义函数
  • 10、shell工具
    • 10.1 cut
    • 10.2 sed
    • 10.3 awk
    • 10.4 sort

1、Shell概述

Shell是一个命令行解释器,它接收应用程序/用户命令,然后调用操作系统内核。Shell还是一个功能相当强大的编程语言,易编写、易调试、灵活性强。

Shell编程_第1张图片

2、Shell解析器

① Linux提供的Shell解析器

[root@hadoop ~]# cat /etc/shells
/bin/sh
/bin/bash
/sbin/nologin
/usr/bin/sh
/usr/bin/bash
/usr/sbin/nologin

② sh和bash的关系

[root@hadoop bin]# ll | grep bash
-rwxr-xr-x  1 root root      960472 Dec  7  2016 bash
lrwxrwxrwx  1 root root           4 Aug 18  2017 sh -> bash

​ 可以看出sh是bash的软连接

③ Centos默认的解析器是bash

[root@izwz923wscm1q3eumry71kz bin]# echo $SHELL
/bin/bash

3、Shell脚本入门

1.脚本格式

​ 脚本以#!/bin/bash开头(指定解析器)

2.第一个Shell脚本:helloworld

[root@hadoop shell]$ touch helloworld.sh
[root@hadoop shell]$ vi helloworld.sh

在helloworld.sh中输入如下内容
#!/bin/bash
echo "helloworld"

3.脚本的常用执行方式

①采用bashsh+脚本的相对路径或绝对路径(不用赋予脚本+x权限)

sh+脚本的相对路径/绝对路径 或 bash+脚本的相对路径/绝对路径
[root@hadoop shell]$ bash helloworld.sh 
Helloworld
[root@hadoop shell]$ sh helloworld.sh 
Helloworld

②采用输入脚本的绝对路径或相对路径执行脚本(必须具有可执行权限+x

[root@hadoop shell]$ chmod 777 helloworld.sh
[root@hadoop shell]$ ./helloworld.sh 
Helloworld

注意:第一种执行方法,本质是bash解析器帮你执行脚本,所以脚本本身不需要执行权限。第二种执行方法,本质是脚本需要自己执行,所以需要执行权限。

4.多命令处理

需求:在/root目录下创建一个note.txt,在note.txt文件中增加I love shell

[root@hadoop shell]$ touch batch.sh
[root@hadoop shell]$ vi batch.sh

#!/bin/bash
cd /root
touch cls.txt
echo "I love cls" >>cls.txt

4、Shell中的变量

4.1 系统变量

常用系统变量:$HOME、$PWD、$SHELL、$USER

查看系统变量的值:
	[root@hadoop shell]$ echo $HOME

显示当前Shell中所有变量:
	[root@hadoop shell]$ set

4.2 自定义变量

基本语法:

​ ① 定义变量:变量=值

​ ② 撤销变量:unset变量

​ ③ 声明静态变量:readonly变量,注意:不能unset

变量定义规则:

​ ① 变量名称可以由字母、数字和下划线组成,但是不能以数字开头,环境变量名建议大写。

​ ② 等号两侧不能有空格

​ ③ 在bash中,变量默认类型都是字符串类型,无法直接进行数值运算。

​ ④ 变量的值如果有空格,需要使用双引号或单引号括起来。

4.3 特殊变量

①$n

基本用法:$n(功能描述:n为数字,$0代表该脚本名称,$1-$9代表第一到第九个参数,十以上的参数,十以上的参数需要用大括号包含,如${10})

[root@hadoop shell]# touch parameter.sh 
[root@hadoop shell]# vim parameter.sh

#!/bin/bash
echo "$0  $1   $2"

[root@hadoop shell]# chmod 777 parameter.sh

[root@hadoop shell]# ./parameter.sh cls  xz
./parameter.sh  cls   xz

②$#

基本用法:$#(功能描述:获取所有输入参数个数,常用于循环)。

[root@hadoop shell]# vim parameter.sh

#!/bin/bash
echo "$0  $1   $2"
echo $#

[root@hadoop shell]# chmod 777 parameter.sh

[root@hadoop shell]# ./parameter.sh cls  xz
parameter.sh cls xz 
2

$*、$@

基本用法:
$*(功能描述:这个变量代表命令行中所有的参数,$*把所有的参数看成一个整体)
$@(功能描述:这个变量也代表命令行中所有的参数,不过$@把每个参数区分对待)

[root@hadoop shell]# vim parameter.sh

#!/bin/bash
echo "$0  $1   $2"
echo $#
echo $*
echo $@

[root@hadoop shell]# bash parameter.sh 1 2 3
1 2 3
3
1 2 3
1 2 3

④$?

基本用法:$?(功能描述:最后一次执行的命令的返回状态。如果这个变量的值为0,证明上一个命令正确执行;如果这个变量的值为非0(具体是哪个数,由命令自己来决定),则证明上一个命令执行不正确了。)

[root@hadoop shell]# ./helloworld.sh 
hello world
[root@hadoop shell]# echo $?
0

5、运算符

基本语法:

  • $((运算式))$[运算式]
  • expr + , - , *, /, %

注意:expr运算符间要有空格

①计算3+2的值

[root@hadoop shell]# expr 2 + 3
5

②计算(2+3)X4的值

[root@hadoop shell]# S=$[(2+3)*4]
[root@hadoop shell]# echo $S

6、条件判断

基本语法:[ condition ](注意condition前后要有空格),注意:条件非空即为true,[] 返回false

常用判断条件:

① 两个整数之间比较

符号 说明
= 字符串比较
-lt 小于(less than)
-le 小于等于(less equal)
-eq 等于(equal)
-gt 大于(greater than)
-ge 大于等于(greater equal)
-ne 不等于(Not equal)

② 按照文件权限进行判断

符号 说明
-r 有读的权限(read)
-w 有写的权限(write)
-x 有执行的权限(execute)

③ 按照文件类型进行判断

符号 说明
-f 文件存在并且是一个常规的文件(file)
-e 文件存在(existence)
-d 文件存在并是一个目录(directory)

案例:

① 23是否大于等于22

[root@hadoop shell]# [ 23 -ge 22 ]
[root@hadoop shell]# echo $?
0

②​ helloworld.sh是否具有写权限

[root@hadoop shell]# [ -w helloworld.sh ]
[root@hadoop shell]# echo $?
0

/home/shell/cls.txt目录中的文件是否存在

[root@hadoop shell]# [ -e /home/shell/cls.txt ]
[root@hadoop shell]# echo $?
1

7、流程控制

7.1 if判断

基本语法:
if-fi

if [ 条件判断式 ];then
	程序
fi

if-elif-else-fi

if [ 条件判断式 ]
	then
		程序
elif[ 条件判断式 ]
	then
		程序
else
	程序
fi

注意事项:

  • [ 条件判断式 ],中括号和条件判断式之间必须有空格
  • if后要有空格

案例:
①单个if流程的使用

if [ $1 -ge 3 ];then
	echo "hello if"
fi

if-elif-else的使用

#!/bin/bash
if [ $1 -ge 3 ]
	then
		echo "hello if"
elif [ $1 -ge 2 ]
	then
		echo "hello if2"
else
	echo "hello if3"
fi

7.2 case语句

基本语法:

case $变量名 in
"值1")
	程序1
;;
"值2")
	程序2
;;
*)
	其他程序
;;
esac

注意事项:

  • case行尾必须为单词in,每一个模式匹配必须以右括号)结束
  • 双分号;;表示命令序列结束,相当于java中的break
  • 后的*)表示默认模式,相当于java中的default

案例:

#!/bin/bash
case $1 in
"1")
	echo "Hello A"
;;
"2") 
	echo "Hello B"
;;
*)
	echo "Hello C"
;;
esac

7.3 for循环

基本语法:

①第一种

for((初始值;循环控制条件;变量变化))
do
	程序
done

案例:

s=0
for((i=0;i<100;i++))
do
	s=$[ s+i ]
done
echo $s

②第二种

for 变量 in 值1 值2 值3...
do
	程序
done

案例:

for i in "$@"
do
	echo "I love this $i"
done

注意:$*$@的区别:

当不被双引号包围的时候,$*$@参数均会以$1$2$n的的形式输出。当被双引号包围的时候,$*参数会被当做一个整体输出

7.4 whilie 循环

基本语法:

while [ 条件判断式 ] 
do 
  程序
done

案例:

#!/bin/bash
i=5
while [ $i -gt 1 ]
do 
	i=$[ i =$i-1 ]
	echo $i
done

8、read读取控制台输入

基本语法:
read (选项) (参数)

选项:
-p:指定读取值时的提示符;
-t:指定读取值时等待的时间(秒)
参数:
变量:指定读取值的变量名

[root@hadoop shell]$ touch read.sh
[root@hadoop shell]$ vim read.sh
#!/bin/bash
read -t 7 -p "Enter your name in 7 seconds " NAME
echo $NAME

[root@hadoop shell]$ ./read.sh 
Enter your name in 7 seconds ming
ming

9、函数

9.1 系统函数

①basename

语法basename [string / pathname] [suffix]

功能描述basename命令会删掉所有的前缀包括最后一个(/)字符,然后将字符串显示出来

选项suffix为后缀,如果suffix被指定了,basename会将pathnamestring中的suffix去掉。

案例:

截取该/root/test.txt路径的文件名称

[root@hadoop shell]$ basename /root/test.txt 
test.txt
[root@hadoop shell]$ basename /root/test.txt .txt
test

②dirname

语法dirname 文件绝对路径

功能描述:从给定的包含绝对路径的文件名中去除文件名(非目录的部分),然后返回剩下的路径(目录的部分)

案例:
获取/root/test.txt文件的路径

[root@hadoop shell]$ dirname /root/test.txt 
/root

9.2 自定义函数

语法:

[ function ] funname[()]
{
     
	Action;
	[return int;]
}

说明:

  • 必须在调用函数地方之前,先声明函数,shell脚本是逐行运行。不会像其它语言一样先编译
  • 函数返回值,只能通过$?系统变量获得,可以显示加:return返回,如果不加,将以最后一条命令运行结果,作为返回值。return后跟数值n(0-255)

案例:

计算两个输入参数的和

[root@hadoop shell]$ touch fun.sh
[root@hadoop shell]$ vim fun.sh

#!/bin/bash
function sum()
{
     
   s=0
   s=$[ $1 + $2 ]
   echo "$s"
}

read -p "Please input the number1: " n1;
read -p "Please input the number2: " n2;
sum $n1 $n2;

[root@hadoop shell]$ chmod 777 fun.sh
[root@hadoop shell]$ ./fun.sh 
Please input the number1: 2
Please input the number2: 5
7

10、shell工具

10.1 cut

在文件中负责剪切数据用的。cut命令从文件的每一行剪切字节、字符和字段并将这些字节、字符和字段输出。

语法:cut [选项参数] filename

选项参数说明:

选项参数 功能
-f 列号,提取第几列
-d 分隔符,按照指定分隔符分割列
-c 指定具体的字符

案例:
①数据准备

[root@hadoop shell]$ touch cut.txt
[root@hadoop shell]$ vim cut.txt
dong,shen
guan,zhen
wo,wo
lai,,lai
le,,le

②切割cut.txt第一列

[root@hadoop100 ~]# cut -d , -f 1 cut.txt 
dong
guan
wo
lai
le

③切割cut.txt第二、三列

[root@hadoop100 ~]# cut -d , -f 2,3 cut.txt 
shen
zhen
wo
,lai
,le

④在cut.txt文件中切割出guan

[root@hadoop100 ~]# cat cut.txt | grep "guan" | cut -d , -f 1
guan

⑤选取系统PATH变量值,第2个“:”开始后的所有路径:

[root@hadoop100 ~]# echo $PATH | cut -d: -f 2-
/usr/local/bin:/usr/sbin:/usr/bin:/root/bin

⑥切割ifconfig后打印的IP地址

[root@hadoop100 ~]# ifconfig eth0
eth0: flags=4163<UP,BROADCAST,RUNNING,MULTICAST>  mtu 1500
        inet 192.168.182.100  netmask 255.255.255.0  broadcast 192.168.182.255
        ether 00:0c:29:30:c6:e8  txqueuelen 1000  (Ethernet)
        RX packets 5493  bytes 392357 (383.1 KiB)
        RX errors 0  dropped 0  overruns 0  frame 0
        TX packets 1556  bytes 158015 (154.3 KiB)
        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0
[root@hadoop100 ~]# ifconfig eth0 | grep "inet" | cut -d "i" -f 2 | cut -d " " -f 2
192.168.182.100

10.2 sed

sed是一种流编辑器,它一次处理一行内容。处理时,把当前处理的行存储在临时缓冲区中,称为“模式空间”,接着用sed命令处理缓冲区中的内容,处理完成后,把缓冲区的内容送往屏幕。接着处理下一行,这样不断重复,直到文件末尾。文件内容并没有改变,除非你使用重定向存储输出。

语法: sed [选项参数] ‘command’ filename

选项参数说明:

选项参数 功能
-e 直接在指令列模式上进行sed的动作编辑
-i 直接编辑文件

命令功能描述:

命令 功能描述
a 新增,a的后面可以接字串,在下一行出现
d 删除
s 查找并替换

案例:

①数据准备

[root@hadoop shell]$ vim sed.txt
dong,shen
guan,zhen
wo,wo
lai,lai
le,le

②将mei nv这个单词插入到sed.txt第二行下,打印(此时文件内容并未发生改变)

[root@hadoop100 ~]# sed '2a mei nv' sed.txt 
dong,shen
guan,zhen
mei nv
wo,wo
lai,lai
le,le

②删除sed.txt文件所有包含wo的行

[root@hadoop100 ~]# sed '/wo/d' sed.txt 
dong,shen
guan,zhen
lai,lai
le,le

③将sed.txt文件中wo替换为ni

[root@hadoop100 ~]# sed 's/wo/ni/g' sed.txt 
dong,shen
guan,zhen
ni,ni
lai,lai
le,le

④将sed.txt文件中的第二行删除并将wo替换为ni

[root@hadoop100 ~]# sed -e '2d' -e 's/wo/ni/g' sed.txt
dong,shen
ni,ni
lai,lai
le,le

10.3 awk

一个强大的文本分析工具,把文件逐行的读入,以空格为默认分隔符将每行切片,切开的部分再进行分析处理

语法:

awk [选项参数] ‘pattern1{action1} pattern2{action2}...’ filename
pattern:表示AWK在数据中查找的内容,就是匹配模式
action:在找到匹配内容时所执行的一系列命令

选项参数:

选项参数 功能
-F 指定输入文件折分隔符
-v 赋值一个用户定义变量

案例:

10.4 sort

将文件进行排序,并将排序结果标准输出

语法:sort(选项)(参数)

选项 说明
-n 依照数值的大小排序
-r 以相反的顺序来排序
-t 设置排序时所用的分隔字符
-k 指定需要排序的列

案例:

①数据准备:

[root@hadoop shell]$ touch sort.sh
[root@hadoop shell]$ vim sort.sh 
bb:40:5.4
bd:20:4.2
xz:50:2.3
cls:10:3.5
ss:30:1.6

②按照“:”分割后的第三列倒序排序

[root@hadoop shell]$ sort -t : -nrk 3  sort.sh 
bb:40:5.4
bd:20:4.2
cls:10:3.5
xz:50:2.3
ss:30:1.6

你可能感兴趣的:(大数据,Shell编程)