Shell
是一个命令行解释器,它接收应用程序/用户命令,然后调用操作系统内核。Shell
还是一个功能相当强大的编程语言,易编写、易调试、灵活性强。
① Linux提供的Shell解析器
[root@hadoop ~]# cat /etc/shells
/bin/sh
/bin/bash
/sbin/nologin
/usr/bin/sh
/usr/bin/bash
/usr/sbin/nologin
② sh和bash的关系
[root@hadoop bin]# ll | grep bash
-rwxr-xr-x 1 root root 960472 Dec 7 2016 bash
lrwxrwxrwx 1 root root 4 Aug 18 2017 sh -> bash
可以看出sh是bash的软连接
③ Centos默认的解析器是bash
[root@izwz923wscm1q3eumry71kz bin]# echo $SHELL
/bin/bash
1.脚本格式
脚本以#!/bin/bash开头(指定解析器)
2.第一个Shell脚本:helloworld
[root@hadoop shell]$ touch helloworld.sh
[root@hadoop shell]$ vi helloworld.sh
在helloworld.sh中输入如下内容
#!/bin/bash
echo "helloworld"
3.脚本的常用执行方式
①采用bash
或sh
+脚本的相对路径或绝对路径(不用赋予脚本+x权限)
sh+脚本的相对路径/绝对路径 或 bash+脚本的相对路径/绝对路径
[root@hadoop shell]$ bash helloworld.sh
Helloworld
[root@hadoop shell]$ sh helloworld.sh
Helloworld
②采用输入脚本的绝对路径或相对路径执行脚本(必须具有可执行权限+x
)
[root@hadoop shell]$ chmod 777 helloworld.sh
[root@hadoop shell]$ ./helloworld.sh
Helloworld
注意:第一种执行方法,本质是bash
解析器帮你执行脚本,所以脚本本身不需要执行权限。第二种执行方法,本质是脚本需要自己执行,所以需要执行权限。
4.多命令处理
需求:在/root
目录下创建一个note.txt
,在note.txt
文件中增加I love shell
[root@hadoop shell]$ touch batch.sh
[root@hadoop shell]$ vi batch.sh
#!/bin/bash
cd /root
touch cls.txt
echo "I love cls" >>cls.txt
常用系统变量:$HOME、$PWD、$SHELL、$USER
等
查看系统变量的值:
[root@hadoop shell]$ echo $HOME
显示当前Shell中所有变量:
[root@hadoop shell]$ set
基本语法:
① 定义变量:变量=值
② 撤销变量:unset
变量
③ 声明静态变量:readonly
变量,注意:不能unset
变量定义规则:
① 变量名称可以由字母、数字和下划线组成,但是不能以数字开头,环境变量名建议大写。
② 等号两侧不能有空格
③ 在bash
中,变量默认类型都是字符串类型,无法直接进行数值运算。
④ 变量的值如果有空格,需要使用双引号或单引号括起来。
①$n
基本用法:$n
(功能描述:n为数字,$0
代表该脚本名称,$1
-$9
代表第一到第九个参数,十以上的参数,十以上的参数需要用大括号包含,如${10})
[root@hadoop shell]# touch parameter.sh
[root@hadoop shell]# vim parameter.sh
#!/bin/bash
echo "$0 $1 $2"
[root@hadoop shell]# chmod 777 parameter.sh
[root@hadoop shell]# ./parameter.sh cls xz
./parameter.sh cls xz
②$#
基本用法:$#(功能描述:获取所有输入参数个数,常用于循环)。
[root@hadoop shell]# vim parameter.sh
#!/bin/bash
echo "$0 $1 $2"
echo $#
[root@hadoop shell]# chmod 777 parameter.sh
[root@hadoop shell]# ./parameter.sh cls xz
parameter.sh cls xz
2
③$*、$@
基本用法:
$*
(功能描述:这个变量代表命令行中所有的参数,$*
把所有的参数看成一个整体)
$@
(功能描述:这个变量也代表命令行中所有的参数,不过$@
把每个参数区分对待)
[root@hadoop shell]# vim parameter.sh
#!/bin/bash
echo "$0 $1 $2"
echo $#
echo $*
echo $@
[root@hadoop shell]# bash parameter.sh 1 2 3
1 2 3
3
1 2 3
1 2 3
④$?
基本用法:$?
(功能描述:最后一次执行的命令的返回状态。如果这个变量的值为0,证明上一个命令正确执行;如果这个变量的值为非0(具体是哪个数,由命令自己来决定),则证明上一个命令执行不正确了。)
[root@hadoop shell]# ./helloworld.sh
hello world
[root@hadoop shell]# echo $?
0
基本语法:
$((运算式))
或$[运算式]
expr
+
, -
, *
, /
, %
注意:expr运算符间要有空格
①计算3+2的值
[root@hadoop shell]# expr 2 + 3
5
②计算(2+3)X4的值
[root@hadoop shell]# S=$[(2+3)*4]
[root@hadoop shell]# echo $S
基本语法:[ condition ]
(注意condition前后要有空格),注意:条件非空即为true
,[] 返回false
。
常用判断条件:
① 两个整数之间比较
符号 | 说明 |
---|---|
= | 字符串比较 |
-lt | 小于(less than) |
-le | 小于等于(less equal) |
-eq | 等于(equal) |
-gt | 大于(greater than) |
-ge | 大于等于(greater equal) |
-ne | 不等于(Not equal) |
② 按照文件权限进行判断
符号 | 说明 |
---|---|
-r | 有读的权限(read) |
-w | 有写的权限(write) |
-x | 有执行的权限(execute) |
③ 按照文件类型进行判断
符号 | 说明 |
---|---|
-f | 文件存在并且是一个常规的文件(file) |
-e | 文件存在(existence) |
-d | 文件存在并是一个目录(directory) |
案例:
① 23是否大于等于22
[root@hadoop shell]# [ 23 -ge 22 ]
[root@hadoop shell]# echo $?
0
② helloworld.sh
是否具有写权限
[root@hadoop shell]# [ -w helloworld.sh ]
[root@hadoop shell]# echo $?
0
③/home/shell/cls.txt
目录中的文件是否存在
[root@hadoop shell]# [ -e /home/shell/cls.txt ]
[root@hadoop shell]# echo $?
1
基本语法:
①if-fi
if [ 条件判断式 ];then
程序
fi
②if-elif-else-fi
if [ 条件判断式 ]
then
程序
elif[ 条件判断式 ]
then
程序
else
程序
fi
注意事项:
[ 条件判断式 ]
,中括号和条件判断式之间必须有空格if
后要有空格案例:
①单个if
流程的使用
if [ $1 -ge 3 ];then
echo "hello if"
fi
②if-elif-else
的使用
#!/bin/bash
if [ $1 -ge 3 ]
then
echo "hello if"
elif [ $1 -ge 2 ]
then
echo "hello if2"
else
echo "hello if3"
fi
基本语法:
case $变量名 in
"值1")
程序1
;;
"值2")
程序2
;;
*)
其他程序
;;
esac
注意事项:
case
行尾必须为单词in
,每一个模式匹配必须以右括号)
结束;;
表示命令序列结束,相当于java
中的break
*)
表示默认模式,相当于java
中的default
案例:
#!/bin/bash
case $1 in
"1")
echo "Hello A"
;;
"2")
echo "Hello B"
;;
*)
echo "Hello C"
;;
esac
基本语法:
①第一种
for((初始值;循环控制条件;变量变化))
do
程序
done
案例:
s=0
for((i=0;i<100;i++))
do
s=$[ s+i ]
done
echo $s
②第二种
for 变量 in 值1 值2 值3...
do
程序
done
案例:
for i in "$@"
do
echo "I love this $i"
done
注意:$*
和$@
的区别:
当不被双引号包围的时候,$*
和$@
参数均会以$1
、$2
… $n
的的形式输出。当被双引号包围的时候,$*
参数会被当做一个整体输出
基本语法:
while [ 条件判断式 ]
do
程序
done
案例:
#!/bin/bash
i=5
while [ $i -gt 1 ]
do
i=$[ i =$i-1 ]
echo $i
done
基本语法:
read (选项) (参数)
选项:
-p
:指定读取值时的提示符;
-t
:指定读取值时等待的时间(秒)
参数:
变量:指定读取值的变量名
[root@hadoop shell]$ touch read.sh
[root@hadoop shell]$ vim read.sh
#!/bin/bash
read -t 7 -p "Enter your name in 7 seconds " NAME
echo $NAME
[root@hadoop shell]$ ./read.sh
Enter your name in 7 seconds ming
ming
①basename
语法:basename [string / pathname] [suffix]
功能描述:basename
命令会删掉所有的前缀包括最后一个(/
)字符,然后将字符串显示出来
选项:suffix
为后缀,如果suffix
被指定了,basename
会将pathname
或string
中的suffix
去掉。
案例:
截取该/root/test.txt
路径的文件名称
[root@hadoop shell]$ basename /root/test.txt
test.txt
[root@hadoop shell]$ basename /root/test.txt .txt
test
②dirname
语法:dirname 文件绝对路径
功能描述:从给定的包含绝对路径的文件名中去除文件名(非目录的部分),然后返回剩下的路径(目录的部分)
案例:
获取/root/test.txt
文件的路径
[root@hadoop shell]$ dirname /root/test.txt
/root
语法:
[ function ] funname[()]
{
Action;
[return int;]
}
说明:
shell
脚本是逐行运行。不会像其它语言一样先编译return
返回,如果不加,将以最后一条命令运行结果,作为返回值。return
后跟数值n(0-255)案例:
计算两个输入参数的和
[root@hadoop shell]$ touch fun.sh
[root@hadoop shell]$ vim fun.sh
#!/bin/bash
function sum()
{
s=0
s=$[ $1 + $2 ]
echo "$s"
}
read -p "Please input the number1: " n1;
read -p "Please input the number2: " n2;
sum $n1 $n2;
[root@hadoop shell]$ chmod 777 fun.sh
[root@hadoop shell]$ ./fun.sh
Please input the number1: 2
Please input the number2: 5
7
在文件中负责剪切数据用的。cut
命令从文件的每一行剪切字节、字符和字段并将这些字节、字符和字段输出。
语法:cut [选项参数] filename
选项参数说明:
选项参数 | 功能 |
---|---|
-f | 列号,提取第几列 |
-d | 分隔符,按照指定分隔符分割列 |
-c | 指定具体的字符 |
案例:
①数据准备
[root@hadoop shell]$ touch cut.txt
[root@hadoop shell]$ vim cut.txt
dong,shen
guan,zhen
wo,wo
lai,,lai
le,,le
②切割cut.txt
第一列
[root@hadoop100 ~]# cut -d , -f 1 cut.txt
dong
guan
wo
lai
le
③切割cut.txt
第二、三列
[root@hadoop100 ~]# cut -d , -f 2,3 cut.txt
shen
zhen
wo
,lai
,le
④在cut.txt
文件中切割出guan
[root@hadoop100 ~]# cat cut.txt | grep "guan" | cut -d , -f 1
guan
⑤选取系统PATH
变量值,第2个“:”开始后的所有路径:
[root@hadoop100 ~]# echo $PATH | cut -d: -f 2-
/usr/local/bin:/usr/sbin:/usr/bin:/root/bin
⑥切割ifconfig
后打印的IP
地址
[root@hadoop100 ~]# ifconfig eth0
eth0: flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1500
inet 192.168.182.100 netmask 255.255.255.0 broadcast 192.168.182.255
ether 00:0c:29:30:c6:e8 txqueuelen 1000 (Ethernet)
RX packets 5493 bytes 392357 (383.1 KiB)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 1556 bytes 158015 (154.3 KiB)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
[root@hadoop100 ~]# ifconfig eth0 | grep "inet" | cut -d "i" -f 2 | cut -d " " -f 2
192.168.182.100
sed
是一种流编辑器,它一次处理一行内容。处理时,把当前处理的行存储在临时缓冲区中,称为“模式空间”,接着用sed
命令处理缓冲区中的内容,处理完成后,把缓冲区的内容送往屏幕。接着处理下一行,这样不断重复,直到文件末尾。文件内容并没有改变,除非你使用重定向存储输出。
语法: sed [选项参数] ‘command’ filename
选项参数说明:
选项参数 | 功能 |
---|---|
-e | 直接在指令列模式上进行sed的动作编辑 |
-i | 直接编辑文件 |
命令功能描述:
命令 | 功能描述 |
---|---|
a | 新增,a的后面可以接字串,在下一行出现 |
d | 删除 |
s | 查找并替换 |
案例:
①数据准备
[root@hadoop shell]$ vim sed.txt
dong,shen
guan,zhen
wo,wo
lai,lai
le,le
②将mei nv
这个单词插入到sed.txt
第二行下,打印(此时文件内容并未发生改变)
[root@hadoop100 ~]# sed '2a mei nv' sed.txt
dong,shen
guan,zhen
mei nv
wo,wo
lai,lai
le,le
②删除sed.txt
文件所有包含wo
的行
[root@hadoop100 ~]# sed '/wo/d' sed.txt
dong,shen
guan,zhen
lai,lai
le,le
③将sed.txt
文件中wo
替换为ni
[root@hadoop100 ~]# sed 's/wo/ni/g' sed.txt
dong,shen
guan,zhen
ni,ni
lai,lai
le,le
④将sed.txt
文件中的第二行删除并将wo
替换为ni
[root@hadoop100 ~]# sed -e '2d' -e 's/wo/ni/g' sed.txt
dong,shen
ni,ni
lai,lai
le,le
一个强大的文本分析工具,把文件逐行的读入,以空格为默认分隔符将每行切片,切开的部分再进行分析处理
语法:
awk [选项参数] ‘pattern1{action1} pattern2{action2}...’ filename
pattern
:表示AWK
在数据中查找的内容,就是匹配模式
action
:在找到匹配内容时所执行的一系列命令
选项参数:
选项参数 | 功能 |
---|---|
-F | 指定输入文件折分隔符 |
-v | 赋值一个用户定义变量 |
案例:
将文件进行排序,并将排序结果标准输出
语法:sort(选项)(参数)
选项 | 说明 |
---|---|
-n | 依照数值的大小排序 |
-r | 以相反的顺序来排序 |
-t | 设置排序时所用的分隔字符 |
-k | 指定需要排序的列 |
案例:
①数据准备:
[root@hadoop shell]$ touch sort.sh
[root@hadoop shell]$ vim sort.sh
bb:40:5.4
bd:20:4.2
xz:50:2.3
cls:10:3.5
ss:30:1.6
②按照“:”分割后的第三列倒序排序
[root@hadoop shell]$ sort -t : -nrk 3 sort.sh
bb:40:5.4
bd:20:4.2
cls:10:3.5
xz:50:2.3
ss:30:1.6