1 了解Linux帮助类命令
2 熟悉开关机命令
3 熟练文件目录类命令
4 熟悉时间日期类命令
5 熟悉用户管理命令
6 熟悉组管理命令
7 熟练文件权限命令
8 熟悉搜索查找类命令
9 熟练压缩和解压缩命令
10 熟悉磁盘分区类命令
11 熟练进程线程类命令
12 了解系统定时任务命令
man获取帮助信息
信息 | 功能 |
---|---|
NAME | 命令的名称和单行描述 |
SYNOPSIS | 怎样使用命令 |
DESCRIPTION | 命令功能的深入讨论 |
EXAMPLES | 怎样使用命令的例子 |
SEE ALSO | 相关主题(通常是手册页) |
[root@hadoop101 ~]# man ls
help获得shell内置命令的帮助信息
[root@hadoop101 ~]# help cd
一般Linux不会经常进行关机操作,正确的关机流程为: sync>shutdown> reboot >poweroff
基本语法
选项
选项 | 功能 |
---|---|
-h | -h=halt关机 |
-r | -r=reboot重启 |
参数
参数 | 功能 |
---|---|
now | 立刻关机 |
时间 | 等待多久之后关机,单位为分钟 |
注意事项
Linux系统中为了提高磁盘读写效率,对磁盘采取了"预读迟写"操作方式,当用户保存文件时,Linux核心并不一定对保存的数据立刻写入物理磁盘,而是将数据保存在缓冲区中,等缓冲区写满时再写入磁盘,这种方式可以极大的提高磁盘写入数据的效率.同时也带来了安全隐患. 如果数据还未写入磁盘时,系统掉电或者出现其他严重的问题造成宕机,可能会造成数据的丢失.使用sync指令可以立即将缓冲区的数据写入磁盘
pwd(print working directory ) 打印当前工作目录的绝对路径
[root@hadoop101 ~]# pwd
/root
ls(list) 列出目录内容
基本语法
选项说明
选项 | 功能 |
---|---|
-a | 全部的文件,连同隐藏档( 开头为 . 的文件) 一起列出来(常用) |
-l | 长数据串列出,包含文件的属性与权限等等数据;(常用) |
显示说明
每行列出的信息依次是: 文件类型与权限 链接数 文件属主 文件属组 文件大小用byte来表示 建立或最近修改的时间 名字
实操案例
[atguigu@hadoop101 ~]$ ls -al
总用量 44
drwx------. 5 atguigu atguigu 4096 5月 27 15:15 .
drwxr-xr-x. 3 root root 4096 5月 27 14:03 ..
drwxrwxrwx. 2 root root 4096 5月 27 14:14 hello
-rwxrw-r--. 1 atguigu atguigu 34 5月 27 14:20 test.txt
cd(Change Directory)切换路径
参数 | 功能 |
---|---|
cd 绝对路径 | 切换路径 |
cd相对路径 | 切换路径 |
cd ~或者cd | 回到自己的家目录 |
cd - | 回到上一次所在目录 |
cd … | 回到当前目录的上一级目录 |
cd -P | 跳转到实际物理路径,而非快捷方式路径 |
cd / | 回到系统根目录 |
[root@hadoop101 ~]# cd /root/
[root@hadoop101 ~]# cd 公共的/
[root@hadoop101 公共的]# cd ~
[root@hadoop101 ~]# cd -
[root@hadoop101 公共的]# cd ..
mkdir(Make directory) 建立目录
选项 | 功能 |
---|---|
-p | 创建多层目录 |
[root@hadoop101 ~]# mkdir xiyou
[root@hadoop101 ~]# mkdir xiyou/mingjie
[root@hadoop101 ~]# mkdir -p xiyou/dssz/meihouwang
rmdir(Remove directory) 删除目录
[root@hadoop101 ~]# rmdir xiyou/dssz/meihouwang
touch 创建空文件
基本语法
实操案例
[root@hadoop101 ~]# touch xiyou/dssz/sunwukong.txt
注意事项
vim也可以创建文件,vim atguigu.txt 进入编辑模式,然后输入内容保存退出即可,但是如果不输出内容直接空文件下退出,则不会创建文件
cp 复制文件或目录
基本语法
选项说明
选项 | 功能 |
---|---|
-r | 递归复制整个文件夹 |
参数说明
参数 | 功能 |
---|---|
source | 源文件 |
dest | 目标文件 |
实操案例
[root@hadoop101 ~]# cp xiyou/dssz/suwukong.txt xiyou/mingjie/
[root@hadoop101 ~]# cp -r a/b/ ./
注意事项
强制覆盖不提示的方法:\cp
rm移除文件或者目录
选项 | 功能 |
---|---|
-r | 递归删除目录所有内容 |
-f | 强制删除,不提示用户进行确认 |
-v | 显示指令的详细执行过程 |
[root@hadoop101 ~]# rm xiyou/mingjie/sunwukong.txt
[root@hadoop101 ~]# rm -rf dssz/
mv移动文件与目录或重命名
mv oldNameFile newNameFile
mv /temp/movefile /targetFolder
[root@hadoop101 ~]# mv xiyou/dssz/suwukong.txt xiyou/dssz/houge.txt
[root@hadoop101 ~]# mv xiyou/dssz/houge.txt ./
cat查看文件内容
选项 | 功能描述 |
---|---|
- n | 显示所有行的行号,包括空行 |
一般查看比较小的文件,一屏幕能显示全的
[atguigu@hadoop101 ~]$ cat -n houge.txt
more 文件分屏查看器
more 要查看的文件
more指令是一个基于VI编辑器的文本过滤器,它以全屏幕的方式按页显示文本文件的内容。more指令中内置了若干快捷键,详见操作说明。
操作 | 功能说明 |
---|---|
空白键 (space) | 代表向下翻一页; |
Enter | 代表向下翻『一行』; |
q | 代表立刻离开 more ,不再显示该文件内容。 |
Ctrl+F | 向下滚动一屏 |
Ctrl+B | 返回上一屏 |
= | 输出当前行的行号 |
:f | 输出文件名和当前行的行号 |
[root@hadoop101 ~]# more smartd.conf
less 分屏显示文件内容
less指令用来分屏查看文件内容,它的功能与more指令类似,但是比more指令更加强大,支持各种显示终端。less指令在显示文件内容时,并不是一次将整个文件加载之后才显示,而是根据显示需要加载内容,对于显示大型文件具有较高的效率。
less 要查看的文件
操作 | 功能说明 |
---|---|
空白键 | 向下翻动一页; |
[pagedown] | 向下翻动一页 |
[pageup] | 向上翻动一页; |
/字串 | 向下搜寻『字串』的功能;n:向下查找;N:向上查找; |
?字串 | 向上搜寻『字串』的功能;n:向上查找;N:向下查找; |
q | 离开 less 这个程序; |
[root@hadoop101 ~]# less smartd.conf
head显示文件头部内容
head用于显示文件的开头部分内容,默认情况下head指令显示文件的前10行内容。
head 文件 (功能描述:查看文件头10行内容)
head -n 5 文件 (功能描述:查看文件头5行内容,5可以是任意行数)
选项 | 功能 |
---|---|
-n <行数> | 指定显示头部内容的行数 |
[root@hadoop101 ~]# head -n 2 smartd.conf
tail 输出文件尾部内容
tail用于输出文件中尾部的内容,默认情况下tail指令显示文件的后10行内容。
(1)tail 文件 (功能描述:查看文件后10行内容)
(2)tail -n 5 文件 (功能描述:查看文件后5行内容,5可以是任意行数)
(3)tail -f 文件 (功能描述:实时追踪该文档的所有更新)
选项 | 功能 |
---|---|
-n<行数> | 输出文件尾部n行内容 |
-f | 显示文件最新追加的内容,监视文件变化 |
[root@hadoop101 ~]# tail -n 1 smartd.conf
[root@hadoop101 ~]# tail -f houge.txt
echo 打印信息
echo输出内容到控制台 System.out.println();
echo [选项] [输出内容]
选项 | 功能 |
---|---|
-e | 支持反斜线控制的字符转换 |
控制字符 | 作用 |
---- | ----------- |
\\ | 输出\本身 |
\n | 换行符 |
\t | 制表符,也就是Tab键 |
[atguigu@hadoop101 ~]$ echo "hello\tworld"
hello\tworld
[atguigu@hadoop101 ~]$ echo -e "hello\tworld"
hello world
[atguigu@hadoop101 ~]$ echo $PATH
> 覆盖和>>追加
(1)ll >文件 (功能描述:列表的内容写入文件a.txt中(**覆盖写**))
(2)ll >>文件 (功能描述:列表的内容**追加**到文件aa.txt的末尾)
(3)cat 文件1 > 文件2 (功能描述:将文件1的内容覆盖到文件2)
(4)echo “内容” >> 文件
[root@hadoop101 ~]# ls -l>houge.txt
[root@hadoop101 ~]# ls -l>>houge.txt
[root@hadoop101 ~]# echo hello>>houge.txt
ln创建链接和软连接
链接表示目标资源的另外的访问方式,表示一种路径
软链接也称为符号链接,类似于windows里的快捷方式,有自己的数据块,主要存放了链接其他文件的路径。
ln [-s] [原文件或目录] [链接名] (功能描述:给原文件创建一个链接)
选项 | 功能 |
---|---|
-s | 创建的链接为 软连接 |
删除软链接: rm -rf 软链接名,而不是rm -rf 软链接名/
查询:通过ll就可以查看,列表属性第1位是l,尾部会有位置指向。
[root@hadoop101 ~]# mv houge.txt xiyou/dssz/
[root@hadoop101 ~]# ln -s xiyou/dssz/houge.txt houzi
[root@hadoop101 ~]# ll
lrwxrwxrwx. 1 root root 20 6月 17 12:56 houzi -> xiyou/dssz/houge.txt
[root@hadoop101 ~]# rm -rf houzi
[root@hadoop101 ~]# ln -s xiyou/dssz/ ./dssz
[root@hadoop101 ~]# cd -P dssz/
history查看历史命令
history (功能描述:查看已经执行过历史命令)
[root@hadoop101 test1]# history
less /root/.bash_history
date显示当前时间
(1)date (功能描述:显示当前时间)
(2)date +%Y (功能描述:显示当前年份)
(3)date +%m (功能描述:显示当前月份)
(4)date +%d (功能描述:显示当前是哪一天)
(5)date "+%Y-%m-%d %H:%M:%S" (功能描述:显示年月日时分秒)
[root@hadoop101 ~]# date
2017年 06月 19日 星期一 20:53:30 CST
[root@hadoop101 ~]# date +%Y%m%d
20170619
[root@hadoop101 ~]# date "+%Y-%m-%d %H:%M:%S"
2017-06-19 20:54:58
date显示非当前时间
(1)date -d '1 days ago' (功能描述:显示前一天时间)
(2)date -d '-1 days ago' (功能描述:显示明天时间)
[root@hadoop101 ~]# date -d '1 days ago'
2017年 06月 18日 星期日 21:07:22 CST
[root@hadoop101 ~]#date -d '-1 days ago'
2017年 06月 20日 星期日 21:07:22 CST
date设置系统时间
date -s 字符串时间
[root@hadoop101 ~]# date -s "2017-06-19 20:52:18"
cal查看日历
cal [选项] (功能描述:不加选项,显示本月日历)
选项 | 功能 |
---|---|
具体某一年 | 显示这一年的日历 |
[root@hadoop101 ~]# cal
[root@hadoop101 ~]# cal 2017
useradd添加新用户
useradd 用户名 (功能描述:添加新用户)
useradd -g 组名 用户名 (功能描述:添加新用户到某个组)
[root@hadoop101 ~]# useradd tangseng
[root@hadoop101 ~]#ll /home/
passwd设置用户密码
passwd 用户名 (功能描述:设置用户密码)
[root@hadoop101 ~]# passwd tangseng
id查看用户是否存在
id 用户名
[root@hadoop101 ~]#id tangseng
cat /etc/passwd 查看创建的所有用户
[root@hadoop101 ~]# cat /etc/passwd
su(switch user )切换用户
su 用户名称 (功能描述:切换用户,只能获得用户的执行权限,不能获得环境变量)
su - 用户名称 (功能描述:切换到用户并获得该用户的环境变量及执行权限)
[root@hadoop101 ~]#su tangseng
[root@hadoop101 ~]#echo $PATH
/usr/lib64/qt-3.3/bin:/usr/local/sbin:/usr/local/bin:/sbin:/bin:/usr/sbin:/usr/bin:/root/bin
[root@hadoop101 ~]#exit
[root@hadoop101 ~]#su - tangseng
[root@hadoop101 ~]#echo $PATH
/usr/lib64/qt-3.3/bin:/usr/local/bin:/bin:/usr/bin:/usr/local/sbin:/usr/sbin:/sbin:/home/tangseng/bin
[root@hadoop101 ~]#exit
userdel删除用户
(1)userdel 用户名 (功能描述:删除用户但保存用户主目录)
(2)userdel -r 用户名 (功能描述:用户和用户主目录,都删除)
选项 | 功能 |
---|---|
-r | 删除用户的同时,删除与用户相关的所有文件。 |
[root@hadoop101 ~]#userdel tangseng
[root@hadoop101 ~]#ll /home/
[root@hadoop101 ~]#useradd zhubajie
[root@hadoop101 ~]#ll /home/
[root@hadoop101 ~]#userdel -r zhubajie
[root@hadoop101 ~]#ll /home/
who 查看登录用户信息
(1)whoami (功能描述:显示自身用户名称)
(2)who am i (功能描述:显示登录用户的用户名)
[root@hadoop101 opt]# whoami
[root@hadoop101 opt]# who am i
sudo 设置普通用户具有root权限
sudo 命令
[root@hadoop101 ~]#useradd atguigu
[root@hadoop101 ~]#passwd atguigu
[root@hadoop101 ~]#vi /etc/sudoers
修改 /etc/sudoers 文件,找到下面一行(91行),在root下面添加一行,如下
\## Allow root to run any commands anywhere
root ALL=(ALL) ALL
atguigu ALL=(ALL) ALL
或者配置成采用sudo命令时,不需要输入密码
\## Allow root to run any commands anywhere
root ALL=(ALL) ALL
atguigu ALL=(ALL) NOPASSWD:ALL
修改完毕,现在可以用atguigu帐号登录,然后用命令 sudo ,即可获得root权限进行操作。
[atguigu@hadoop101 opt]$ sudo mkdir module
usermod修改用户
usermod -g 用户组 用户名
选项 | 功能 |
---|---|
-g | 修改用户的初始登录组,给定的组必须存在 |
[root@hadoop101 opt]#usermod -g root zhubajie
每个用户都有一个用户组,系统可以对一个用户组中的所有用户进行集中管理。不同Linux 系统对用户组的规定有所不同,如Linux下的用户属于与它同名的用户组,这个用户组在创建用户时同时创建。用户组的管理涉及用户组的添加、删除和修改。组的增加、删除和修改实际上就是对/etc/group文件的更新。
groupadd新增组
groupadd 组名
[root@hadoop101 opt]#groupadd xitianqujing
groupdel删除组
groupdel 组名
[root@hadoop101 opt]# groupdel xitianqujing
查看创建了那些组
[root@hadoop101 atguigu]# cat /etc/group
文件属性信息解读
文件类型和权限的表示
符号 | 对应文件类型 |
---|---|
- | 代表文件 |
d | d 代表目录 |
l | 链接文档(link file); |
rwx作用到目录和文件的不同含义
[ r ]代表可读(read): 可以读取,查看
[ w ]代表可写(write): 可以修改,但是不能删除该文件,对该文件所在的目录有写权限,才能删除.
[ x ]代表可执行(execute):可以被系统执行
[ r ]代表可读(read): 可以读取,ls查看目录内容
[ w ]代表可写(write): 可以修改,目录内创建+删除+重命名目录
[ x ]代表可执行(execute):可以进入该目录
实操案例
[root@hadoop101 ~]# ll
总用量 104
-rw-------. 1 root root 1248 1月 8 17:36 anaconda-ks.cfg
drwxr-xr-x. 2 root root 4096 1月 12 14:02 dssz
lrwxrwxrwx. 1 root root 20 1月 12 14:32 houzi -> xiyou/dssz/houge.tx
ls -l
** 如果查看到是文件:链接数指的是硬链接个数**
** 如果查看的是文件夹:链接数指的是子文件夹个数 **
chmod改变文件权限
基本语法
chmod [{ugoa}{+-=}{rwx}] 文件或目录
chmod [mode=421 ] [文件或目录]
经验技巧
u:所有者 g:所有组 o:其他人 a:所有人(u、g、o的总和)
r=4 w=2 x=1
rwx=4+2+1=7
实操案例
[root@hadoop101 ~]# cp xiyou/dssz/houge.txt ./
[root@hadoop101 ~]# chmod u+x houge.txt
[root@hadoop101 ~]# chmod g+x houge.txt
[root@hadoop101 ~]# chmod u-x,o+x houge.txt
[root@hadoop101 ~]# chmod 777 houge.txt
[root@hadoop101 ~]# chmod -R 777 xiyou/
chown 改变所有者
chown [选项] [最终用户] [文件或目录] (功能描述:改变文件或者目录的所有者)
选项 | 功能 |
---|---|
-R | 递归操作 |
[root@hadoop101 ~]# chown atguigu houge.txt
[root@hadoop101 ~]# ls -al
-rwxrwxrwx. 1 atguigu root 551 5月 23 13:02 houge.txt
[root@hadoop101 xiyou]# ll
drwxrwxrwx. 2 root root 4096 9月 3 21:20 xiyou
[root@hadoop101 xiyou]# chown -R atguigu:atguigu xiyou/
[root@hadoop101 xiyou]# ll
drwxrwxrwx. 2 atguigu atguigu 4096 9月 3 21:20 xiyou
chgrp改变所属组
chgrp [最终用户组] [文件或目录] (功能描述:改变文件或者目录的所属组)
[root@hadoop101 ~]# chgrp root houge.txt
[root@hadoop101 ~]# ls -al
-rwxrwxrwx. 1 atguigu root 551 5月 23 13:02 houge.txt
find 查找文件或者目录
find指令将从指定目录向下递归地遍历其各个子目录,将满足条件的文件显示在终端。
find [搜索范围] [选项]
选项 | 功能 |
---|---|
-name<查询方式> | 按照指定的文件名查找模式查找文件 |
-user<用户名> | 查找属于指定用户名所有文件 |
-size<文件大小> | 按照指定的文件大小查找文件。 |
[root@hadoop101 ~]# find xiyou/ -name “*.txt”
[root@hadoop101 ~]# find opt/ -user atguigu
[root@hadoop101 ~]find /home -size +204800
grep 过滤查找及“|”管道符
管道符,“|”,表示将前一个命令的处理结果输出传递给后面的命令处理
grep 选项 查找内容 源文件 select * from emp where ename like '%a%'
选项 | 功能 |
---|---|
-n | 显示匹配及行号 |
[root@hadoop101 ~]# ls | grep -n test
上传下载命令
上传:rz
下载:sz 文件名
gzip/gunzip 压缩
gzip 文件 (功能描述:压缩文件,只能将文件压缩为*.gz文件)
gunzip 文件.gz (功能描述:解压缩文件命令)
(1)只能压缩文件,不能压缩目录
(2)不保留原来的文件
[root@hadoop101 ~]# ls
houge.txt
[root@hadoop101 ~]# gzip houge.txt
[root@hadoop101 ~]# ls
houge.txt.gz
[root@hadoop101 ~]# gunzip houge.txt.gz
[root@hadoop101 ~]# ls
houge.txt
zip/unzip压缩
zip [选项] XXX.zip 将要压缩的内容 (功能描述:压缩文件和目录的命令)
unzip [选项] XXX.zip (功能描述:解压缩文件)
zip选项 | 功能 |
---|---|
-r | 压缩目录 |
unzip选项 | 功能 |
------- | ------------ |
-d<目录> | 指定解压后文件的存放目录 |
zip 压缩命令在window/linux都通用,**可以压缩目录且保留源文件**。
[root@hadoop101 opt]# touch bailongma.txt
[root@hadoop101 ~]# zip houma.zip houge.txt bailongma.txt
adding: houge.txt (stored 0%)
adding: bailongma.txt (stored 0%)
[root@hadoop101 opt]# ls
houge.txt bailongma.txt houma.zip
[root@hadoop101 ~]# unzip houma.zip
Archive: houma.zip
extracting: houge.txt
extracting: bailongma.txt
[root@hadoop101 ~]# ls
houge.txt bailongma.txt houma.zip
[root@hadoop101 ~]# unzip houma.zip -d /opt
[root@hadoop101 ~]# ls /opt/
tar打包
tar [选项] XXX.tar.gz 将要打包进去的内容 (功能描述:打包目录,压缩后的文件格式.tar.gz)
选项 | 功能 |
---|---|
-z | 打包同时压缩 |
-c | 产生.tar打包文件 |
-v | 显示详细信息 |
-f | 指定压缩后的文件名 |
-x | 解包.tar文件 |
[root@hadoop101 opt]# tar -zcvf houma.tar.gz houge.txt bailongma.txt
houge.txt
bailongma.txt
[root@hadoop101 opt]# ls
houma.tar.gz houge.txt bailongma.txt
[root@hadoop101 ~]# tar -zcvf xiyou.tar.gz xiyou/
xiyou/
xiyou/mingjie/
xiyou/dssz/
xiyou/dssz/houge.txt
[root@hadoop101 ~]# tar -zxvf houma.tar.gz
[root@hadoop101 ~]# tar -zxvf xiyou.tar.gz -C /opt
[root@hadoop101 ~]# ll /opt/
df (disk free 空余硬盘)查看磁盘空间使用情况
df 选项 (功能描述:列出文件系统的整体磁盘使用量,检查文件系统的磁盘空间占用情况)
选项 | 说明 |
---|---|
-h | 以人们较易阅读的 GBytes, MBytes, KBytes 等格式自行显示; |
[root@hadoop101 ~]# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/sda2 15G 3.5G 11G 26% /
tmpfs 939M 224K 939M 1% /dev/shm
fdisk 查看分区
fdisk -l (功能描述:查看磁盘分区详情)
选项 | 功能 |
---|---|
-l | 显示所有硬盘的分区列表 |
Device:分区序列
Boot:引导
Start:从X磁柱开始
End:到Y磁柱结束
Blocks:容量
Id:分区类型ID
System:分区类型
[root@hadoop101 /]# fdisk -l
Disk /dev/sda: 21.5 GB, 21474836480 bytes
255 heads, 63 sectors/track, 2610 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x0005e654
Device Boot Start End Blocks Id System
/dev/sda1 * 1 26 204800 83 Linux
Partition 1 does not end on cylinder boundary.
/dev/sda2 26 1332 10485760 83 Linux
/dev/sda3 1332 1593 2097152 82 Linux swap / Solaris
mount/umount 挂载/卸载
什么是挂载卸载
对于Linux用户来讲,不论有几个分区,分别分给哪一个目录使用,它总归就是一个根目录、一个独立且唯一的文件结构。
Linux中每个分区都是用来组成整个文件系统的一部分,它在用一种叫做“挂载”的处理方法,它整个文件系统中包含了一整套的文件和目录,并将一个分区和一个目录联系起来,要载入的那个分区将使它的存储空间在这个目录下获得。
基本语法
mount [-t vfstype] [-o options] device dir (功能描述:挂载设备)
umount 设备文件名或挂载点 (功能描述:卸载设备)
参数说明
参数 | 功能 |
---|---|
-t vfstype | 指定文件系统的类型,通常不必指定。mount 会自动选择正确的类型。常用类型有: 1)光盘或光盘镜像:iso9660 2)DOS fat16文件系统:msdos 3) Windows 9x fat32文件系统:vfat 4) Windows NT ntfs文件系统:ntfs 5)Mount Windows文件网络共享:smbfs 6) UNIX (LINUX) 文件网络共享:nfs |
-o options | 主要用来描述设备或档案的挂接方式。常用的参数有: loop:用来把一个文件当成硬盘分区挂接上系统 ro:采用只读方式挂接设备 rw:采用读写方式挂接设备 iocharset:指定访问文件系统所用字符集 |
device | 要挂接(mount)的设备 |
dir | 设备在系统上的挂接点(mount point) |
实操案例
[root@hadoop101 ~]# mkdir /mnt/cdrom/ (建立挂载点)
[root@hadoop101 ~]# mount -t iso9660 /dev/cdrom /mnt/cdrom/ (设备/dev/cdrom挂载到/mnt/cdrom中)
[root@hadoop101 ~]# ll /mnt/cdrom/
[root@hadoop101 ~]# umount /mnt/cdrom
[root@hadoop101 ~]# vi /etc/fstab
添加红框中内容,保存退出
进程是正在执行的一个程序或命令,每一个进程都是一个运行的实体,都有自己的地址空间,并占用一定的系统资源。
ps (process status 进程状态)查看当前系统进程状态
ps -aux | grep xxx (功能描述:查看系统中所有进程)
ps -ef | grep xxx (功能描述:可以查看子父进程之间的关系)
选项 | 功能 |
---|---|
-a | 选择所有进程 |
-u | 显示所有用户的所有进程 |
-x | 显示没有终端的进程 |
USER:该进程是由哪个用户产生的
PID:进程的ID号
%CPU:该进程占用CPU资源的百分比,占用越高,进程越耗费资源;
%MEM:该进程占用物理内存的百分比,占用越高,进程越耗费资源;
VSZ:该进程占用虚拟内存的大小,单位KB;
RSS:该进程占用实际物理内存的大小,单位KB;
TTY:该进程是在哪个终端中运行的。其中tty1-tty7代表本地控制台终端,tty1-tty6是本地的字符界面终端, tty7是图形终端。pts/0-255代表虚拟终端。
STAT:进程状态。常见的状态有:R:运行、S:睡眠、T:停止状态、s:包含子进程、+:位于后台
START:该进程的启动时间
TIME:该进程占用CPU的运算时间,注意不是系统时间
COMMAND:产生此进程的命令名
UID:用户ID
PID:进程ID
PPID:父进程ID
C:CPU用于计算执行优先级的因子。数值越大,表明进程是CPU密集型运算,执行优先级会降低;数值越小,表明进程是I/O密集型运算,执行优先级会提高
STIME:进程启动的时间
TTY:完整的终端名称
TIME:CPU时间
CMD:启动进程所用的命令和参数
如果想查看进程的**CPU**占用率和内存占用率,可以使用aux;
如果想查看**进程的父进程ID**可以使用ef;
[root@hadoop101 datas]# ps -aux
[root@hadoop101 datas]# ps -ef
kill终止进程
kill [选项] 进程号 (功能描述:通过进程号杀死进程)
killall 进程名称 (功能描述:通过进程名称杀死进程,也支持通配符)
选项 | 功能 |
---|---|
-9 | 表示强迫进程立即停止 |
[root@hadoop101 桌面]# kill -9 5102
[root@hadoop101 桌面]# killall firefox
crond服务管理
[root@hadoop101 ~]# systemctl restart crond
crontab 定时任务设置
crontab [选项]
选项 | 功能 |
---|---|
-e | 编辑crontab定时任务 |
-l | 查询crontab任务 |
-f | 删除当前用户所有的crontab任务 |
[root@hadoop101 ~]# crontab -e
项目 | 选项 | 范围 |
---|---|---|
第一个“ *” | 一小时当中的第几分钟 | 0-59 |
第二个“ *” | 一天当中的第几小时 | 0-23 |
第三个“ *” | 一个月当中的第几天 | 1-31 |
第四个“ *” | 一年当中的第几月 | 1-12 |
第五个“ *” | 一周当中的星期几 | 0-7(0和7都代表星期日) |
特殊符号 | 含义 |
---|---|
* | 代表任何时间。比如第一个“ *”就代表一小时中每分钟都执行一次的意思。 |
, | 代表不连续的时间。比如“0 8,12,16 * * * 命令”,就代表在每天的8点0分,12点0分,16点0分都执行一次命令 |
- | 代表连续的时间范围。比如“0 5 * * 1-6命令”,代表在周一到周六的凌晨5点0分执行命令 |
*/n | 代表每隔多久执行一次。比如“ */10 命令”,代表每隔10分钟就执行一遍命令 |
时间 | 含义 |
---|---|
45 22 * * * 命令 | 在22点45分执行命令 |
0 17 * * 1 命令 | 每周1 的17点0分执行命令 |
0 5 1,15 * * 命令 | 每月1号和15号的凌晨5点0分执行命令 |
40 4 * * 1-5 命令 | 每周一到周五的凌晨4点40分执行命令 |
*/10 4 * * * 命令 | 每天的凌晨4点,每隔10分钟执行一次命令 |
0 0 1,15 * 1 命令(错误案例) | 每月1号和15号,每周1的0点0分都会执行命令。 |
注意:星期几和几号最好不要同时出现,因为他们定义的都是天。非常容易让管理员混乱。
*/1 * * * * /bin/echo ”11” >> /root/bailongma.txt