1、 useradd 添加新用户
(1)基本语法
useradd 用户名 (功能描述:添加新用户)
useradd -g 组名 用户名 (功能描述:添加新用户到某个组)
(2)案例实操
(1)添加一个用户
[root@hadoop101 ~]# useradd tangseng
[root@hadoop101 ~]#ll /home/
2、 passwd 设置用户密码
(1)基本语法
passwd 用户名 (功能描述:设置用户密码)
(2)案例实操
(1)设置用户的密码
[root@hadoop101 ~]# passwd tangseng
3、id 查看用户是否存在
(1)基本语法
id 用户名
(2)案例实操
(1)查看用户是否存在
[root@hadoop101 ~]#id tangseng
4、cat /etc/passwd 查看创建了哪些用户
(1)案例实操
[root@hadoop101 ~]# cat /etc/passwd
5、su 切换用户
(1)基本语法
su 用户名称 (功能描述:切换用户,只能获得用户的执行权限,不能获得环境变量)
su - 用户名称 (功能描述:切换到用户并获得该用户的环境变量及执行权限)
(2)案例实操
(1)切换用户
[root@hadoop101 ~]#su tangseng
[root@hadoop101 ~]#echo $PATH
/usr/lib64/qt-3.3/bin:/usr/local/sbin:/usr/local/bin:/sbin:/bin:/usr/sbin:/usr/bin:/root/bin
[root@hadoop101 ~]#exit
[root@hadoop101 ~]#su - tangseng
[root@hadoop101 ~]#echo $PATH
/usr/lib64/qt-3.3/bin:/usr/local/bin:/bin:/usr/bin:/usr/local/sbin:/usr/sbin:/sbin:/home/tangseng/bin
6、who 查看登录用户信息
(1)基本语法
(1)whoami (功能描述:显示自身用户名称)
(2)who am i (功能描述:显示登录用户的用户名以及登陆时间)
(2)案例实操
(1)显示自身用户名称
[root@hadoop101 opt]# whoami
(2)显示登录用户的用户名
[root@hadoop101 opt]# who am i
1、sudo 设置普通用户具有root权限
(1)添加itwwy用户,并对其设置密码。
[root@hadoop101 ~]#useradd itwwy
[root@hadoop101 ~]#passwd itwwy
(2)修改配置文件
[root@hadoop101 ~]#vi /etc/sudoers
修改 /etc/sudoers 文件,找到下面一行(91行),在root下面添加一行,如下所示:
Allow root to run any commands anywhere
root ALL=(ALL) ALL
itwwy ALL=(ALL) ALL
或者配置成采用sudo命令时,不需要输入密码
Allow root to run any commands anywhere
root ALL=(ALL) ALL
itwwy ALL=(ALL) NOPASSWD:ALL
修改完毕,现在可以用itwwy帐号登录,然后用命令 sudo ,即可获得root权限进行操作。
(3)案例实操
(1)用普通用户在/opt目录下创建一个文件夹
[itwwy@hadoop101 opt]$ sudo mkdir module
[root@hadoop101 opt]# chown itwwy:itwwy module/
2、userdel 删除用户
(1)基本语法
(1)userdel 用户名 (功能描述:删除用户但保存用户主目录)
(2)userdel -r 用户名 (功能描述:用户和用户主目录,都删除)
(3)案例实操
(1)删除用户但保存用户主目录
[root@hadoop101 ~]#userdel tangseng
[root@hadoop101 ~]#ll /home/
(2)删除用户和用户主目录,都删除
[root@hadoop101 ~]#useradd zhubajie
[root@hadoop101 ~]#ll /home/
[root@hadoop101 ~]#userdel -r zhubajie
[root@hadoop101 ~]#ll /home/
1、usermod 修改用户
(1)基本语法
usermod -g 用户组 用户名
(3)案例实操
(1)将用户加入到用户组
[root@hadoop101 opt]# usermod -g root zhubajie
1、groupadd 新增组
(1)基本语法
groupadd 组名
(2)案例实操
(1)添加一个xitianqujing组
[root@hadoop101 opt]#groupadd xitianqujing
2、groupdel 删除组
(1)基本语法
groupdel 组名
(2)案例实操
(1)删除xitianqujing组
[root@hadoop101 opt]# groupdel xitianqujing
3、groupmod 修改组
(1)基本语法
groupmod -n 新组名 老组名
(3)案例实操
(1)修改itwwy组名称为itwwy1
[root@hadoop101 ~]#groupadd xitianqujing
[root@hadoop101 ~]# groupmod -n xitian xitianqujing
4、cat /etc/group 查看创建了哪些组
(1)基本操作
[root@hadoop101 itwwy]# cat /etc/group
如果没有权限,就会出现减号[ - ]而已。从左至右用0-9这些数字来表示:
(1)0首位表示类型
在Linux中第一个字符代表这个文件是目录、文件或链接文件等等
(2)第1-3位确定属主(该文件的所有者)拥有该文件的权限。—User
(3)第4-6位确定属组(所有者的同组用户)拥有该文件的权限,—Group
(4)第7-9位确定其他用户拥有该文件的权限 —Other
(2)rxw作用文件和目录的不同解释
(1)作用到文件:
[ r ]代表可读(read): 可以读取,查看
[ w ]代表可写(write): 可以修改,但是不代表可以删除该文件,删除一个文件的前提条件是对该文件所在的目录有写权限,才能删除该文件.
[ x ]代表可执行(execute):可以被系统执行
(2)作用到目录:
[ r ]代表可读(read): 可以读取,ls查看目录内容
[ w ]代表可写(write): 可以修改,目录内创建+删除+重命名目录
[ x ]代表可执行(execute):可以进入该目录
(3)案例实操
[root@hadoop101 ~]# ll
总用量 104
-rw-------. 1 root root 1248 1月 8 17:36 anaconda-ks.cfg
drwxr-xr-x. 2 root root 4096 1月 12 14:02 dssz
lrwxrwxrwx. 1 root root 20 1月 12 14:32 houzi -> xiyou/dssz/houge.tx
文件基本属性介绍
(1)如果查看到是文件:链接数指的是硬链接个数。
(2)如果查看的是文件夹:链接数指的是子文件夹个数。
1、chmod 改变权限
(1)基本语法
第一种方式变更权限
chmod [{ugoa}{±=}{rwx}] 文件或目录
第二种方式变更权限
chmod [mode=421 ] [文件或目录]
(2)经验技巧
u:所有者 g:所有组 o:其他人 a:所有人(u、g、o的总和)
r=4 w=2 x=1 rwx=4+2+1=7
(3)案例实操
(1)修改文件使其所属主用户具有执行权限
[root@hadoop101 ~]# cp xiyou/dssz/houge.txt ./
[root@hadoop101 ~]# chmod u+x houge.txt
(2)修改文件使其所属组用户具有执行权限
[root@hadoop101 ~]# chmod g+x houge.txt
(3)修改文件所属主用户执行权限,并使其他用户具有执行权限
[root@hadoop101 ~]# chmod u-x,o+x houge.txt
(4)采用数字的方式,设置文件所有者、所属组、其他用户都具有可读可写可执行权限。
[root@hadoop101 ~]# chmod 777 houge.txt
(5)修改整个文件夹里面的所有文件的所有者、所属组、其他用户都具有可读可写可执行权限。
[root@hadoop101 ~]# chmod -R 777 xiyou/
2、chown 改变所有者
(1)基本语法
chown [选项] [最终用户] [文件或目录] (功能描述:改变文件或者目录的所有者)
(3)案例实操
(1)修改文件所有者
[root@hadoop101 ~]# chown itwwy houge.txt
[root@hadoop101 ~]# ls -al
-rwxrwxrwx. 1 itwwy root 551 5月 23 13:02 houge.txt
(2)递归改变文件所有者和所有组
[root@hadoop101 xiyou]# ll
drwxrwxrwx. 2 root root 4096 9月 3 21:20 xiyou
[root@hadoop101 xiyou]# chown -R itwwy:itwwy xiyou/
[root@hadoop101 xiyou]# ll
drwxrwxrwx. 2 itwwy itwwy 4096 9月 3 21:20 xiyou
3、chgrp 改变所属组
(1)基本语法
chgrp [最终用户组] [文件或目录] (功能描述:改变文件或者目录的所属组)
(2)案例实操
(1)修改文件的所属组
[root@hadoop101 ~]# chgrp root houge.txt
[root@hadoop101 ~]# ls -al
-rwxrwxrwx. 1 itwwy root 551 5月 23 13:02 houge.txt
小知识:whereis或者which可以查找命令在哪
1、find 查找文件或者目录
(1)基本语法
find [搜索范围] [选项]
(3)案例实操
(1)按文件名:根据名称查找/目录下的filename.txt文件。
[root@hadoop101 ~]# find xiyou/ -name “*.txt”
(2)按拥有者:查找/opt目录下,用户名称为-user的文件
[root@hadoop101 ~]# find xiyou/ -user itwwy
(3)按文件大小:在/home目录下查找大于200m的文件(+n 大于 -n小于 n等于)
[root@hadoop101 ~]find /home -size +204800
2、locate快速定位文件路径
(1)基本语法
locate 搜索文件
(2)经验技巧
由于locate指令基于数据库进行查询,所以第一次运行前,必须使用updatedb指令创建locate数据库。
(3)案例实操
(1)查询文件夹
[root@hadoop101 ~]# updatedb
[root@hadoop101 ~]# locate tmp
小知识:wc用于单词词频率的统计(word count)
1、grep 过滤查找及“|”管道符
(1)基本语法
grep 选项 查找内容 源文件
(3)案例实操
(1)查找某文件在第几行
[root@hadoop101 ~]# ls | grep -n test
1、gzip/gunzip 压缩
(1)基本语法
gzip 文件 (功能描述:压缩文件,只能将文件压缩为*.gz文件)
gunzip 文件.gz (功能描述:解压缩文件命令)
(2)经验技巧
(1)只能压缩文件不能压缩目录
(2)不保留原来的文件
(3)同时多个文件会产生多个压缩包
(3)案例实操
(1)gzip压缩
[root@hadoop101 ~]# ls
test.java
[root@hadoop101 ~]# gzip houge.txt
[root@hadoop101 ~]# ls
houge.txt.gz
(2)gunzip解压缩文件
[root@hadoop101 ~]# gunzip houge.txt.gz
[root@hadoop101 ~]# ls
houge.txt
2、zip/unzip 压缩
(1)基本语法
zip [选项] XXX.zip 将要压缩的内容 (功能描述:压缩文件和目录的命令)
unzip [选项] XXX.zip (功能描述:解压缩文件)
(3)经验技巧
zip 压缩命令在window/linux都通用,可以压缩目录且保留源文件。
(4)案例实操
(1)压缩 houge.txt 和bailongma.txt,压缩后的名称为mypackage.zip
[root@hadoop101 opt]# touch bailongma.txt
[root@hadoop101 ~]# zip mypackage.zip houge.txt bailongma.txt
adding: houge.txt (stored 0%)
adding: bailongma.txt (stored 0%)
[root@hadoop101 opt]# ls
houge.txt bailongma.txt mypackage.zip
(2)解压 mypackage.zip
[root@hadoop101 ~]# unzip mypackage.zip
Archive: houma.zip
extracting: houge.txt
extracting: bailongma.txt
[root@hadoop101 ~]# ls
houge.txt bailongma.txt mypackage.zip
(3)解压mypackage.zip到指定目录-d
[root@hadoop101 ~]# unzip mypackage.zip -d /opt
[root@hadoop101 ~]# ls /opt/
3、tar 打包
(1)基本语法
tar [选项] XXX.tar.gz 将要打包进去的内容 (功能描述:打包目录,压缩后的文件格式.tar.gz)
(3)案例实操
(1)压缩多个文件
[root@hadoop101 opt]# tar -zcvf houma.tar.gz houge.txt bailongma.txt
houge.txt
bailongma.txt
[root@hadoop101 opt]# ls
houma.tar.gz houge.txt bailongma.txt
(2)压缩目录
[root@hadoop101 ~]# tar -zcvf xiyou.tar.gz xiyou/
xiyou/
xiyou/mingjie/
xiyou/dssz/
xiyou/dssz/houge.txt
(3)解压到当前目录
[root@hadoop101 ~]# tar -zxvf houma.tar.gz
(4)解压到指定目录
[root@hadoop101 ~]# tar -zxvf xiyou.tar.gz -C /opt
[root@hadoop101 ~]# ll /opt/
1、du查看文件和目录占用的磁盘空间
(1)基本语法
du目录/文件 (功能描述:显示目录下每个子目录的磁盘你使用情况)
(3)案例实操
1、查看当前用户主目录占用的磁盘空间的大小
[root@hadoop101 ~]# du -sh
166M
小知识:free -h查看当前内存使用情况
1、df 查看磁盘空间使用情况
(1)基本语法
df 选项 (功能描述:列出文件系统的整体磁盘使用量,检查文件系统的磁盘空间占用情况)
(3)案例实操
(1)查看磁盘使用情况
[root@hadoop101 ~]# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/sda2 15G 3.5G 11G 26% /
tmpfs 939M 224K 939M 1% /dev/shm
/dev/sda1 190M 39M 142M 22% /boot
小知识1:对于下图中的sd来说,如果使用的是IDE硬盘给的名称就是hd,后边第一块硬盘就是hda,第二块就是hdb;
如果是SATA和SCSI,命名就是以sd,后边第一块硬盘就是sda,第二块就是sdb。sdb2意思就是第二块硬盘的第二块分区;
如果是vda,是用了虚拟化的模拟设备
小知识2:下图的UUID是系统为当前每一个分区创建的唯一标志符
1、lsblk 查看设备挂载情况
(1)基本语法
lsblk (功能描述:查看设备挂载情况)
1、mount/unmount 挂载/卸载
(1)挂载前准备
右键虚拟机,设置,找到CD/DVD,打开已连接,会在桌面上出现光盘图标
1、fdisk 查看分区
(1)基本语法
fdisk -l (功能描述:查看磁盘分区详情)
(2)选项说明
(3)经验技巧
该命令必须在root用户下才能使用
(4)功能说明
(1)Linux分区
Device:分区序列
Boot:引导
Start:从X磁柱开始
End:到Y磁柱结束
Blocks:容量
Id:分区类型ID
System:分区类型
(5)案例实操
(1)查看系统分区情况
[root@hadoop101 /]# fdisk -l
Disk /dev/sda: 21.5 GB, 21474836480 bytes
255 heads, 63 sectors/track, 2610 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x0005e654
Device Boot Start End Blocks Id System
/dev/sda1 * 1 26 204800 83 Linux
Partition 1 does not end on cylinder boundary.
/dev/sda2 26 1332 10485760 83 Linux
/dev/sda3 1332 1593 2097152 82 Linux swap / Solaris
2、创建新硬盘并且使用
(1)右键虚拟机设置,创建新的硬盘
(2)重启
(3)进行分区
小知识:对于Linux的磁盘只能分四个主分区(1-4),要更多分区,可以将主分区变成扩展分区划分成逻辑分区(5-16)
保存
(4)格式化
挂载完毕
(6)可以用cp进行文件复制到用户里,保存到磁盘中
(7)如果要卸载,用umount,硬盘可以识别但是已经被卸载了,对应的文件也访问不到
挂载点没了
1、ps 查看当前系统进程状态
(1)基本语法
ps aux | grep xxx (功能描述:查看系统中所有进程)
ps -ef | grep xxx (功能描述:可以查看子父进程之间的关系)
(3)功能说明
(1)ps aux显示信息说明
USER:该进程是由哪个用户产生的
PID:进程的ID号
%CPU:该进程占用CPU资源的百分比,占用越高,进程越耗费资源;
%MEM:该进程占用物理内存的百分比,占用越高,进程越耗费资源;
VSZ:该进程占用虚拟内存的大小,单位KB;
RSS:该进程占用实际物理内存的大小,单位KB;
TTY:该进程是在哪个终端中运行的。其中tty1-tty7代表本地控制台终端,tty1-tty6是本地的字符界面终端,tty7是图形终端。pts/0-255代表虚拟终端。
STAT:进程状态。常见的状态有:R:运行、S:睡眠、T:停止状态、s:包含子进程、+:前台显示、Z:僵尸状态、l:多线程
START:该进程的启动时间
TIME:该进程占用CPU的运算时间,注意不是系统时间
COMMAND:产生此进程的命令名
(2)ps -ef显示信息说明
UID:用户ID
PID:进程ID
PPID:父进程ID
C:CPU用于计算执行优先级的因子。数值越大,表明进程是CPU密集型运算,执行优先级会降低;数值越小,表明进程是I/O密集型运算,执行优先级会提高
STIME:进程启动的时间
TTY:完整的终端名称
TIME:CPU时间
CMD:启动进程所用的命令和参数
(4)经验技巧
如果想查看进程的CPU占用率和内存占用率,可以使用aux;
如果想查看进程的父进程ID可以使用-ef;
(5)案例实操
[root@hadoop101 datas]# ps aux
[root@hadoop101 datas]# ps -ef
如果出现了[priv],也会有相同名称的@pts出现,是为了做操作时权限分离,使用[priv]前的名称的权限时就会用[priv]那个进程
1、kill 终止进程
(1)基本语法
kill [选项] 进程号 (功能描述:通过进程号杀死进程)
killall 进程名称 (功能描述:通过进程名称杀死进程,也支持通配符,这在系统因负载过大而变得很慢时很有用)
(3)案例实操
(1)杀死浏览器进程
[root@hadoop101 桌面]# kill -9 5102
(2)通过进程名称杀死进程
[root@hadoop101 桌面]# killall firefox
如果杀了sshd的进程,需要使用systemctl start sshd,重新打开
1、pstree 查看进程树
(1)基本语法
pstree [选项]
(3)案例实操
(1)显示进程pid
[root@hadoop101 datas]# pstree -p
(2)显示进程所属用户
[root@hadoop101 datas]# pstree -u
1、top 查看系统健康状态
(1)基本命令
top [选项]
(2)选项说明
(4)查询结果字段解释
第一行信息为任务队列信息
第二行为进程信息
第三行为CPU信息
第四行为物理内存信息
第五行为交换分区(swap)信息
(5)案例实操
[root@hadoop101 itwwy]# top -d 1
[root@hadoop101 itwwy]# top -i
[root@hadoop101 itwwy]# top -p 2575
执行上述命令后,可以按P、M、N对查询出的进程结果进行排序。
1、netstat 显示网络统计信息和端口占用情况
(1)基本语法
netstat -anp | grep 进程号 (功能描述:查看该进程网络信息)
netstat –nlp | grep 端口号 (功能描述:查看网络端口号占用情况)
(3)案例实操
(1)通过进程号查看该进程的网络信息
[root@hadoop101 hadoop-2.7.2]# netstat -anp | grep sshd
tcp 0 0 0.0.0.0:22 0.0.0.0:* LISTEN 951/sshd
tcp 0 0 192.168.202.100:22 192.168.202.1:57741 ESTABLISHED 3380/sshd: root@pts
tcp 0 52 192.168.202.100:22 192.168.202.1:57783 ESTABLISHED 3568/sshd: root@pts
tcp 0 0 192.168.202.100:22 192.168.202.1:57679 ESTABLISHED 3142/sshd: root@pts
tcp6 0 0 :::22 :: LISTEN 951/sshd
unix 2 [ ] DGRAM 39574 3568/sshd: root@pts
unix 2 [ ] DGRAM 37452 3142/sshd: root@pts
unix 2 [ ] DGRAM 48651 3380/sshd: root@pts
unix 3 [ ] STREAM CONNECTED 21224 951/sshd
(2)查看某端口号是否被占用
[root@hadoop101 桌面]# netstat -nltp | grep 22
tcp 0 0 192.168.122.1:53 0.0.0.0:* LISTEN 1324/dnsmasq
tcp 0 0 0.0.0.0:22 0.0.0.0:* LISTEN 951/sshd
tcp6 0 0 :::22 :: LISTEN 951/sshd
1、crontab 服务管理
(1)重新启动crond服务
[root@hadoop101 ~]# systemctl restart crond
2、crontab 定时任务设置
(1)基本语法
crontab [选项]
[root@hadoop101 ~]# crontab -e
(1)进入crontab编辑界面。会打开vim编辑你的工作。
(2)五个星号 * * * * * 表示执行的任务
(3)特殊符号
(4)案例实操
(1)每隔1分钟,向/root/bailongma.txt文件中添加一个11的数字
*/1 * * * * /bin/echo ”11” >> /root/bailongma.txt