不管是重启系统还是关闭系统,首先要运行sync命令,把内存中的数据写到磁盘中,防止数据丢失。
Linux系统是一个多用户多任务的操作系统,任何一个要使用系统资源的用户,都必须首先向系统管理员申请一个账号,然后以这个账号的身份进入系统。
注意:每个用户可以属于多个组。
[root@hadoop ~]# useradd xm
[root@hadoop ~]# useradd -d /home/dog xq
# xm指定(修改)密码,由于密码简单所以下面提示无效,我们这里强制执行了000000
[root@hadoop ~]# passwd xm
# uid用户id,gid组id,组:组名
[root@hadoop ~]# id root
uid=0(root) gid=0(root) 组=0(root)
[root@hadoop ~]# id xm
id: xm:无此用户
[root@hadoop ~]# whoami
root
类似于角色,系统可以对有共性的多个用户进行统一的管理。
#创建组和删除组
[root@hadoop ~]# groupadd wudang
[root@hadoop ~]# groupdel wudang
增加一个用户 zwj, 直接将他指定到 wudang
[root@hadoop ~]# groupadd wudang
[root@hadoop ~]# useradd -g wudang zwj
[root@hadoop ~]# id zwj
uid=500(zwj) gid=500(wudang) 组=500(wudang)
创建一个shaolin组,将zwj修改到shaolin
[root@hadoop ~]# groupadd shaolin
[root@hadoop ~]# usermod -g shaolin zwj
[root@hadoop ~]# id zwj
uid=500(zwj) gid=501(shaolin) 组=501(shaolin)
0 :关机
1 :单用户【找回丢失密码】
2:多用户状态没有网络服务
3:多用户状态有网络服务
4:系统未使用保留给用户
5:图形界面
6:系统重启
常用运行级别是3和5 ,要修改默认的运行级别可改文件
/etc/inittab的id:5:initdefault:这一行中的数字
命令:init [012356]
通过init 来切换不同的运行级别,比如从 5切换到3 , 然后关机。
# 默认是级别5,图形页面
[root@hadoop 桌面]# vim /etc/inittab
init 3
init 5
init 0
如果想开机启动就是3,那么需要修改 vim /etc/inittab最后id为3。那么重启后就是级别3而不是图形页面5.
假设我们的root密码忘记了,请问如何找回密码。
思路:进入到单用户模式,然后修改root密码。因为进入单用户模式,root 不需要密码就可以登录。(前提是服务器上操作,不能远程)
重启–输入enter进入下面界面
输入e进入下面-选择kernel内核–输入e进入下面页面
空格输入1–进入单用户模式如下图–输入b
进入单用户模式

[root@hadoop home]# find / -size +20M
.....
[root@hadoop home]# find / -size 20M
find: “/proc/123487/task/123487/fd/5”: 没有那个文件或目录
find: “/proc/123487/task/123487/fdinfo/5”: 没有那个文件或目录
find: “/proc/123487/fd/5”: 没有那个文件或目录
find: “/proc/123487/fdinfo/5”: 没有那个文件或目录
/media/CentOS_6.8_Final/Packages/foomatic-db-ppds-4.0-7.20091126.el6.noarch.rpm
/media/CentOS_6.8_Final/Packages/oxygen-icon-theme-4.3.4-2.el6.noarch.rpm
/usr/share/anthy/anthy.dic
案例4:查找linux下所有txt文件
[root@hadoop ~]# find / -name *.txt
/opt/vmware-tools-distrib/doc/open_source_licenses.txt
/home/a.txt
/home/hello.txt
/home/zwj/test/b.txt
/home/zwj/test/a.txt
/home/mydata.txt
/home/test/b.txt
/home/test/pig.txt
/home/test/a.txt
.........
#请使用locate 指令快速定位 hello.txt 文件所在目录
[root@hadoop ~]# updatedb
[root@hadoop ~]# locate hello.txt
/home/hello.txt
grep 过滤查找 , 管道符,“|”,表示将前一个命令的处理结果输出传递给后面的命令处理。
# 请在 hello.txt 文件中,查找 "yes" 所在行,并且显示行号
[root@hadoop home]# cat hello.txt | grep -n yes
1:yes
4:yes
6:yes
10:yes
[root@hadoop home]# cat hello.txt | grep -ni yes
1:yes
4:yes
6:yes
7:Yes
8:YES
10:yes
案例1: gzip压缩, 将 /home下的 hello.txt文件进行压缩
[root@hadoop home]# ls
a.txt hello.txt mycal mydata.txt test xm zwj
[root@hadoop home]# gzip hello.txt
[root@hadoop home]# ls
a.txt hello.txt.gz mycal mydata.txt test xm zwj
注意:压缩后不保留原始文件
案例2: gunzip压缩, 将 /home下的 hello.txt.gz 文件进行解压缩
[root@hadoop home]# gunzip hello.txt.gz
[root@hadoop home]# ls
a.txt hello.txt mycal mydata.txt test xm zwj
案例1: 将 /home下的 所有文件进行压缩成 mypackage.zip
[root@hadoop home]# zip -r mypackage.zip /home/
adding: home/ (stored 0%)
adding: home/xm/ (stored 0%)
adding: home/xm/.bash_logout (stored 0%)
adding: home/xm/.gnome2/ (stored 0%)
adding: home/xm/.mozilla/ (stored 0%)
adding: home/xm/.mozilla/extensions/ (stored 0%)
adding: home/xm/.mozilla/plugins/ (stored 0%)
adding: home/xm/.bashrc (deflated 21%)
adding: home/xm/.bash_history (deflated 17%)
adding: home/xm/.bash_profile (deflated 19%)
adding: home/a.txt (deflated 52%)
adding: home/hello.txt (deflated 15%)
adding: home/zwj/ (stored 0%)
adding: home/zwj/.bash_logout (stored 0%)
adding: home/zwj/.gnome2/ (stored 0%)
adding: home/zwj/.mozilla/ (stored 0%)
adding: home/zwj/.mozilla/extensions/ (stored 0%)
adding: home/zwj/.mozilla/plugins/ (stored 0%)
adding: home/zwj/.bashrc (deflated 21%)
adding: home/zwj/.bash_profile (deflated 19%)
adding: home/zwj/test/ (stored 0%)
adding: home/zwj/test/b.txt (stored 0%)
adding: home/zwj/test/a.txt (stored 0%)
adding: home/mycal (deflated 26%)
adding: home/mydata.txt (deflated 47%)
adding: home/test/ (stored 0%)
adding: home/test/b.txt (stored 0%)
adding: home/test/pig.txt (stored 0%)
adding: home/test/a.txt (stored 0%)
[root@hadoop home]# ls
a.txt hello.txt mycal mydata.txt mypackage.zip test xm zwj
案例2: 将 mypackge.zip 解压到 /home/test 目录下
[root@hadoop home]# ls /home/test/
a.txt b.txt pig.txt
[root@hadoop home]# unzip -d /home/test/ mypackage.zip
Archive: mypackage.zip
creating: /home/test/home/
creating: /home/test/home/xm/
extracting: /home/test/home/xm/.bash_logout
........
[root@hadoop home]# ls /home/test/
a.txt b.txt home pig.txt
[root@hadoop home]# cd /home/test/
[root@hadoop test]# ls
a.txt b.txt home pig.txt
[root@hadoop test]# tar -zcvf a.tar.gz a.txt b.txt
a.txt
b.txt
[root@hadoop test]# ls
a.tar.gz a.txt b.txt home pig.txt
案例2: 将/home 的文件夹 压缩成 myhome.tar.gz
[root@hadoop home]# tar -zcvf myhome.tar.gz /home/
/home/
/home/mypackage.zip
/home/xm/
/home/xm/.bash_logout
/home/xm/.gnome2/
/home/xm/.mozilla/
/home/xm/.mozilla/extensions/
/home/xm/.mozilla/plugins/
/home/xm/.bashrc
..........
[root@hadoop home]# ls
a.txt hello.txt mycal mydata.txt myhome.tar.gz mypackage.zip test xm zwj
案例3: 将 a.tar.gz 解压到当前目录
[root@hadoop test]# ls
a.tar.gz home pig.txt
[root@hadoop test]# tar -zxvf a.tar.gz
a.txt
b.txt
[root@hadoop test]# ls
a.tar.gz a.txt b.txt home pig.txt
案例4:将myhome.tar.gz解压到/home/test/目录下
[root@hadoop home]# ls /home/test
a.tar.gz a.txt b.txt pig.txt
[root@hadoop home]# tar -zxvf myhome.tar.gz -C /home/test/
home/
home/mypackage.zip
home/xm/
.........
[root@hadoop home]# ls /home/test/
a.tar.gz a.txt b.txt home pig.txt