Linux快速入门常用命令

写在前面


Linux快速入门常用命令_第1张图片
shell

        万丈高楼平地起,学习Linux需要掌握大量的命令,但是不要因为Linux的命令繁多而生退却之心。学习Linux是一个由易到难,循序渐进的过程,只要有有一个良好的开始,不断积累,Linux的命令的学习使用也会是一件比较轻松的事。

        本文带领大家一起细数Linux中常用的命令,以一个良性的开始,开启我们的Linux学习之旅!

【1】 帮助命令

     【1.1】man 获得帮助信息

         基本语法:

     man [命令或配置文件] (功能描述:获得帮助信息)

    (1)显示说明

        NAME  命令的名称和单行描述

        SYNOPSIS 怎样使用命令

        DESCRIPTION 命令功能的深入讨论

        EXAMPLES  怎样使用命令的例子

        SEE ALSO  相关主题(通常是手册页)

    (2)数字说明q

        1.用户在shell环境中可以操作的命令或是可执行的文件

        2.系统内核(kernel)可以调用的函数

        3.常用的函数or函数库

        4.设备配置文件

        5.配置文件的格式

        6.游戏相关

        7.linux网络协议和文件系统

        8.系统管理员可以用的命令

        9.跟内核有关系的文件

    (3)按q退出man帮助

    (4)案例

        [root@hadoop106 home]# man ls

    【1.2】 help 获得shell内置命令的帮助信息

         基本语法:

        help 命令 (功能描述:获得shell内置命令的帮助信息)

        案例:

        [root@hadoop003 bin]# help cd

    【1.3】常用快捷键

        ctrl + c:停止进程

        ctrl+l:清屏

        善于用tab键

        上下键:查找执行过的命令

【2】文件目录类

    【2.1】 pwd 显示当前工作目录的绝对路径

        基本语法:

            pwd (功能描述:显示当前工作目录的绝对路径)

        案例

            [root@hadoop003 home]# pwd

            /home

    【2.2】 ls 列出目录的内容

        基本语法:

        ls [选项] [目录或是文件]

        选项:

        -a :all,全部的文件,连同隐藏的文档( 开头为 . 的文件) 一起列出来(常用)

        -l :长数据串列出,包含文件的属性与权限等等数据;(常用)

        每行列出的信息依次是: 文件类型与权限 链接数 文件属主 文件属组 文件大小用byte来表示 建立或最近修改的时间 名字

        等同于ll命令

        案例

        [hadoop@hadoop003 ~]$ ls -al

        总用量 44

        drwx------. 5 hadoop hadoop 4096 5月  27 15:15 .

        drwxr-xr-x. 3 root    root    4096 5月  27 14:03 ..

        drwxrwxrwx. 2 root    root    4096 5月  27 14:14 hello

        -rwxrw-r--. 1 hadoop hadoop  34 5月  27 14:20 test.txt

    【2.3】 mkdir 创建一个新的目录

        基本语法:

        mkdir [-p] 要创建的目录

        选项:

           -p:创建多层目录

        案例

            [root@hadoop003 opt]# mkdir test

            [root@hadoop003 opt]# mkdir -p user/hadoop

    【2.4】 rmdir 删除一个空的目录(了解)

        基本语法:

        rmdir 要删除的空目录,remove 即移除

        案例

        [root@hadoop003 opt]# mkdir test

        [root@hadoop003 opt]# rmdir test

    【2.5】 touch 创建空文件

        基本语法:

        touch 文件名称

        案例

        [root@hadoop003 opt]# touch test.java

    【2.6】cd 切换目录

        基本语法:

        (1)cd 绝对路径

        (2)cd 相对路径

        (3)cd ~或者cd (功能描述:回到自己的家目录)

        (4)cd - (功能描述:回到上一次所在目录)

        (5)cd .. (功能描述:回到当前目录的上一级目录)

        (6)cd . (功能描述:回到当前目录)

        .(点)即一个英文点号代表当前目录,..即两个英文点号代表上一级目录。

        案例

        (1)使用 mkdir 命令创建hadoop目录

            [root@hadoop003 ~]# mkdir hadoop

        (2)使用绝对路径切换到hadoop目录

            [root@hadoop003 ~]# cd /root/hadoop/

        (3)使用相对路径切换到hadoop目录

            root@hadoop003 ~]# cd ./hadoop/

        (4)表示回到自己的家目录,亦即是 /root 这个目录

            [root@hadoop003 hadoop]# cd ~

        (5)cd- 回到上一次所在目录

           [ root@hadoop003 hadoop]# cd -

        (6)表示回到当前目录的上一级目录,亦即是 /root 的上一级目录的意思;

            [root@hadoop003 ~]# cd ..

    【2.7】 cp 复制文件或目录

        基本语法:

        (1)cp source dest (功能描述:复制source文件到dest)

        (2)cp -r sourceFolder targetFolder (功能描述:递归复制整个文件夹)

        注意:r即recursive递归,这里是递归拷贝,将该目录以及所有子目录(包括再多的子目录)下的所有文件即文件夹都拷贝

        案例

        (1)复制文件

            [root@hadoop003 opt]# cp test.java test

        (2)递归复制整个文件夹

            [root@hadoop003 opt]# cp -r test test1

    【2.8】 rm 移除文件或目录

        基本语法

        (1)rmdir deleteEmptyFolder (功能描述:删除空目录),缺点:只能删除空目录。

        (2)rm -rf deleteFile (功能描述:递归删除目录中所有内容)慎用

        案例

            删除空目录

                [root@hadoop003 opt]# rmdir test

            递归删除目录中所有内容(-r 为递归删除)

                [root@hadoop003 opt]# rm -rf test1

    【2.9】 mv 移动文件与目录或重命名

        基本语法:

        (1)mv oldNameFile newNameFile (功能描述:重命名)

        (2)mv /temp/movefile /targetFolder (功能描述:递归移动文件)

        案例:

            重命名

            [root@hadoop003 opt]# mv test.java  test1.java

            移动文件

            [root@hadoop003 opt]# mv test1.java  test1

            重命名:

            这个rename缺点:参数太多,容易引起歧义,不建议使用

    【2.10】cat 查看文件内容

            查看文件内容,从第一行开始显示。

            适合查看小文件,行数比较少的文件,通常用来查看配置文件。

            基本语法

                cat  [选项] 要查看的文件

            选项:

                -A :相当于 -vET 的整合选项,可列出一些特殊字符而不是空白而已;

                -b :列出行号,仅针对非空白行做行号显示,空白行不标行号!

                -E :将结尾的断行字节 $ 显示出来;

                -n :列出行号,连同空白行也会有行号,与 -b 的选项不同;

                -T :将 [tab] 按键以 ^I 显示出来;

                -v :列出一些看不出来的特殊字符

            案例

                [hadoop@hadoop003 ~]$ cat -A test.txt

                    hellda  $

                    asadf ^I$

                    da^I^I^I$

                    das$

        面试题:查看CentOS版本命令

        [hadoop@hadoop003 桌面]$ cat /etc/redhat-release

        CentOS release 6.8 (Final)

    【2.11】 tac查看文件内容

        查看文件内容,从最后一行开始显示,按行倒序显示,可以看出 tac 是 cat 的倒著写。

        基本语法:

            tac  [选项参数] 要查看的文件

        案例

            [root@hadoop003 test1]# cat test1.java

            hello

            hadoop

            hadoop1

            [root@hadoop003 test1]# tac test1.java

            hadoop1

            hadoop

            hello

    【2.12】 more 查看文件内容

        查看文件内容,一页一页的显示文件内容。

        基本语法:

            more 要查看的文件

        功能使用说明

            空白键 (space):代表向下翻一页;

            Enter:代表向下翻『一行』;

            q代表立刻离开 more ,不再显示该文件内容。

            Ctrl+F (注意是大写)向下滚动一屏

            Ctrl+B 返回上一屏

            = 输出当前行的行号

    案例

        [root@hadoop003 test1]# more test1.java

    【2.13】 less 查看文件内容

        less 的作用与 more 十分相似,都可以用来浏览文字档案的内容,不同的是 less 允许使用[pageup] [pagedown]往回滚动。

        基本语法:

            less 要查看的文件

        功能使用说明

            空白键  :向下翻动一页;

            [pagedown]:向下翻动一页;

            [pageup] :向上翻动一页;

            /字串    :向下搜寻『字串』的功能;n:向下查找;N:向上查找;

            ?字串    :向上搜寻『字串』的功能;n:向上查找;N:向下查找;

            q        :离开 less 这个程序;

        案例

            [root@hadoop003 test1]# less test1.java

    【2.14】 head查看文件内容

        查看文件内容,只看头几行,优点:对于大文件不必都加载,只显示头几行即可。

        基本语法

            head -n 10 文件      (功能描述:查看文件头10行内容,10可以是任意行数)

        案例

            [root@hadoop003 test1]# head -n 2 test1.java

            ello

            hadoop

    【2.15】 tail 查看文件内容

        查看文件内容,只看尾巴几行,优点:可以查看文件实时追加的内容。

        基本语法

        (1)tail  -n 10 文件 (功能描述:查看文件头(从末尾开始数)10行内容,10可以是任意行数)

        (2)tail  -f  文件 (功能描述:实时追踪该文档的所有更新)

        案例

        (1)查看文件头1行内容

            [root@hadoop003 test1]# tail -n 1 test1.java

            Hadoop

        (2)实时追踪该档的所有更新,可用后边的crontab定时追加内容验证一下

            [root@hadoop003 test1]# tail -f test1.java

            hello

            hadoop

            hadoop

        区别于head的头几行:

    【2.16】 重定向命令

        基本语法:

            (1)ls -l >a.txt文件 (功能描述:列表的内容写入文件a.txt中(覆盖写))

            (2)ls -al >>a.txt文件 (功能描述:列表的内容追加到文件aa.txt的末尾)

        案例

            (1)[root@hadoop003 opt]# ls -l>t.txt

            (2)[root@hadoop003 opt]# ls -l>>t.txt

            (3)[root@hadoop003 test1]# echo hello>>test1.java

    【2.17】 echo

        基本语法:

            (1)echo 要显示的内容 >> 存储内容的的文件 (功能描述:将要显示的内容,存储到文件中)

             (2)echo 变量 (功能描述:显示变量的值)

        案例

            [root@hadoop003 test1]# echo $JAVA_HOME

            /opt/module/jdk1.8.0_144

【2.18】 ln软链接

    基本语法:

    ln -s [原文件] [目标文件] (功能描述:给原文件创建一个软链接,软链接存放在目标文件目录)

    删除软链接(如果是文件夹的话,要注意没有最后的/): rm -rf hadoop,而不是rm -rf hadoop/

    案例:

        [root@hadoop003 module]# ln -s /opt/module/test.txt /opt/t.txt

        [root@hadoop003 opt]# ll

        lrwxrwxrwx. 1 root    root      20 6月  17 12:56 t.txt -> /opt/module/test.txt

    创建一个软链接

        [hadoop@hadoop003 opt]$ ln -s /opt/module/hadoop-2.7.2/ /opt/software/hadoop

    cd不加参数进入是软链接的地址

        [hadoop@hadoop003 software]$ cd hadoop

        hadoop@hadoop003 hadoop]$ pwd

        /opt/software/hadoop

    cd加参数进入是实际的物理地址

        [hadoop@hadoop003 software]$ cd -P hadoop

        [hadoop@hadoop003 hadoop-2.7.2]$ pwd

        /opt/module/hadoop-2.7.2

    【2.19】 history查看所敲命令历史

        基本语法:

            history

        案例

            [root@hadoop003 test1]# history

【3】 时间日期类

        基本语法

            date [OPTION]... [+FORMAT]

    【3.1】 date显示当前时间

        基本语法:注意命令与参数之间有空格

            (1)date (功能描述:显示当前时间)

            (2)date +%Y (功能描述:显示当前年份)

            (3)date +%m (功能描述:显示当前月份)

            (4)date +%d (功能描述:显示当前是哪一天)

            (5)date +%Y%m%d … (功能描述:显示当前年月日各种格式 )

            (6)date "+%Y-%m-%d %H:%M:%S" 或者单引号也可以 (功能描述:显示年月日时分秒)

        案例

            [root@hadoop003 /]# date

            2019年 10月 09日 星期三 20:53:30 CST

            [root@hadoop003 /]# date +%Y%m%d

            20191009

            [root@hadoop003 /]# date "+%Y-%m-%d %H:%M:%S"

            2019-10-09 20:54:58

       【3.2】 date显示非当前时间

            显示的是字符串描述的时间,不是当前时间。

            基本语法:

            (1)date -d '1 days ago' (功能描述:显示前一天日期)

            (2)date -d yesterday +%Y%m%d (同上)

            (3)date -d next-day +%Y%m%d (功能描述:显示明天日期)

            (4)date -d 'next monday' (功能描述:显示下周一时间)

          案例:

            [root@hadoop003 /]# date -d '1 days ago'

            2019年 10月 09日 星期三 21:07:22 CST

            [root@hadoop003 /]# date -d next-day +%Y%m%d

            20191009

            [root@hadoop003 /]# date -d 'next monday'

            2019年 10月 09日 星期三 00:00:00 CST

        【3.3】 date设置系统时间

            基本语法:

                date -s 字符串时间

            案例

                [root@hadoop106 /]# date -s "2019-10-09 20:52:18"

        【3.4】 cal查看日历

            基本语法:

                cal [选项] (功能描述:不加选项,显示本月日历)

            选项:

                -3 ,显示系统前一个月,当前月,下一个月的日历

                具体某一年,显示这一年的日历。

            案例:

                [root@hadoop003 /]# cal

               [root@hadoop003 /]# cal -3

                [root@hadoop003 /]# cal 2019

【4】 用户管理命令

        【4.1】 useradd 添加新用户(前提是有添加用户的权限)

            基本语法:

                useradd 用户名 (功能描述:添加新用户)

            案例:

                [root@hadoop003 opt]# useradd hadoop

        【4.2】 passwd 设置用户密码

            基本语法:

                passwd 用户名 (功能描述:设置用户密码)

            案例

                [root@hadoop003 opt]# passwd hadoop

        【4.3】 id 判断用户是否存在

            基本语法:

                id 用户名

            案例:

                [root@hadoop003 opt]#id hadoop

      【4.4】 su 切换用户

            基本语法:

                su 用户名称  (功能描述:切换用户,只能获得用户的执行权限,不能获得环境变量)

                su - 用户名称 (功能描述:切换到用户并获得该用户的环境变量及执行权限)

            案例

            [root@hadoop003 opt]#su hadoop

            [root@hadoop003 opt]#su - hadoop

        【4.5】 userdel 删除用户

            基本语法:注意区别

            (1)userdel  用户名 (功能描述:删除用户但保存用户主目录)

            (2)userdel -r 用户名 (功能描述:用户和用户主目录,都删除)

            案例:

            (1)删除用户但保存用户主目录

                [root@hadoop003 opt]#userdel hadoop

            (2)删除用户和用户主目录,都删除

                [root@hadoop003 opt]#userdel -r hadoop

        【4.6】 who 查看登录用户信息

            基本语法

             (1)whoami (功能描述:显示自身用户名称)

            (2)who am i (功能描述:显示登录用户的用户名)

            (3)who (功能描述:看当前有哪些用户登录到了本台机器上)

            案例

                [root@hadoop003 opt]# whoami

                [root@hadoop003 opt]# who am i

                [root@hadoop003 opt]# who

        【4.7】 设置hadoop普通用户具有root权限即sudo的使用

            修改配置文件

                修改 /etc/sudoers 文件,找到下面一行,在root下面添加一行,如下所示:

                    ## Allow root to run any commands anywhere

                    root    ALL=(ALL)    ALL

                    hadoop  ALL=(ALL)    ALL

            或者配置成采用sudo命令时,不需要输入密码

                ## Allow root to run any commands anywhere

                root      ALL=(ALL)    ALL

                hadoop  ALL=(ALL)    NOPASSWD:ALL

        修改完毕,现在可以用hadoop帐号登录,然后用命令 su - ,即可获得root权限进行操作。

        案例

            [hadoop@hadoop003 opt]$ sudo mkdir module

            [root@hadoop003 opt]# chown hadoop:hadoop module/

    【4.8】 cat  /etc/passwd 查看创建了哪些用户

            cat  /etc/passwd

    【4.9】usermod修改用户

        基本语法:

            usermod -g 用户组 用户名

        案例:

            将用户hadoop加入mygroup用户组

            [root@hadoop003 opt]#usermod -g mygroup hadoop

【5】 用户组管理命令

        每个用户都有一个用户组,系统可以对一个用户组中的所有用户进行集中管理。不同Linux 系统对用户组的规定有所不同,

        如Linux下的用户属于与它同名的用户组,这个用户组在创建用户时同时创建。

    用户组的管理涉及用户组的添加、删除和修改。组的增加、删除和修改实际上就是对/etc/group文件的更新。

    【5.1】 groupadd 新增组

        基本语法

            groupadd 组名

        案例:

            添加一个hadoop组

                [root@hadoop003 opt]#groupadd hadoop

    【5.2】groupdel删除组

        基本语法:

            groupdel 组名

        案例

            [root@hadoop003 opt]# groupdel hadoop

    【5.3】 groupmod修改组

        基本语法:

            groupmod -n 新组名 老组名

        案例

            修改hadoop组名称为hadoop1

            [root@hadoop003 hadoop]# groupmod -n hadoop1 hadoop

    【5.4】 cat  /etc/group 查看创建了哪些组

            cat  /etc/group

    【5.5】 综合案例

            [root@hadoop003 hadoop]# groupadd dev

            [root@hadoop003 hadoop]# groupmod -n device dev

            [root@hadoop003 hadoop]# usermod -g device hadoop

            [root@hadoop003 hadoop]# su hadoop

            [hadoop@hadoop003 ~]$ mkdir hadoop

            [hadoop@hadoop003 ~]$ ls -l

            drwxr-xr-x. 2 hadoop device  4096 5月  27 16:31 hadoop

            [root@hadoop003 hadoop]# usermod -g hadoop hadoop

【6】 文件权限类

    【6.1】文件属性

    Linux系统是一种典型的多用户系统,不同的用户处于不同的地位,拥有不同的权限。为了保护系统的安全性,Linux系统对不同的用户访问同一文件(包括目录文件)的权限做了不同的规定。在Linux中我们可以使用ll或者ls –l命令来显示一个文件的属性以及文件所属的用户和组。

    从左到右的10个字符表示:

        如果没有权限,就会出现减号[ - ]而已。从左至右用0-9这些数字来表示:

     (1)0首位表示类型

        在Linux中第一个字符代表这个文件是目录、文件或链接文件等等

        - 代表文件

        d 代表目录

        c 字符流,装置文件里面的串行端口设备,例如键盘、鼠标(一次性读取装置)

        s socket

        p 管道

        l 链接文档(link file);

        b 设备文件,装置文件里面的可供储存的接口设备(可随机存取装置)

    (2)第1-3位确定属主(该文件的所有者)拥有该文件的权限。---User

    (3)第4-6位确定属组(所有者的同组用户)拥有该文件的权限,---Group

    (4)第7-9位确定其他用户拥有该文件的权限 ---Other

        文件类型 属主权限 属组权限 其他用户权限

             1    2  3 4  5  6 7  8  9

            d R  w  x R  -  x R  -  x

        目录文件 读  写  执行 读  写  执行 读  写  执行

        rxw作用文件和目录的不同解释

        (1)作用到文件:

            [ r ]代表可读(read): 可以读取,查看

            [ w ]代表可写(write): 可以修改,但是不代表可以删除该文件,删除一个文件的前提条件是对该文件所在的目录有写权限,才能删除该文件.

            [ x ]代表可执行(execute):可以被系统执行

        (2)作用到目录:

            [ r ]代表可读(read): 可以读取,ls查看目录内容

            [ w ]代表可写(write): 可以修改,目录内创建+删除+重命名目录

            [ x ]代表可执行(execute):可以进入该目录

        案例

            [hadoop@hadoop003 ~]$ ls -l

            总用量 8

        drwxrwxr-x. 2 hadoop hadoop 4096 5月  27 14:14 hello

        -rw-rw-r--. 1 hadoop hadoop  34 5月  27 14:20 test.txt

        (1) 如果查看到是文件:链接数指的是硬链接个数。所谓硬链接就是原来文件的一个副本,其中任何一个修改,另外一个也会跟着改,创建硬链接方法

        ln [原文件] [目标文件]

        [root@hadoop003 xiyou]# ln sunhouzi/shz.txt ./shz.txt

        (2)如果查看的是文件夹:链接数指的是子文件夹个数。

            [root@hadoop003 xiyou]# ls -al hadoop/

            总用量 8

            drwxr-xr-x. 2 root root 4096 9月  3 19:02 .

            drwxr-xr-x. 5 root root 4096 9月  3 21:21 ..

            如果某个文件夹是空的,其实里面也有两个目录,一个点代表当前目录,两个点代表父级目录

    【6.2】 chmod改变权限

        基本语法:

        chmod  [{ugoa}{+-=}{rwx}] [文件或目录] [mode=421 ]  [文件或目录]

        101  可读、不可写,可执行 十进制5

        111  可读、可写,可执行  十进制7

        用户 同组用户    其他用户

        可读、可写,可执行 可读、可写,不可执行  可读、不可写,可执行

        4+2+1 7  4+2+0    4+0+1  即765

        功能描述

        改变文件或者目录权限

        文件: r-查看;w-修改;x-执行文件

    目录: r-列出目录内容;w-在目录中创建和删除;x-进入目录

    删除一个文件的前提条件:该文件所在的目录有写权限,你才能删除该文件。

        案例

        [root@hadoop003 test1]# chmod u+x test1.java

        [root@hadoop003 test1]# chmod g+x test1.java

        [root@hadoop003 test1]# chmod o+x test1.java

        [root@hadoop003 test1]# chmod 777 test1.java

        [root@hadoop003 test1]# chmod -R 777 testdir

    【6.3】 chown改变所有者(只能够root用户使用)

        基本语法:

        chown [最终用户] [文件或目录] (功能描述:改变文件或者目录的所有者) change owner

        案例

        [root@hadoop003 test1]# chown hadoop test1.java

        [root@hadoop003 test1]# ls -al

        -rwxr-xr-x. 1 hadoop hadoop  551 5月  23 13:02 test1.java

        修改前:

        [root@hadoop003 xiyou]# ll

        drwxrwxrwx. 2 root root 4096 9月  3 21:20 sunhouzi

        修改后

        [root@hadoop003 xiyou]# chown -R hadoop:hadoop sunhouzi/

        [root@hadoop003 xiyou]# ll

        drwxrwxrwx. 2 hadoop hadoop 4096 9月  3 21:20 sunhouzi

    【6.4】 chgrp改变所属组

        基本语法:

        chgrp [最终用户组] [文件或目录] (功能描述:改变文件或者目录的所属组)

        案例

        [root@hadoop003 test1]# chgrp hadoop test1.java

        [root@hadoop003 test1]# ls -al

        -rwxr-xr-x. 1 root hadoop  551 5月  23 13:02 test1.java

    【6.5】 su 切换用户

        基本语法:

            su -username (功能描述:切换用户)

        案例

            [root@hadoop003 hadoop]# su hadoop

            [hadoop@hadoop003 ~]$

            [hadoop@hadoop003 ~]$ su root

        密码:

            [root@hadoop003 hadoop]#

【7】 磁盘分区类

    【7.1】 fdisk查看分区

        基本语法:

            fdisk -l (功能描述:查看磁盘分区详情)

            注意:在root用户下才能使用

        功能说明:

        (1)Linux分区

            这个硬盘是20G的,有255个磁面;63个扇区;2610个磁柱;每个 cylinder(磁柱)的容量是 8225280 bytes=8225.280 K(约为)=8.225280M(约为);

            Device Boot Start End Blocks Id System

            分区序列 引导 从X磁柱开始 到Y磁柱结束 容量 分区类型ID 分区类型

        案例:

            [root@hadoop003 /]# fdisk -l

            Disk /dev/sda: 21.5 GB, 21474836480 bytes

            255 heads, 63 sectors/track, 2610 cylinders

            Units = cylinders of 16065 * 512 = 8225280 bytes

            Sector size (logical/physical): 512 bytes / 512 bytes

            I/O size (minimum/optimal): 512 bytes / 512 bytes

            Disk identifier: 0x0005e654

            Device Boot      Start        End      Blocks  Id  System

            /dev/sda1  *          1          26      204800  83  Linux

            Partition 1 does not end on cylinder boundary.

            /dev/sda2              26        1332    10485760  83  Linux

            /dev/sda3            1332        1593    2097152  82  Linux swap / Solaris

        (2)Win7分区

    【7.2】 df查看硬盘

        基本语法:

            df  参数 (功能描述:列出文件系统的整体磁盘使用量,检查文件系统的磁盘空间占用情况)

参数:

            -a :列出所有的文件系统,包括系统特有的 /proc 等文件系统;

            -k :以 KBytes 的容量显示各文件系统;

            -m :以 MBytes 的容量显示各文件系统;

            -h :以人们较易阅读的 GBytes, MBytes, KBytes 等格式自行显示;

            -H :以 M=1000K 取代 M=1024K 的进位方式;

            -T :显示文件系统类型,连同该 partition 的 filesystem 名称 (例如 ext3) 也列出;

            -i :不用硬盘容量,而以 inode 的数量来显示

        案例

            [root@hadoop003 ~]# df -h

            Filesystem      Size  Used Avail Use% Mounted on

            /dev/sda2        15G  3.5G  11G  26% /

            tmpfs          939M  224K  939M  1% /dev/shm

            /dev/sda1      190M  39M  142M  22% /boot

            Du -sh ./* 查看目录占用空间的情况,便于找出占用空间多的文件

    【7.3】 mount/umount挂载/卸载

        对于Linux用户来讲,不论有几个分区,分别分给哪一个目录使用,它总归就是一个根目录、一个独立且唯一的文件结构

        Linux中每个分区都是用来组成整个文件系统的一部分,她在用一种叫做“挂载”的处理方法,它整个文件系统中包含了一整套的文件和目录,并将一个分区和一个目录联系起来,要载入的那个分区将使它的存储空间在这个目录下获得。

          挂载前准备(必须要有光盘或者已经连接镜像文件)

          挂载光盘语法:

            mount [-t vfstype] [-o options] device dir

            (1)-t vfstype 指定文件系统的类型,通常不必指定。mount 会自动选择正确的类型。

            常用类型有:

                光盘或光盘镜像:iso9660

                DOS fat16文件系统:msdos

            Windows 9x fat32文件系统:vfat

            Windows NT ntfs文件系统:ntfs

            Mount Windows文件网络共享:smbfs

            UNIX(LINUX) 文件网络共享:nfs

            (2)-o options 主要用来描述设备或档案的挂接方式。常用的参数有:

                loop:用来把一个文件当成硬盘分区挂接上系统

          ro:采用只读方式挂接设备

          rw:采用读写方式挂接设备

          iocharset:指定访问文件系统所用字符集

        (3)device 要挂接(mount)的设备

        (4)dir设备在系统上的挂接点(mount point)

        案例

            (1)光盘镜像文件的挂载

                [root@hadoop003 ~]# mkdir /mnt/mycdrom/ 建立挂载点

                [root@hadoop003 ~]# mount -t iso9660 /dev/cdrom /mnt/mycdrom/ 设备/dev/cdrom挂载到 挂载点 :  /mnt/mycdrom中

                [root@hadoop003 ~]# ll /mnt/mycdrom/

        卸载光盘语法:

        [root@hadoop003 ~]# umount 设备文件名或挂载点

        卸载时,如果该目录正在被使用,可能无法卸载。

        解决:用该命令fuser - identify processes using files or sockets找出占用的进程

        假设现在 mount 起来的目录是 /media/share

        * 查询: fuser -m /media/share

        * 显示: /media/share: 25023c

        就代表是 process 25023(pid) 有使用到此目录, 后面 c 代表的意思可参考下述:

        * c: current directory.

        * e: executable being run.

        * f: open file. f is omitted in default display mode.

        * F: open file for writing. F is omitted in default display mode.

        * r: root directory.

        * m: mmap'ed file or shared library.

        要把这个资源释放的话, 可以有下述做法:

        * kill -9 25023 # ps aux | grep 25023 应该就会看到它

        * fuser -m -v -i -k /media/share # 会问你是不是要把 25023 这个 kill 掉, 选 y 就会 kill 掉

              提示信息如下:

              USER      PID  ACCESS COMMAND

              /meida/share: root      25023 ..c..  bash

              Kill process 25023 ? (y/N) y

    如果这样仍然不能解决,可以不通过secureCRT,直接进入虚拟机卸载。

        案例

            [root@hadoop003 ~]# umount /mnt/mycdrom

        开机自动挂载语法:

        [root@hadoop003 ~]# vi /etc/fstab

            添加红框中内容,保存退出。

【8】搜索查找类

    【8.1】 find 查找文件或者目录

        基本语法:

            find [搜索范围] [匹配条件]

            locate [查找的文件]

            需要注意的是,Locate查找是基于本地的文件记录索引数据库的,在第一次运行locate命令前,需要手动运行 updatedb 命令,locate查找命令的查找速度非常的快,但是查找的范围是基于自己本地的文件记录索引库,在使用locate命令进行查找之前,最好手动执行一次updatedb 命令;

       案例

        (1)按文件名:根据名称查找/opt目录下的filename.txt文件。

            [root@hadoop003 ~]# find /opt/ -name *.txt

        (2)按拥有者:查找/opt目录下,所有者为hadoop的文件

            [root@hadoop003 ~]# find /opt/ -user hadoop

       (3)按文件大小:在/home目录下查找大于200m的文件(+n 大于  -n小于  n等于)

            [root@hadoop003 ~]find /home -size +204800

    【8.2】 grep 过滤查找及“|”管道符

        管道符,“|”,表示将前一个命令的处理结果输出传递给后面的命令处理

        基本语法

            grep+参数+查找内容+源文件

        参数:

        -c:只输出匹配行的计数。

        -I:不区分大小写(只适用于单字符)。

        -h:查询多文件时不显示文件名。

        -l:查询多文件时只输出包含匹配字符的文件名。

        -n:显示匹配行及行号。

        -s:不显示不存在或无匹配文本的错误信息。

        -v:显示不包含匹配文本的所有行。

        案例

            [root@hadoop003 opt]# ls | grep -n test

            4:test1

            5:test2

    【8.3】 which 文件搜索命令

        基本语法:

            which 命令 (功能描述:搜索命令所在目录及别名信息)

        案例

            [root@hadoop003 opt]# which ls

            /bin/ls

【9】进程线程类

    进程是正在执行的一个程序或命令,每一个进程都是一个运行的实体,都有自己的地址空间,并占用一定的系统资源。

    【9.1】 ps查看系统中所有进程

        基本语法:

            ps -aux (功能描述:查看系统中所有进程) ps -ef

        功能说明

            USER:该进程是由哪个用户产生的

            PID:进程的ID号

            %CPU:该进程占用CPU资源的百分比,占用越高,进程越耗费资源;

            %MEM:该进程占用物理内存的百分比,占用越高,进程越耗费资源;

            VSZ:该进程占用虚拟内存的大小,单位KB;

            RSS:该进程占用实际物理内存的大小,单位KB;

            TTY:该进程是在哪个终端中运行的。其中tty1-tty7代表本地控制台终端,tty1-tty6是本地的字符界面终端,tty7是图形终端。pts/0-255代表虚拟终端。

            STAT:进程状态。常见的状态有:R:运行、S:睡眠、T:停止状态、s:包含子进程、+:位于后台

            START:该进程的启动时间

            TIME:该进程占用CPU的运算时间,注意不是系统时间

            COMMAND:产生此进程的命令名

        案例

            [root@hadoop003 datas]# ps -aux

    【9.2】 top查看系统健康状态

        基本命令

            top [选项]

            (1)选项:

                -d 秒数:指定top命令每隔几秒更新。默认是3秒。

                -i:使top不显示任何闲置或者僵死进程。

                -p:通过指定监控进程ID来仅仅监控某个进程的状态。

            (2)操作选项,即在执行top命令之后,与top命令进行交互:

                P: 以CPU使用率排序,默认就是此项

                M: 以内存的使用率排序

                N: 以PID排序

                q: 退出top

            (3)查询结果字段解释

                第一行信息为任务队列信息

                内容 说明

                12:26:46 系统当前时间

                up 1 day, 13:32 系统的运行时间,本机已经运行1天

                13小时32分钟

                2 users 当前登录了两个用户

                load  average:  0.00, 0.00, 0.00 系统在之前1分钟,5分钟,15分钟的平均负载。一般认为小于1时,负载较小。如果大于1,系统已经超出负荷。

                第二行为进程信息

                Tasks:  95 total 系统中的进程总数

                1 running 正在运行的进程数

                94 sleeping 睡眠的进程

                0 stopped 正在停止的进程

                0 zombie 僵尸进程。如果不是0,需要手工检

                查僵尸进程

                第三行为CPU信息

                Cpu(s):  0.1%us 用户模式占用的CPU百分比

                0.1%sy 系统模式占用的CPU百分比

                0.0%ni 改变过优先级的用户进程占用的CPU百分比

                99.7%id 空闲CPU的CPU百分比

                0.1%wa 等待输入/输出的进程的占用CPU百分比

                0.0%hi 硬中断请求服务占用的CPU百分比

                0.1%si 软中断请求服务占用的CPU百分比

                0.0%st st(Steal  time)虚拟时间百分比。就是当有虚拟机时,虚拟CPU等待实际CPU的时间百分比。

                第四行为物理内存信息

                Mem:    625344k total 物理内存的总量,单位KB

                571504k used 已经使用的物理内存数量

                53840k free 空闲的物理内存数量,我们使用的是虚拟机,总共只分配了628MB内存,所以只有53MB的空闲内存了

                65800k buffers 作为缓冲的内存数量

                第五行为交换分区(swap)信息

                Swap:  524280k total 交换分区(虚拟内存)的总大小

                0k used 已经使用的交互分区的大小

                524280k free 空闲交换分区的大小

                409280k cached 作为缓存的交互分区的大小

            案例

                [root@hadoop003 hadoop]# top -d 1

                [root@hadoop003 hadoop]# top -i

                [root@hadoop003 hadoop]# top -p 2575

        执行上述命令后,可以按P、M、N对查询出的进程结果进行排序。

    【9.3】 pstree查看进程树

        基本语法:

            pstree [选项]

        选项

              -p:  显示进程的PID

              -u:  显示进程的所属用户

        案例:

            [root@hadoop003 datas]# pstree -u

            [root@hadoop003 datas]# pstree -p

    【9.4】 kill终止进程

        基本语法:

            kill -9 pid进程号

        选项

            -9 表示强迫进程立即停止

        案例:

            启动firefox浏览器程序

            切换到root用户执行

            [root@hadoop003 桌面]# kill -9 5102

    【9.5】 netstat显示网络统计信息

        基本语法:

            netstat -anp (功能描述:此命令用来显示整个系统目前的网络情况。例如目前的连接、数据包传递数据、或是路由表内容)

        选项:

            -an 按一定顺序排列输出

            -p  表示显示哪个进程在调用

            -nltp 查看tcp协议进程端口号

        案例

            查看端口22的使用情况

            [root@hadoop003 hadoop-2.7.2]# netstat -anp | grep 22

【10】 压缩和解压类

    【10.1】 gzip/gunzip压缩

        基本语法:

            gzip+文件 (功能描述:压缩文件,只能将文件压缩为*.gz文件,执行后,原来文件消失,生成压缩文件)

            gunzip+文件.gz (功能描述:解压缩文件命令,执行后,压缩文件消失,生成解压后的文件)

        特点:

            (1)只能压缩文件不能压缩目录

            (2)不保留原来的文件

        案例

        (1)gzip压缩

                [root@hadoop003 opt]# ls

                test.java

                [root@hadoop003 opt]# gzip test.java

                [root@hadoop003 opt]# ls

                test.java.gz

        (2)gunzip解压缩文件

                [root@hadoop003 opt]# gunzip test.java.gz

                [root@hadoop003 opt]# ls

                test.java

    【10.2】 zip/unzip压缩

        基本语法:

            zip + 参数 + XXX.zip + 将要压缩的内容 (功能描述:压缩文件和目录的命令,window/linux通用且可以压缩目录且保留源文件)

        参数:

            -r 压缩目录

        案例:

            (1)压缩 1.txt 和2.txt,压缩后的名称为mypackage.zip

                [root@hadoop003 opt]# zip test.zip test1.java  test.java

                adding: test1.java (stored 0%)

                adding: test.java (stored 0%)

                [root@hadoop003 opt]# ls

                test1.java  test.java  test.zip

            (2)解压 mypackage.zip,如果存在重名,则会提示覆盖、不操作、或者重命名。

                [root@hadoop003 opt]# unzip test.zip

                Archive:  test.zip

                extracting: test1.java             

                extracting: test.java       

                [root@hadoop003 opt]# ls

                test1.java  test.java  test.zip

            (3)解压mypackage.zip到指定目录-d

                [root@hadoop003 opt]# unzip test.zip -d /opt

    【10.3】 tar打包

        【10.3.1】.tar.gz包

          基本语法:

            tar + 参数 + XXX.tar.gz + 将要打包进去的内容 (功能描述:打包目录,压缩后的文件格式.tar.gz)

        参数:

            -c 产生.tar打包文件 create

            -v 显示详细信息 verbose

            -f 指定压缩后的文件名 filename

            -z 打包同时压缩

            -x 解包.tar文件

        案例

        (1)压缩:tar -zcvf  XXX.tar.gz  n1.txt    n2.txt

            压缩多个文件

            [root@hadoop003 opt]# tar -zcvf test.tar.gz test1.java test.java

            test1.java

            test.java

            [root@hadoop003 opt]# ls

            test1.java  test.java  test.tar.gz

        压缩目录

        [root@hadoop003 opt]# tar -zcvf test.java.tar.gz test1

        test1/

        test1/hello

        test1/test1.java

        test1/test/

        test1/test/test.java

        [root@hadoop106 opt]# ls

        test1 test.java.tar.gz

    (2)解压:tar -zxvf  XXX.tar.gz,如果有重名,则直接覆盖。

        解压到当前目录

        [root@hadoop003 opt]# tar -zxvf test.tar.gz

        解压到/opt目录

        [root@hadoop003 opt]# tar -zxvf test.tar.gz -C /opt

    【10.3.2】tar.bz2包(bz2包是zip包的升级版)

            (1)压缩  tar -jcvf  XXX.tar.bz2  n1.txt    n2.txt

            (2)解压缩  tar -jxvf  XXX.tar.bz2,如果有重名,则直接覆盖。
        总结:tar 方式Linux中最常用的压缩与解压缩方式,最常用的格式为 .tar.gz 和tar.bz2,与之对应的压缩方式为 tar -zcvf 和 tar -jcvf ,解压缩的方式 tar -zxvf 和tar -jxvf;

【11】 后台服务管理类

    【11.1】 service后台服务管理

        service network status  查看指定服务的状态

        service network stop    停止指定服务

        service network start    启动指定服务

        service network restart  重启指定服务

        service --status-all      查看系统中所有的后台服务

    【11.2】 chkconfig设置后台服务的自启配置

        chkconfig  查看所有服务器自启配置

        chkconfig iptables off  关掉指定服务的自动启动

        chkconfig iptables on  开启指定服务的自动启动

【12】 crond系统定时任务

    【12.1】 crond服务管理

        [root@hadoop003 ~]# service crond restart (重新启动服务)

    【12.2】 crontab定时任务设置

        基本语法

            ontab [选项]

        选项:

      -e:  编辑crontab定时任务

      -l:  查询crontab任务

      -r:  删除当前用户所有的crontab任务

        参数说明

            [root@hadoop003 ~]# crontab -e

    (1)进入crontab编辑界面。会打开vim编辑你的工作。

        * * * * * 执行的任务

        项目  含义  范围

        第一个“*” 一小时当中的第几分钟 0-59

        第二个“*” 一天当中的第几小时 0-23

        第三个“*” 一个月当中的第几天 1-31

        第四个“*” 一年当中的第几月 1-12

        第五个“*” 一周当中的星期几 0-7(0和7都代表星期日)

    (2)特殊符号

    特殊符号 含义

    * 代表任何时间。比如第一个“*”就代表一小时中每分钟都执行一次的意思。

    , 代表不连续的时间。比如“0 8,12,16 * * * 命令”,就代表在每天的8点0分,12点0分,16点0分都执行一次命令

    - 代表连续的时间范围。比如“0 5  *  *  1-6命令”,代表在周一到周六的凌晨5点0分执行命令

    */n 代表每隔多久执行一次。比如“*/10  *  *  *  *  命令”,代表每隔10分钟就执行一遍命令

    (3)特定时间执行命令

        时间  含义

        45 22 * * * 命令 在22点45分执行命令

        0 17 * * 1 命令 每周1 的17点0分执行命令

        0 5 1,15 * * 命令 每月1号和15号的凌晨5点0分执行命令

        40 4 * * 1-5 命令 每周一到周五的凌晨4点40分执行命令

        */10 4 * * * 命令 每天的凌晨4点,每隔10分钟执行一次命令

        0 0 1,15 * 1 命令 每月1号和15号,每周1的0点0分都会执行命令。注意:星期几和几号最好不要同时出现,因为他们定义的都是天。非常容易让管理员混乱。

        案例:

        */1 * * * * /bin/echo `date` >> /tmp/test

你可能感兴趣的:(Linux快速入门常用命令)