你们好,我是AC
东西很多但很详细,一般用到的全在这里了,前面是准备,后面是常用命令及讲解
选择性观看即可
Linux内核最初只是由芬兰人林纳斯·托瓦兹(Linus Torvalds)在赫尔辛基大学上学时出于个人爱好而编写的。
Linux是一套免费使用和自由传播的类Unix操作系统,是一个基于POSIX和UNIX的多用户、多任务、支持多线程和多CPU的操作系统。
Linux能运行主要的UNIX工具软件、应用程序和网络协议。它支持32位和64位硬件。
Linux继承了Unix以网络为核心的设计思想,是一个性能稳定的多用户网络操作系统。
目前市面上较知名的发行版有:Ubuntu、RedHat、CentOS、Debain、Fedora、SuSE、OpenSUSE
如有问为什么使用Linux:免费!、开源!、安全!!
centos下载地址:
网易镜像:http://mirrors.163.com/centos/6/isos/
搜狐镜像:http://mirrors.sohu.com/centos/6/isos/
Linux里面一切皆是文件
Linux里面没有后缀名这一说
目前国内Linux更多的是应用在服务器上,而桌面操作系统更多使用的是windows。主要区别如下。
比较 | Window | Linux |
---|---|---|
界面 | 界面统一,外壳程序固定所有Windows程序菜单几乎一致,快捷键也几乎相同 | 圆形界面风格依发布版本不同而不同,可能互不兼容。GNU/Linux的终端机是从UNIX传承下来,基本命令和操作方法也几乎一致。 |
驱动程序 | 驱动程序丰富,版本更新频繁。默认安装程序里面一般包含有该版本发布时流行的硬件驱动程序,之后所出的新硬件驱动依赖于硬件厂商提供。对于一些老硬件,如果没有了原配的驱动有时候很难支持。另外,有时硬件厂商未提供所需版本的Windows下的驱动,也会比较头痛。 | 由志愿者开发,由Linux核心开发小组发布,很多硬件厂商基于版本考虑并未提供驱动程序,尽管多数无需手动安装,但是涉及安装则相对复杂,使得新用户面对驱动程序问题会一筹莫展。但是在开源开发模式下,许多老硬件尽管在Windows下很难支持的也容易找到驱动。HP、Intel、AMD等硬件厂商逐步不同程序支持开源驱动,问题正在得到缓解。 |
使用 | 使用比较简单,容易入门。 | 圆形化界面对没有计算机背景知识的用户使用十分有利。 |
学习 | 系统构造复杂、变化频繁、且知识、技能淘汰快,深入学习困难 | 系统构造简单、稳定,且知识、技能传承性好,深入学习相对容易 |
软件 | 每一种特定功能可能都需要商业软件的支持,需要购买相应的授权 | 大部分软件都可以自由获取,同样功能的软件选择较少。 |
这个百度就行如果没有的话又懒得话,留言我再整理出来
/bin:是Binary的缩写,这个目录存放着系统必备执行命令
/boot:这里存放的是启动Linux时使用的一些核心文件,包括一些连接文件以及镜像文件,自己的安装别放这里
/dev:Device(设备)的缩写,该目录下存放的是Linux的外部设备,在Linux中访问设备的方式和访问文件的方式是相同的。
/etc:所有的系统管理所需要的配置文件和子目录。
/home:存放普通用户的主目录,在Linux中每个用户都有一个自己的目录,一般该目录名是以用户的账号命名的。
/lib:系统开机所需要最基本的动态连接共享库,其作用类似于Windows里的DLL文件。几乎所有的应用程序都需要用到这些共享库。
/lost+found:这个目录一般情况下是空的,当系统非法关机后,这里就存放了一些文件。
/media:linux系统会自动识别一些设备,例如U盘、光驱等等,当识别后,linux会把识别的设备挂载到这个目录下。
/misc: 该目录可以用来存放杂项文件或目录,即那些用途或含义不明确的文件或目录可以存放在该目录下。
/mnt:系统提供该目录是为了让用户临时挂载别的文件系统的,我们可以将光驱挂载在/mnt/上,然后进入该目录就可以查看光驱里的内容了。
/net 存放着和网络相关的一些文件.
/opt:这是给主机额外安装软件所摆放的目录。比如你安装一个ORACLE数据库则就可以放到这个目录下。默认是空的。
/proc:这个目录是一个虚拟的目录,它是系统内存的映射,我们可以通过直接访问这个目录来获取系统信息。
/root:该目录为系统管理员,也称作超级权限者的用户主目录。
/sbin:s就是Super User的意思,这里存放的是系统管理员使用的系统管理程序。
/selinux:这个目录是Redhat/CentOS所特有的目录,Selinux是一个安全机制,类似于windows的防火墙
/srv:service缩写,该目录存放一些服务启动之后需要提取的数据。
/sys: 这是linux2.6内核的一个很大的变化。该目录下安装了2.6内核中新出现的一个文件系统 sysfs 。
/tmp:这个目录是用来存放一些临时文件的。
/usr: 这是一个非常重要的目录,用户的很多应用程序和文件都放在这个目录下,类似于windows下的program files目录。
/var:这个目录中存放着在不断扩充着的东西,我们习惯将那些经常被修改的目录放在这个目录下。包括各种日志文件。
着重记标记的经常会用到
所有的 Unix Like 系统都会内建 vi 文书编辑器,其他的文书编辑器则不一定会存在。但是目前我们使用比较多的是 vim 编辑器。
Vim 具有程序编辑的能力,可以主动的以字体颜色辨别语法的正确性,方便程序设计。
Vim是从 vi 发展出来的一个文本编辑器。代码补完、编译及错误跳转等方便编程的功能特别丰富,在程序员中被广泛使用。
简单的来说vi 是老式的文字处理器老了
,不过功能已经很齐全了,但是还是有可以进步的地方。vim 则可以说是程序开发者的一项很好用的工具。连vim 的官方网站 (http://www.vim.org) 自己也说 vim 是一个程序开发工具而不是文字处理软件。
总结:编辑用vim就完事了
以 vi 打开一个档案就直接进入一般模式了(这是默认的模式)。在这个模式中, 你可以使用『上下左右』按键来移动光标,你可以使用『删除字符』或『删除整行』来处理档案内容, 也可以使用『复制、贴上』来处理你的文件数据。
常用语法
1)yy (功能描述:复制光标当前一行)
y数字y (功能描述:复制一段(从第几行到第几行,光标闪烁出认为第一行,y2y,即复制光标所在行以及光标下一行))
2)p (功能描述:箭头移动到目的行粘贴粘在光标所在行的下一行)
3)u (功能描述:撤销上一步)
4)dd (功能描述:删除光标当前行)
d数字d (功能描述:删除光标(含)后多少行)
5)shift+^ (功能描述:移动到行头)
6)shift+$ (功能描述:移动到行尾)
7)1+shift+g (功能描述:移动到页头,数字,先按1,再同时按shift+g,注意不是同时按1+shift+g)
8)shift+g (功能描述:移动到页尾)
9)数字N+shift+g (功能描述:移动到目标行)
在一般模式中可以进行删除、复制、贴上等等的动作,但是却无法编辑文件内容的! 要等到你按下『i, I, o, O, a, A, r, R』等任何一个字母之后才会进入编辑模式。
注意了!通常在 Linux 中,按下这些按键时,在画面的左下方会出现『INSERT 或 REPLACE 』的字样,此时才可以进行编辑。而如果要回到一般模式时, 则必须要按下『Esc』这个按键即可退出编辑模式。
常用语法
1)进入编辑模式
(1)i 当前光标前(最常用)
(2)a 当前光标后
(3)o 当前光标行的下一行
2)退出编辑模式,即进入一般模式
按『Esc』键
在一般模式当中,输入『 : / ?』3个中的任何一个按钮,就可以将光标移动到最底下那一行。
在这个模式当中, 可以提供你『搜寻资料』的动作,而读取、存盘、大量取代字符、离开 vi 、显示行号等动作是在此模式中达成的!
常用语法
1)基本语法
(1): 选项
选项:
w 保存
q 退出不保存
! 感叹号强制执行
(2)/ 查找,/被查找词,n是查找下一个,shift+n是往上查找
2)案例
:wq! 强制保存退出
:q! 不保存文件,强制退出vi
按下esc键退回到一般模式,然后按下Shift+z+z实现快速保存(只能够保存非只读文件,对于只读文件,还是需要wq!来保存)。
区别:/是向下查找,?是向上查找
1)查看虚拟网络编辑器
2)查看子网
安装完vmware之后,自动随机(每个人可能不一样)分配了一个子网,我的是192.168.66.0子网。
3)设置网关
根据我们的子网,设置子网的第2个ip地址为网关,即192.168.66.2。
4)设置dhcp
设置dhcp为虚拟机随机分配的ip地址范围为192.168.66.3-254,这样我们安装的虚拟机就能自动获取到这个范围的ip地址。
1)查看当前ip基本语法:
[root@myhadoop ~]# ifconfig
[root@myhadoop /]#vim /etc/sysconfig/network-scripts/ifcfg-eth0
需要修改或者新加的内容有5项,对比之前的并且根据自己刚才自动生成的子网来确定。
DEVICE=eth0
HWADDR=00:0C:29:08:66:F1
TYPE=Ethernet
UUID=9ff9f98d-8cc0-4223-9c16-685028627623
ONBOOT=yes
NM_CONTROLLED=yes
BOOTPROTO=static
IPADDR=192.168.66.3
GATEWAY=192.168.66.2
DNS1=192.168.66.2
修改完成后:wq 保存退出
3)执行service network restart重启网络服务
4)如果报错,reboot,重启虚拟机
5)网络连通测试
用ping命令,可以看到能访问百度,或者直接在虚拟机打开火狐浏览器能访问网页(比较low)
0)查看主机名基本语法:
[root@myhadoop /]#hostname
1)修改linux的主机映射文件(hosts文件)
(1)进入Linux系统查看本机的主机名。通过hostname命令查看
[root@hadoop003 ~]# hostname
myhadoop
(2)如果感觉此主机名不合适,我们可以进行修改。通过编辑**/etc/sysconfig/network**文件
[root@hadoop003 /]# vi /etc/sysconfig/network
文件中内容
NETWORKING=yes
NETWORKING_IPV6=no
HOSTNAME= hadoop003
注意:主机名称不要有“_”下划线
(3)打开此文件后,可以看到主机名。修改此主机名为我们想要修改的主机名hadoop003。
(4)保存退出。
(5)打开/etc/hosts
[root@hadoop003 /]# vim /etc/hosts
添加如下内容
192.168.66.3 hadoop003
(6)并重启设备,重启后,查看主机名,已经修改成功
2)修改window7的主机映射文件(hosts文件) (1)进入C:\Windows\System32\drivers\etc路径 (2)打开hosts文件并添加如下内容 192.168.66.3 hadoop003 192.168.66.4 hadoop004 192.168.66.5 hadoop005
1)基本语法:
service iptables status (功能描述:查看防火墙状态)
chkconfig iptables --list (功能描述:查看防火墙开机启动状态)
service iptables stop (功能描述:临时关闭防火墙)
chkconfig iptables off (功能描述:关闭防火墙开机启动)
chkconfig iptables on (功能描述:开启防火墙开机启动)
如果用不到防火墙,将其关闭,chkconfig iptables off,然后记得重启一下
2)扩展
Linux系统有7个运行级别(runlevel)
运行级别0:系统停机状态,系统默认运行级别不能设为0,否则不能正常启动
运行级别1:单用户工作状态,root权限,用于系统维护,禁止远程登陆
运行级别2:多用户状态(没有NFS)
运行级别3:完全的多用户状态(有NFS),登陆后进入控制台命令行模式
运行级别4:系统未使用,保留
运行级别5:X11控制台,登陆后进入图形GUI模式
运行级别6:系统正常关闭并重启,默认运行级别不能设为6,否则不能正常启动
在linux领域内大多用在服务器上,很少遇到关机的操作。毕竟服务器上跑一个服务是永无止境的,除非特殊情况下,不得已才会关机 。
正确的关机流程为:sync > shutdown > reboot > halt
1)基本语法:
(1)sync (功能描述:将数据由内存同步到硬盘中)
(2)shutdown [选项] 时间
选项:
-h:关机
-r:重启
(3)halt (功能描述:关闭系统,等同于shutdown -h now 和 poweroff)
(4)reboot (功能描述:就是重启,等同于 shutdown -r now)
2)案例
(1)将数据由内存同步到硬盘中
[root@hadoop003 /]#sync
(2)计算机将在10分钟后关机,并且会显示在登录用户的当前屏幕中
[root@hadoop003 /]#shutdown -h 10 ‘This server will shutdown after 10 mins’
(3)立马关机
[root@hadoop003 /]# shutdown -h now
(4)系统立马重启
[root@hadoop003 /]# shutdown -r now
(5)重启(等同于 shutdown -r now)
[root@hadoop003 /]# reboot
(6)关机(等同于shutdown -h now 和 poweroff)
[root@hadoop003 /]#halt
注意:不管是重启系统还是关闭系统,首先要运行sync命令,把内存中的数据写到磁盘中,这个了解就行知道怎么开关机就行
重新安装系统吗?当然不用!进入单用户模式更改一下root密码即可。思路是:先临时修改启动级别从quiet到single,然后在single模式下修改密码,重启后生效。
1)重启Linux,见到下图,在3秒钟之内按下回车
2)三秒之内要按一下回车,出现如下界面
3)按下e键就可以进入下图
4)移动到下一行,再次按e键
5)移动到下一行,进行修改
修改完成后回车键,然后按b键进行重新启动进入系统
6)移动到下一行,进行修改
最终修改完密码,reboot一下即可。
密码都忘,出去把门带上,去财务领你工资
Linux远程登录及相关工具介绍
Linux一般作为服务器使用,而服务器一般放在机房,你不可能在机房操作你的Linux服务器。
这时我们就需要远程登录到Linux服务器来管理维护系统。
Linux系统中是通过SSH服务实现的远程登录功能,默认ssh服务端口号为 22。Window系统上 Linux 远程登录客户端有SecureCRT, Putty, SSH Secure Shell,XShell等。可以使用便携版SecureCRSecureFXPortable也可以自己手动安装(需要进行破解)。
1.接受协议
2.为哪些用户安装,第一个选项是为所有用户,第二个是为当前用户
3.定制化安装
4.指定安装路径
5.在开始菜单和桌面创建快捷方式
6.完成安装,会在桌面上看到图标。
这个如果真的有需要了解的底下留言,我再发吧
在SecureCRT软件中,鼠标选中内容即可复制内容。那么如何粘贴呢?
在选项->全局选项->终端->粘贴按钮设置(中和右)
(1)如果鼠标配置的是——右
点击鼠标右键就可以粘贴内容到secureCRT命令行窗口。
(2)如果鼠标配置的是——中
点击鼠标右键,弹出对话框,点击对话框中的粘贴项,才能粘贴。
1)重新查看会话,是否中文显示正常
2)依然无法正常显示中文,可能是由于Linux系统中默认的字符编码非UTF8所致
用root用户登录。输入cat /etc/sysconfig/i18n
如果安装系统为中文系统,则修改【LANG=“zh_CN.UTF-8”】
如果安装系统为英文系统,则修改【LANG=“en_US.UTF-8”】
保存文件。 断开SSH,重新登录。就正常了
下面是修改后的查看
[root@hadoop003 ~]# cat /etc/sysconfig/i18n
LANG=“zh_CN.UTF-8”
3)调整设置CRT解决
6.6 字体即其背景设置
字体颜色什么背景花里胡哨的,你爱怎么设怎么设只要你开心
7.1.1 man 获得帮助信息
1)基本语法:
man [命令或配置文件] (功能描述:获得帮助信息)有事找男人
(1)显示说明
NAME 命令的名称和单行描述
SYNOPSIS 怎样使用命令
DESCRIPTION 命令功能的深入讨论
EXAMPLES 怎样使用命令的例子
SEE ALSO 相关主题(通常是手册页)
(2)数字说明q
1.用户在shell环境中可以操作的命令或是可执行的文件
2.系统内核(kernel)可以调用的函数
3.常用的函数or函数库
4.设备配置文件
5.配置文件的格式
6.游戏相关
7.linux网络协议和文件系统
8.系统管理员可以用的命令
9.跟内核有关系的文件
(3)按q退出man帮助
2)案例
[root@hadoop106 home]# man ls
你好man,要啥有啥
了解shell点这里
1)基本语法:
help 命令 (功能描述:获得shell内置命令的帮助信息)
2)案例:
[root@hadoop003 bin]# help cd
1)ctrl + c:停止进程
2)ctrl+l:清屏
3)善于用tab键 补全就完事了
4)上下键:查找执行过的命令
1)基本语法:
pwd (功能描述:显示当前工作目录的绝对路径)
2)案例
[root@hadoop003 home]# pwd
/home
1)基本语法:
ls [选项] [目录或是文件]
选项:
-a :all,全部的文件,连同隐藏的文档( 开头为 . 的文件) 一起列出来(常用)
-l :长数据串列出,包含文件的属性与权限等等数据;(常用)
每行列出的信息依次是: 文件类型与权限 链接数 文件属主 文件属组 文件大小用byte来表示 建立或最近修改的时间 名字
等同于ll命令
2)案例
[hadoop@hadoop003 ~]$ ls -al
总用量 44
drwx------. 5 hadoop hadoop 4096 5月 27 15:15 .
drwxr-xr-x. 3 root root 4096 5月 27 14:03 ..
drwxrwxrwx. 2 root root 4096 5月 27 14:14 hello
-rwxrw-r--. 1 hadoop hadoop 34 5月 27 14:20 test.txt
1)基本语法:
mkdir [-p] 要创建的目录
选项:
-p:创建多层目录
2)案例
[root@hadoop003 opt]# mkdir test
[root@hadoop003 opt]# mkdir -p user/hadoop
1)基本语法:
rmdir 要删除的空目录,remove 即移除
2)案例
[root@hadoop003 opt]# mkdir test
[root@hadoop003 opt]# rmdir test
1)基本语法:
touch 文件名称
2)案例
[root@hadoop003 opt]# touch test.java
1)基本语法:
(1)cd 绝对路径
(2)cd 相对路径
(3)cd ~或者cd (功能描述:回到自己的家目录)
(4)cd - (功能描述:回到上一次所在目录)
(5)cd … (功能描述:回到当前目录的上一级目录)
(6)cd . (功能描述:回到当前目录)
.即一个英文点号代表当前目录,…即两个英文点号代表上一级目录。
2)案例
(1)使用 mkdir 命令创建hadoop目录
[root@hadoop003 ~]# mkdir hadoop
(2)使用绝对路径切换到hadoop目录
[root@hadoop003 ~]# cd /root/hadoop/
(3)使用相对路径切换到hadoop目录
[root@hadoop003 ~]# cd ./hadoop/
(4)表示回到自己的家目录,亦即是 /root 这个目录
[root@hadoop003 hadoop]# cd ~
(5)cd- 回到上一次所在目录
[root@hadoop003 hadoop]# cd -
(6)表示回到当前目录的上一级目录,亦即是 /root 的上一级目录的意思;
[root@hadoop003 ~]# cd ..
1)基本语法:
(1)cp source dest (功能描述:复制source文件到dest)
(2)cp -r sourceFolder targetFolder (功能描述:递归复制整个文件夹)
注意:r即recursive递归,这里是递归拷贝,将该目录以及所有子目录(包括再多的子目录)下的所有文件即文件夹都拷贝
2)案例
(1)复制文件
[root@hadoop003 opt]# cp test.java test
(2)递归复制整个文件夹
[root@hadoop003 opt]# cp -r test test1
删库跑路必备技能
1)基本语法
(1)rmdir deleteEmptyFolder (功能描述:删除空目录),缺点:只能删除空目录。
(2)rm -rf deleteFile (功能描述:递归删除目录中所有内容)慎用
2)案例
1)删除空目录
[root@hadoop003 opt]# rmdir test
2)递归删除目录中所有内容
[root@hadoop003 opt]# rm -rf test1
7.2.9 mv 移动文件与目录或重命名
1)基本语法:
(1)mv oldNameFile newNameFile (功能描述:重命名)
(2)mv /temp/movefile /targetFolder (功能描述:递归移动文件)
2)案例:
1)重命名
[root@hadoop003 opt]# mv test.java test1.java
2)移动文件
[root@hadoop003 opt]# mv test1.java test1
重命名:
这个rename缺点:参数太多,容易引起歧义,不建议使用
查看文件内容,从第一行开始显示。
适合查看小文件,行数比较少的文件,通常用来查看配置文件。
1)基本语法
cat [选项] 要查看的文件
选项:
-A :相当于 -vET 的整合选项,可列出一些特殊字符而不是空白而已;
-b :列出行号,仅针对非空白行做行号显示,空白行不标行号!
-E :将结尾的断行字节 $ 显示出来;
-n :列出行号,连同空白行也会有行号,与 -b 的选项不同;
-T :将 [tab] 按键以 ^I 显示出来;
-v :列出一些看不出来的特殊字符
2)案例
[hadoop@hadoop003 ~]$ cat -A test.txt
hellda $
dasadf ^I$
da^I^I^I$
das$
3)面试题:查看CentOS版本命令
[hadoop@hadoop003 桌面]$ cat /etc/redhat-release
CentOS release 6.8 (Final)
查看文件内容,从最后一行开始显示,按行倒序显示,可以看出 tac 是 cat 的倒著写。
1)基本语法:
tac [选项参数] 要查看的文件
2)案例
[root@hadoop003 test1]# cat test1.java
hello
hadoop
hadoop1
[root@hadoop003 test1]# tac test1.java
hadoop1
hadoop
hello
查看文件内容,一页一页的显示文件内容。
1)基本语法:
more 要查看的文件
2)功能使用说明
空白键 (space):代表向下翻一页;
Enter:代表向下翻『一行』;
q代表立刻离开 more ,不再显示该文件内容。
Ctrl+F (注意是大写)向下滚动一屏
Ctrl+B 返回上一屏
= 输出当前行的行号
3)案例
[root@hadoop003 test1]# more test1.java
less 的作用与 more 十分相似,都可以用来浏览文字档案的内容,不同的是 less 允许使用[pageup] [pagedown]往回滚动。
说到这里那more就是个弟弟呀!!!…要这么说好像是的
1)基本语法:
less 要查看的文件
2)功能使用说明
空白键 :向下翻动一页;
[pagedown]:向下翻动一页;
[pageup] :向上翻动一页;
/字串 :向下搜寻『字串』的功能;n:向下查找;N:向上查找;
?字串 :向上搜寻『字串』的功能;n:向上查找;N:向下查找;
q :离开 less 这个程序;
3)案例
[root@hadoop003 test1]# less test1.java
查看文件内容,只看头几行,优点:对于大文件不必都加载,只显示头几行即可。
1)基本语法
head -n 10 文件 (功能描述:查看文件头10行内容,10可以是任意行数)
2)案例
[root@hadoop003 test1]# head -n 2 test1.java
hello
hadoop
查看文件内容,只看尾巴几行,优点:可以查看文件实时追加的内容。
1)基本语法
(1)tail -n 10 文件 (功能描述:查看文件头(从末尾开始数)10行内容,10可以是任意行数)
(2)tail -f 文件 (功能描述:实时追踪该文档的所有更新)
2)案例
(1)查看文件头1行内容
[root@hadoop003 test1]# tail -n 1 test1.java
Hadoop
(2)实时追踪该档的所有更新,可用后边的crontab定时追加内容验证一下
[root@hadoop003 test1]# tail -f test1.java
hello
hadoop
hadoop
1)基本语法:
(1)ls -l >a.txt文件 (功能描述:列表的内容写入文件a.txt中(覆盖写))
(2)ls -al >>a.txt文件 (功能描述:列表的内容追加到文件aa.txt的末尾)
2)案例
(1)[root@hadoop003 opt]# ls -l>t.txt
(2)[root@hadoop003 opt]# ls -l>>t.txt
(3)[root@hadoop003 test1]# echo hello>>test1.java
简单理解就是输出字符
1)基本语法:
(1)echo 要显示的内容 >> 存储内容的的文件 (功能描述:将要显示的内容,存储到文件中)
(2)echo 变量 (功能描述:显示变量的值)
2)案例
[root@hadoop003 test1]# echo $JAVA_HOME
/opt/module/jdk1.8.0_144
1)基本语法:
ln -s [原文件] [目标文件] (功能描述:给原文件创建一个软链接,软链接存放在目标文件目录)
删除软链接(如果是文件夹的话,要注意没有最后的/): rm -rf hadoop,而不是rm -rf hadoop/
2)案例:
[root@hadoop003 module]# ln -s /opt/module/test.txt /opt/t.txt
[root@hadoop003 opt]# ll
lrwxrwxrwx. 1 root root 20 6月 17 12:56 t.txt -> /opt/module/test.txt
创建一个软链接
[hadoop@hadoop003 opt]$ ln -s /opt/module/hadoop-2.7.2/ /opt/software/hadoop
cd不加参数进入是软链接的地址
[hadoop@hadoop003 software]$ cd hadoop
[hadoop@hadoop003 hadoop]$ pwd
/opt/software/hadoop
cd加参数进入是实际的物理地址
[hadoop@hadoop003 software]$ cd -P hadoop
[hadoop@hadoop003 hadoop-2.7.2]$ pwd
/opt/module/hadoop-2.7.2
1)基本语法:
history
2)案例
[root@hadoop003 test1]# history
话说怎么把历史清了呢,我这么保护隐私的人
1)基本语法
date [OPTION]... [+FORMAT]
1)基本语法:注意命令与参数之间有空格
(1)date (功能描述:显示当前时间)
(2)date +%Y (功能描述:显示当前年份)
(3)date +%m (功能描述:显示当前月份)
(4)date +%d (功能描述:显示当前是哪一天)
(5)date +%Y%m%d … (功能描述:显示当前年月日各种格式 )
(6)date “+%Y-%m-%d %H:%M:%S” 或者单引号也可以 (功能描述:显示年月日时分秒)
2)案例
[root@hadoop003 /]# date
2019年 12月 22日 星期日 13:50:30 CST
[root@hadoop003 /]# date +%Y%m%d
20191222
[root@hadoop003 /]# date "+%Y-%m-%d %H:%M:%S"
2019-12-22 13:52:11
显示的是字符串描述的时间,不是当前时间。
1)基本语法:
(1)date -d ‘1 days ago’ (功能描述:显示前一天日期)
(2)date -d yesterday +%Y%m%d (同上)
(3)date -d next-day +%Y%m%d (功能描述:显示明天日期)
(4)date -d ‘next monday’ (功能描述:显示下周一时间)
2)案例:
[root@hadoop003 /]# date -d '1 days ago'
2019年 12月 21日 星期六 13:53:51 CST
[root@hadoop003 /]# date -d next-day +%Y%m%d
20191223
[root@hadoop003 /]# date -d 'next monday'
2019年 12月 23日 星期一 00:00:00 CST
1)基本语法:
date -s 字符串时间
2)案例
[root@hadoop106 /]# date -s "2020-05-21 20:52:18"
这个看个人需求来写
1)基本语法:
cal [选项] (功能描述:不加选项,显示本月日历)
选项:
-3 ,显示系统前一个月,当前月,下一个月的日历
具体某一年,显示这一年的日历。
2)案例:
[root@hadoop003 /]# cal
[root@hadoop003 /]# cal -3
[root@hadoop003 /]# cal 2019
话说这有什么用吗。。我…暂时不知道
1)基本语法:
useradd 用户名 (功能描述:添加新用户)
2)案例:
[root@hadoop003 opt]# useradd hadoop
7.4.2 passwd 设置用户密码
1)基本语法:
passwd 用户名 (功能描述:设置用户密码)
2)案例
[root@hadoop003 opt]# passwd hadoop
1)基本语法:
id 用户名
2)案例:
[root@hadoop003 opt]#id hadoop
1)基本语法:
su 用户名称 (功能描述:切换用户,只能获得用户的执行权限,不能获得环境变量)
su - 用户名称 (功能描述:切换到用户并获得该用户的环境变量及执行权限)
2)案例
[root@hadoop003 opt]#su hadoop
[root@hadoop003 opt]#su - hadoop
1)基本语法:注意区别
(1)userdel 用户名 (功能描述:删除用户但保存用户主目录)
(2)userdel -r 用户名 (功能描述:用户和用户主目录,都删除)
2)案例:
(1)删除用户但保存用户主目录
[root@hadoop003 opt]#userdel hadoop
(2)删除用户和用户主目录,都删除
[root@hadoop003 opt]#userdel -r hadoop
实际我应该没什么机会去删别人的,倒是有机会被删,暂时没用
1)基本语法
(1)whoami (功能描述:显示自身用户名称)
(2)who am i (功能描述:显示登录用户的用户名)
(3)who (功能描述:看当前有哪些用户登录到了本台机器上)
2)案例
[root@hadoop003 opt]# whoami
root
[root@hadoop003 opt]# who am i
root pts/1 2019-12-22 13:53 (:0.0)
[root@hadoop003 opt]# who
root tty1 2019-12-18 08:37 (:0)
root pts/1 2019-12-22 13:53 (:0.0)
1)修改配置文件
修改 /etc/sudoers 文件,找到下面一行,在root下面添加一行,如下所示:
## Allow root to run any commands anywhere
root ALL=(ALL) ALL
hadoop ALL=(ALL) ALL
或者配置成采用sudo命令时,不需要输入密码
## Allow root to run any commands anywhere
root ALL=(ALL) ALL
hadoop ALL=(ALL) NOPASSWD:ALL
修改完毕,现在可以用hadoop帐号登录,然后用命令 su - ,即可获得root权限进行操作。
2)案例
[hadoop@hadoop003 opt]$ sudo mkdir module
[root@hadoop003 opt]# chown hadoop:hadoop module/
cat /etc/passwd
1)基本语法:
usermod -g 用户组 用户名
2)案例:
将用户hadoop加入mygroup用户组
[root@hadoop003 opt]#usermod -g mygroup hadoop
每个用户都有一个用户组,系统可以对一个用户组中的所有用户进行集中管理。不同Linux 系统对用户组的规定有所不同,
如Linux下的用户属于与它同名的用户组,这个用户组在创建用户时同时创建。
用户组的管理涉及用户组的添加、删除和修改。组的增加、删除和修改实际上就是对/etc/group文件的更新。
1)基本语法
groupadd 组名
2)案例:
添加一个hadoop组
[root@hadoop003 opt]#groupadd hadoop
1)基本语法:
groupdel 组名
2)案例
[root@hadoop003 opt]# groupdel hadoop
1)基本语法:
groupmod -n 新组名 老组名
2)案例
修改hadoop组名称为hadoop1
[root@hadoop003 hadoop]# groupmod -n hadoop1 hadoop
cat /etc/group
[root@hadoop003 hadoop]# groupadd dev
[root@hadoop003 hadoop]# groupmod -n device dev
[root@hadoop003 hadoop]# usermod -g device hadoop
[root@hadoop003 hadoop]# su hadoop
[hadoop@hadoop003 ~]$ mkdir hadoop
[hadoop@hadoop003 ~]$ ls -l
drwxr-xr-x. 2 hadoop device 4096 12月 22 14:00 hadoop
[root@hadoop003 hadoop]# usermod -g hadoop hadoop
这一节,一般都不会用到的,暂时没用
Linux系统是一种典型的多用户系统,不同的用户处于不同的地位,拥有不同的权限。为了保护系统的安全性,Linux系统对不同的用户访问同一文件(包括目录文件)的权限做了不同的规定。在Linux中我们可以使用ll或者ls –l命令来显示一个文件的属性以及文件所属的用户和组。
1)从左到右的10个字符表示:
如果没有权限,就会出现减号[ - ]而已。从左至右用0-9这些数字来表示:
(1)0首位表示类型
在Linux中第一个字符代表这个文件是目录、文件或链接文件等等
- 代表文件
d 代表目录
c 字符流,装置文件里面的串行端口设备,例如键盘、鼠标(一次性读取装置)
s socket
p 管道
l 链接文档(link file);
b 设备文件,装置文件里面的可供储存的接口设备(可随机存取装置)
(2)第1-3位确定属主(该文件的所有者)拥有该文件的权限。—User
(3)第4-6位确定属组(所有者的同组用户)拥有该文件的权限,—Group
(4)第7-9位确定其他用户拥有该文件的权限 —Other
文件类型 | 属主权限 | 属组权限 | 其他用户权限 |
---|---|---|---|
0 | 1 2 3 | 4 5 6 | 7 8 9 |
d | R w x | R - x | R - x |
目录文件 | 读 写 执行 | 读 写 执行 | 读 写 执行 |
2)rxw作用文件和目录的不同解释
(1)作用到文件:
[ r ]代表可读(read): 可以读取,查看
[ w ]代表可写(write): 可以修改,但是不代表可以删除该文件,删除一个文件的前提条件是对该文件所在的目录有写权限,才能删除该文件.
[ x ]代表可执行(execute):可以被系统执行
(2)作用到目录:
[ r ]代表可读(read): 可以读取,ls查看目录内容
[ w ]代表可写(write): 可以修改,目录内创建+删除+重命名目录
[ x ]代表可执行(execute):可以进入该目录
3)案例
[hadoop@hadoop003 ~]$ ls -l
总用量 8
drwxrwxr-x. 2 hadoop hadoop 4096 12月 22 14:14 hello
-rw-rw-r--. 1 hadoop hadoop 34 12月 22 14:20 test.txt
(1)如果查看到是文件:链接数指的是硬链接个数。所谓硬链接就是原来文件的一个副本,其中任何一个修改,另外一个也会跟着改,创建硬链接方法
ln [原文件] [目标文件]
[root@hadoop003 xiyou]# ln sunhouzi/shz.txt ./shz.txt
[root@hadoop003 xiyou]# ls -al hadoop/
总用量 8
drwxr-xr-x. 2 root root 4096 9月 3 19:02 .
drwxr-xr-x. 5 root root 4096 9月 3 21:21 ..
如果某个文件夹是空的,其实里面也有两个目录,一个点代表当前目录,两个点代表父级目录
文件属性信息这个是常识,必须知道
1)基本语法:
chmod [{ugoa}{±=}{rwx}] [文件或目录] [mode=421 ] [文件或目录]
101 可读、不可写,可执行 十进制5
111 可读、可写,可执行 十进制7
用户 同组用户 其他用户
可读、可写,可执行 可读、可写,不可执行 可读、不可写,可执行
4+2+1 7 4+2+0 4+0+1 即765
2)功能描述
改变文件或者目录权限
文件: r-查看;w-修改;x-执行文件
目录: r-列出目录内容;w-在目录中创建和删除;x-进入目录
删除一个文件的前提条件:该文件所在的目录有写权限,你才能删除该文件。
3)案例
[root@hadoop003 test1]# chmod u+x test1.java
[root@hadoop003 test1]# chmod g+x test1.java
[root@hadoop003 test1]# chmod o+x test1.java
[root@hadoop003 test1]# chmod 777 test1.java
[root@hadoop003 test1]# chmod -R 777 testdir
这个权限是二进制,有是1无权限是0,111转化就是7。r等于4,w等于2,e等于1就是777
1)基本语法:
chown [最终用户] [文件或目录] (功能描述:改变文件或者目录的所有者) change owner
2)案例
[root@hadoop003 test1]# chown hadoop test1.java
[root@hadoop003 test1]# ls -al
-rwxr-xr-x. 1 hadoop hadoop 551 5月 23 13:02 test1.java
修改前:
[root@hadoop003 xiyou]# ll
drwxrwxrwx. 2 root root 4096 9月 3 21:20 sunhouzi
修改后
[root@hadoop003 xiyou]# chown -R hadoop:hadoop sunhouzi/
[root@hadoop003 xiyou]# ll
drwxrwxrwx. 2 hadoop hadoop 4096 9月 3 21:20 sunhouzi
1)基本语法:
chgrp [最终用户组] [文件或目录] (功能描述:改变文件或者目录的所属组)
2)案例
[root@hadoop003 test1]# chgrp hadoop test1.java
[root@hadoop003 test1]# ls -al
-rwxr-xr-x. 1 root hadoop 551 5月 23 13:02 test1.java
1)基本语法:
su -username (功能描述:切换用户)
2)案例
[root@hadoop003 hadoop]# su hadoop
[hadoop@hadoop003 ~]$
[hadoop@hadoop003 ~]$ su root
密码:
[root@hadoop003 hadoop]#
1)基本语法:
fdisk -l (功能描述:查看磁盘分区详情)
注意:在root用户下才能使用
2)功能说明:
(1)Linux分区
这个硬盘是20G的,有255个磁面;63个扇区;2610个磁柱;每个 cylinder(磁柱)的容量是 8225280 bytes=8225.280 K(约为)=8.225280M(约为);
Device | Boot | Start | End | Blocks | Id | System |
---|---|---|---|---|---|---|
分区序列 | 引导 | 从X磁柱开始 | 到Y磁柱结束 | 容量 | 分区类型ID | 分区类型 |
案例:
[root@hadoop003 /]# fdisk -l
Disk /dev/sda: 21.5 GB, 21474836480 bytes
255 heads, 63 sectors/track, 2610 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x0005e654
Device Boot Start End Blocks Id System
/dev/sda1 * 1 26 204800 83 Linux
Partition 1 does not end on cylinder boundary.
/dev/sda2 26 1332 10485760 83 Linux
/dev/sda3 1332 1593 2097152 82 Linux swap / Solaris
1)基本语法:
df 参数 (功能描述:列出文件系统的整体磁盘使用量,检查文件系统的磁盘空间占用情况)
参数:
-a :列出所有的文件系统,包括系统特有的 /proc 等文件系统;
-k :以 KBytes 的容量显示各文件系统;
-m :以 MBytes 的容量显示各文件系统;
-h :以人们较易阅读的 GBytes, MBytes, KBytes 等格式自行显示;
-H :以 M=1000K 取代 M=1024K 的进位方式;
-T :显示文件系统类型,连同该 partition 的 filesystem 名称 (例如 ext3) 也列出;
-i :不用硬盘容量,而以 inode 的数量来显示
2)案例
[root@hadoop003 ~]# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/sda2 15G 3.5G 11G 26% /
tmpfs 939M 224K 939M 1% /dev/shm
/dev/sda1 190M 39M 142M 22% /boot
Du -sh ./* 查看目录占用空间的情况,便于找出占用空间多的文件
对于Linux用户来讲,不论有几个分区,分别分给哪一个目录使用,它总归就是一个根目录、一个独立且唯一的文件结构
Linux中每个分区都是用来组成整个文件系统的一部分,她在用一种叫做“挂载”的处理方法,它整个文件系统中包含了一整套的文件和目录,并将一个分区和一个目录联系起来,要载入的那个分区将使它的存储空间在这个目录下获得。
0)挂载前准备(必须要有光盘或者已经连接镜像文件)
1)挂载光盘语法:
mount [-t vfstype] [-o options] device dir
(1)-t vfstype 指定文件系统的类型,通常不必指定。mount 会自动选择正确的类型。
常用类型有:
光盘或光盘镜像:iso9660
DOS fat16文件系统:msdos
Windows 9x fat32文件系统:vfat
Windows NT ntfs文件系统:ntfs
Mount Windows文件网络共享:smbfs
UNIX(LINUX) 文件网络共享:nfs
(2)-o options 主要用来描述设备或档案的挂接方式。常用的参数有:
loop:用来把一个文件当成硬盘分区挂接上系统
ro:采用只读方式挂接设备
rw:采用读写方式挂接设备
iocharset:指定访问文件系统所用字符集
(3)device 要挂接(mount)的设备
(4)dir设备在系统上的挂接点(mount point)
2)案例
(1)光盘镜像文件的挂载
建立挂载点
[root@hadoop003 ~]# mkdir /mnt/mycdrom/
设备/dev/cdrom挂载到 挂载点 : /mnt/mycdrom中
[root@hadoop003 ~]# mount -t iso9660 /dev/cdrom /mnt/mycdrom/
[root@hadoop003 ~]# ll /mnt/mycdrom/
3)卸载光盘语法:
[root@hadoop003 ~]# umount
设备文件名或挂载点
卸载时,如果该目录正在被使用,可能无法卸载。
解决:用该命令fuser - identify processes using files or sockets找出占用的进程
假设现在 mount 起来的目录是 /media/share
* 查询: fuser -m /media/share
* 显示: /media/share: 25023c
就代表是 process 25023(pid) 有使用到此目录, 后面 c 代表的意思可参考下述:
* c: current directory.
* e: executable being run.
* f: open file. f is omitted in default display mode.
* F: open file for writing. F is omitted in default display mode.
* r: root directory.
* m: mmap’ed file or shared library.
要把这个资源释放的话, 可以有下述做法:
* kill -9 25023 # ps aux | grep 25023 应该就会看到它
* fuser -m -v -i -k /media/share # 会问你是不是要把 25023 这个 kill 掉, 选 y 就会 kill 掉
提示信息如下:
USER PID ACCESS COMMAND
/meida/share: root 25023 …c… bash
Kill process 25023 ? (y/N) y
如果这样仍然不能解决,可以不通过secureCRT,直接进入虚拟机卸载。
4)案例
[root@hadoop003 ~]# umount /mnt/mycdrom
5)开机自动挂载语法:
[root@hadoop003 ~]# vi /etc/fstab
1)基本语法:
find [搜索范围] [匹配条件]
locate
2)案例
(1)按文件名:根据名称查找/opt目录下的filename.txt文件。
[root@hadoop003 ~]# find /opt/ -name *.txt
(2)按拥有者:查找/opt目录下,所有者为hadoop的文件
[root@hadoop003 ~]# find /opt/ -user hadoop
(3)按文件大小:在/home目录下查找大于200m的文件(+n 大于 -n小于 n等于)
[root@hadoop003 ~]find /home -size +204800
0)管道符,“|”,表示将前一个命令的处理结果输出传递给后面的命令处理
1)基本语法
grep+参数+查找内容+源文件
参数:
-c:只输出匹配行的计数。
-I:不区分大小写(只适用于单字符)。
-h:查询多文件时不显示文件名。
-l:查询多文件时只输出包含匹配字符的文件名。
-n:显示匹配行及行号。
-s:不显示不存在或无匹配文本的错误信息。
-v:显示不包含匹配文本的所有行。
2)案例
[root@hadoop003 opt]# ls | grep -n test
4:test1
5:test2
|管道符,多于grep一起黄金搭档
1)基本语法:
which 命令 (功能描述:搜索命令所在目录及别名信息)
2)案例
[root@hadoop003 opt]# which ls
/bin/ls
进程是正在执行的一个程序或命令,每一个进程都是一个运行的实体,都有自己的地址空间,并占用一定的系统资源。
1)基本语法:
ps -aux (功能描述:查看系统中所有进程) ps -ef
2)功能说明
USER:该进程是由哪个用户产生的
PID:进程的ID号
%CPU:该进程占用CPU资源的百分比,占用越高,进程越耗费资源;
%MEM:该进程占用物理内存的百分比,占用越高,进程越耗费资源;
VSZ:该进程占用虚拟内存的大小,单位KB;
RSS:该进程占用实际物理内存的大小,单位KB;
TTY:该进程是在哪个终端中运行的。其中tty1-tty7代表本地控制台终端,tty1-tty6是本地的字符界面终端,tty7是图形终端。pts/0-255代表虚拟终端。
STAT:进程状态。常见的状态有:R:运行、S:睡眠、T:停止状态、s:包含子进程、+:位于后台
START:该进程的启动时间
TIME:该进程占用CPU的运算时间,注意不是系统时间
COMMAND:产生此进程的命令名
3)案例
[root@hadoop003 datas]# ps -aux
1)基本命令
top [选项]
(1)选项:
-d 秒数:指定top命令每隔几秒更新。默认是3秒。
-i:使top不显示任何闲置或者僵死进程。
-p:通过指定监控进程ID来仅仅监控某个进程的状态。
(2)操作选项,即在执行top命令之后,与top命令进行交互:
P: 以CPU使用率排序,默认就是此项
M: 以内存的使用率排序
N: 以PID排序
q: 退出top
(3)查询结果字段解释
第一行信息为任务队列信息
内容 | 说明 |
---|---|
12:26:46 | 系统当前时间 |
up 1 day, 13:32 | 系统的运行时间,本机已经运行1天13小时32分钟 |
2 users | 当前登录了两个用户 |
load average: 0.00, 0.00, 0.00 | 系统在之前1分钟,5分钟,15分钟的平均负载。一般认为小于1时,负载较小。如果大于1,系统已经超出负荷。 |
第二行为进程信息
Tasks: 95 total | 系统中的进程总数 |
---|---|
1 running | 正在运行的进程数 |
94 sleeping | 睡眠的进程 |
0 stopped | 正在停止的进程 |
0 zombie | 僵尸进程。如果不是0,需要手工检查僵尸进程 |
第三行为CPU信息
Cpu(s): 0.1%us | 用户模式占用的CPU百分比 |
---|---|
0.1%sy | 系统模式占用的CPU百分比 |
0.0%ni | 改变过优先级的用户进程占用的CPU百分比 |
99.7%id | 空闲CPU的CPU百分比 |
0.1%wa | 等待输入/输出的进程的占用CPU百分比 |
0.0%hi | 硬中断请求服务占用的CPU百分比 |
0.1%si | 软中断请求服务占用的CPU百分比 |
0.0%st | st(Steal time)虚拟时间百分比。就是当有虚拟机时,虚拟CPU等待实际CPU的时间百分比。 |
第四行为物理内存信息
Mem: 625344k total | 物理内存的总量,单位KB |
---|---|
571504k used | 已经使用的物理内存数量 |
53840k free | 空闲的物理内存数量,我们使用的是虚拟机,总共只分配了628MB内存,所以只有53MB的空闲内存了 |
65800k buffers | 作为缓冲的内存数量 |
第五行为交换分区(swap)信息
Swap: 524280k total | 交换分区(虚拟内存)的总大小 |
---|---|
0k used | 已经使用的交互分区的大小 |
524280k free | 空闲交换分区的大小 |
409280k cached | 作为缓存的交互分区的大小 |
2)案例
[root@hadoop003 hadoop]# top -d 1
[root@hadoop003 hadoop]# top -i
[root@hadoop003 hadoop]# top -p 2575
执行上述命令后,可以按P、M、N对查询出的进程结果进行排序。
1)基本语法:
pstree [选项]
选项
-p: 显示进程的PID
-u: 显示进程的所属用户
2)案例:
[root@hadoop003 datas]# pstree -u
[root@hadoop003 datas]# pstree -p
1)基本语法:
kill -9 pid进程号
选项
-9 表示强迫进程立即停止
2)案例:
启动firefox浏览器程序
切换到root用户执行
[root@hadoop003 桌面]# kill -9 5102
1)基本语法:
netstat -anp (功能描述:此命令用来显示整个系统目前的网络情况。例如目前的连接、数据包传递数据、或是路由表内容)
选项:
-an 按一定顺序排列输出
-p 表示显示哪个进程在调用
-nltp 查看tcp协议进程端口号
2)案例
查看端口22的使用情况
[root@hadoop003 hadoop-2.7.2]# netstat -anp | grep 22
1)基本语法:
gzip+文件 (功能描述:压缩文件,只能将文件压缩为*.gz文件,执行后,原来文件消失,生成压缩文件)
gunzip+文件.gz (功能描述:解压缩文件命令,执行后,压缩文件消失,生成解压后的文件)
2)特点:
(1)只能压缩文件不能压缩目录
(2)不保留原来的文件
3)案例
(1)gzip压缩
[root@hadoop003 opt]# ls
test.java
[root@hadoop003 opt]# gzip test.java
[root@hadoop003 opt]# ls
test.java.gz
(2)gunzip解压缩文件
[root@hadoop003 opt]# gunzip test.java.gz
[root@hadoop003 opt]# ls
test.java
1)基本语法:
zip + 参数 + XXX.zip + 将要压缩的内容 (功能描述:压缩文件和目录的命令,window/linux通用且可以压缩目录且保留源文件)
参数:
-r 压缩目录
2)案例:
(1)压缩 1.txt 和2.txt,压缩后的名称为mypackage.zip
[root@hadoop003 opt]# zip test.zip test1.java test.java
adding: test1.java (stored 0%)
adding: test.java (stored 0%)
[root@hadoop003 opt]# ls
test1.java test.java test.zip
(2)解压 mypackage.zip,如果存在重名,则会提示覆盖、不操作、或者重命名。
[root@hadoop003 opt]# unzip test.zip
Archive: test.zip
extracting: test1.java
extracting: test.java
[root@hadoop003 opt]# ls
test1.java test.java test.zip
(3)解压mypackage.zip到指定目录-d
[root@hadoop003 opt]# unzip test.zip -d /opt
1)基本语法:
tar + 参数 + XXX.tar.gz + 将要打包进去的内容 (功能描述:打包目录,压缩后的文件格式.tar.gz)
参数:
-c 产生.tar打包文件 create
-v 显示详细信息 verbose
-f 指定压缩后的文件名 filename
-z 打包同时压缩
-x 解包.tar文件
2)案例
自(z)查(c)微(v)分(f)=解压,这可不是翻译,只是为了好记些
(1)压缩:tar -zcvf XXX.tar.gz n1.txt n2.txt
压缩多个文件
[root@hadoop003 opt]# tar -zcvf test.tar.gz test1.java test.java
test1.java
test.java
[root@hadoop003 opt]# ls
test1.java test.java test.tar.gz
压缩目录
[root@hadoop003 opt]# tar -zcvf test.java.tar.gz test1
test1/
test1/hello
test1/test1.java
test1/test/
test1/test/test.java
[root@hadoop106 opt]# ls
test1 test.java.tar.gz
自(z)学(x)微(v)分(f)=解压
(2)解压:tar -zxvf XXX.tar.gz,如果有重名,则直接覆盖。
解压到当前目录
[root@hadoop003 opt]# tar -zxvf test.tar.gz
解压到/opt目录
[root@hadoop003 opt]# tar -zxvf test.tar.gz -C /opt
1)service network status 查看指定服务的状态
2)service network stop 停止指定服务
3)service network start 启动指定服务
4)service network restart 重启指定服务
5)service --status-all 查看系统中所有的后台服务
1)chkconfig 查看所有服务器自启配置
2)chkconfig iptables off 关掉指定服务的自动启动
3)chkconfig iptables on 开启指定服务的自动启动
7.12.1 crond服务管理
(重新启动服务)
[root@hadoop003 ~]# service crond restart
7.12.2 crontab定时任务设置
1)基本语法
crontab [选项]
选项:
-e: 编辑crontab定时任务
-l: 查询crontab任务
-r: 删除当前用户所有的crontab任务
2)参数说明
[root@hadoop003 ~]# crontab -e
(1)进入crontab编辑界面。会打开vim编辑你的工作。
* * * * * 执行的任务
项目 | 含义 | 范围 |
---|---|---|
第一个“*” | 一小时当中的第几分钟 | 0-59 |
第二个“*” | 一天当中的第几小时 | 0-23 |
第三个“*” | 一个月当中的第几天 | 1-31 |
第四个“*” | 一年当中的第几月 | 1-12 |
第五个“*” | 一周当中的星期几 | 0-7(0和7都代表星期日) |
(2)特殊符号
特殊符号 | 含义 |
---|---|
* | 代表任何时间。比如第一个“*”就代表一小时中每分钟都执行一次的意思。 |
, | 代表不连续的时间。比如“0 8,12,16 * * * 命令”,就代表在每天的8点0分,12点0分,16点0分都执行一次命令 |
- | 代表连续的时间范围。比如“0 5 * * 1-6命令”,代表在周一到周六的凌晨5点0分执行命令 |
*/n | 代表每隔多久执行一次。比如“*/10 * * * * 命令”,代表每隔10分钟就执行一遍命令 |
(3)特定时间执行命令
时间 | 含义 |
---|---|
45 22 * * * 命令 | 在22点45分执行命令 |
0 17 * * 1 命令 | 每周1 的17点0分执行命令 |
0 5 1,15 * * 命令 | 每月1号和15号的凌晨5点0分执行命令 |
40 4 * * 1-5 命令 | 每周一到周五的凌晨4点40分执行命令 |
*/10 4 * * * 命令 | 每天的凌晨4点,每隔10分钟执行一次命令 |
0 0 1,15 * 1 命令 | 每月1号和15号,每周1的0点0分都会执行命令。注意:星期几和几号最好不要同时出现,因为他们定义的都是天。非常容易让管理员混乱。 |
3)案例:
*/1 * * * * /bin/echo `date` >> /tmp/test
定时这个是真的多,备份数据库啥的
RPM(RedHat Package Manager),Rethat软件包管理工具,类似windows里面的exe可执行文件,因Centos系统来自于Redhat,故Centos系统也可以使用这种软件包管理方式,它是Linux这系列操作系统里面的打包安装工具,它虽然是RedHat的标志,但理念是通用的。
RPM包的名称格式
Apache-1.3.23-11.i386.rpm
-“apache” 软件名称
-“1.3.23-11”软件的版本号,主版本和此版本
-“i386”是软件所运行的硬件平台
-“rpm”文件扩展名,代表RPM包
缺点:需要自己解决软件包的依赖问题,要手动将某个软件依赖的软件安装。
8.2.1 查询(rpm -qa)
1)基本语法:
rpm -qa (功能描述:查询所安装的所有rpm软件包,不用加后缀名)
过滤
rpm -qa | grep rpm软件包
2)案例
[root@hadoop003 Packages]# rpm -qa |grep firefox
firefox-31.1.0-5.el6.centos.x86_64
1)基本语法:
(1)rpm -e RPM软件包
或者(2) rpm -e --nodeps 软件包
–nodeps 如果该RPM包的安装依赖其它包,即使其它包没装,也强迫安装。
2)案例,注意不用加后缀名
[root@hadoop003 Packages]# rpm -e firefox-31.1.0-5.el6.centos.x86_64
1)基本语法:
rpm -ivh RPM包全名
-i=install,安装
-v=verbose,显示详细信息
-h=hash,进度条
–nodeps,不检测依赖进度
2)案例
[root@hadoop003 Packages]# pwd
/mnt/mycdrom/Packages
[root@hadoop003 Packages]# rpm -ivh firefox-31.1.0-5.el6.centos.x86_64.rpm
warning: firefox-31.1.0-5.el6.centos.x86_64.rpm: Header V3 RSA/SHA1 Signature, key ID c105b9de: NOKEY
Preparing... ########################################### [100%]
1:firefox ########################################### [100%]
安装成功,发现安装到/usr/share/applications下了
点这里了解Shell
YUM(全称为 Yellow dog Updater, Modified)是一个在Fedora和RedHat以及CentOS中的Shell前端软件包管理器。基于RPM包管理,能够从指定的服务器自动下载RPM包并且安装,可以自动处理依赖性关系,并且一次安装所有依赖的软件包,无须繁琐地一次次下载、安装。
YUM源虽然可以简化我们在Linux上安装软件的过程,但是生产环境通常无法上网,不能连接外网的YUM源,说以就无法使用yum命令安装软件了。为了在内网中也可以使用yum安装相关的软件,就要配置yum源。
YUM源其实就是一个保存了多个RPM包的服务器,可以通过http的方式来检索、下载并安装相关的RPM包。
1)基本语法:
yum install -y rpm软件包 (功能描述:安装httpd并确认安装)
yum list (功能描述:列出所有可用的package和package组)
yum clean all (功能描述:清除所有缓冲数据)
yum deplist rpm软件包 (功能描述:列出一个包所有依赖的包)
yum remove rpm软件包 (功能描述:删除httpd)
2)案例实操
yum install -y tree
tree命令可以将自己的repo以树的形式展示,有层次感
1)前期文件准备
(1)前提条件linux系统必须可以联网
(2)在Linux环境中访问该网络地址:http://mirrors.163.com/.help/centos.html,在使用说明中点击CentOS6->再点击保存
(3)查看文件保存的位置
在打开的终端中输入如下命令,就可以找到文件的保存位置。
[root@hadoop003 下载]$ pwd
/root/下载
2)替换本地yum文件
(1)把下载的文件移动到/etc/yum.repos.d/目录
[root@hadoop003 下载]# mv CentOS6-Base-163.repo /etc/yum.repos.d/
(2)进入到/etc/yum.repos.d/目录
[root@hadoop003 yum.repos.d]# pwd
/etc/yum.repos.d
(3)用CentOS6-Base-163.repo替换CentOS-Base.repo
[root@hadoop003 yum.repos.d]# mv CentOS6-Base-163.repo CentOS-Base.rep
3)安装命令
(1)[root@hadoop003 yum.repos.d]#yum clean all
(2)[root@hadoop003 yum.repos.d]#yum makecache
(3)[root@hadoop003 yum.repos.d]# yum install -y createrepo
yum clean all
清除以前下载的rpm包
yum makecache
将服务器上的软件包信息 现在本地缓存,以提高 搜索 安装软件的速度
(1)准备一台Linux服务器,版本CentOS-6.6-x86_64-bin-DVD1.iso
(2)配置好这台服务器的IP地址
(3)将CentOS-6.6-x86_64-bin-DVD1.iso镜像挂载到/mnt/mycdrom目录
[root@hadoop003 /]# mkdir /mnt/mycdrom
[root@hadoop003 /]# mount -t iso9660 /dev/cdrom /mnt/mycdrom
(4)将YUM用到软件包拷贝到本地任一目录中
[root@hadoop003 opt]# mkdir Packages
[root@hadoop003 opt]# chown hadoop:hadoop Packages/
[root@hadoop003 opt]# cp -r /mnt/mycdrom/Packages/* /opt/Packages/
(5)执行创建仓库命令:createrepo 路径,注意此过程有点慢,一两分钟。
[root@hadoop003 Packages]# createrepo ./
(6)修改本机上的YUM源配置文件,将源指向自己
备份原有的YUM源的配置文件
[root@hadoop003 /]# cd /etc/yum.repos.d/
[root@hadoop003 yum.repos.d]# cp CentOS-Base.repo CentOS-Base.repo.bak
编辑CentOS-Base.repo文件
[root@hadoop003 yum.repos.d]# vi CentOS-Base.repo
[base] name=CentOS-mylocal #自定义一个名字
#mirrorlist=http://mirrorlist.centos.org/?release=KaTeX parse error: Expected 'EOF', got '&' at position 11: releasever&̲arch=basearch&repo=os&infra=$infra
#该行注释掉 baseurl=file:///opt//Packages gpgcheck=0 enabled=1#增加改行,使启用 gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-CentOS-6
添加或者修改上面内容保存退出,其它updates extras等内容全部删除。
(7)清除YUM缓存
[root@hadoop003 yum.repos.d]# yum clean all
(8)列出可用的YUM仓库
[root@hadoop003 yum.repos.d]# yum repolist
(9)安装相应的软件
安装之前,先卸载一下
[root@hadoop003 ~]# rpm -qa|grep tree
tree-1.5.3-2.el6.x86_64
[root@hadoop003 ~]# rpm -e tree-1.5.3-2.el6.x86_64
[root@hadoop003 ~]#
[root@hadoop003 ~]# rpm -qa|grep tree
[root@hadoop003 ~]#
[root@hadoop003 ~]# yum install -y tree
已加载插件:fastestmirror, refresh-packagekit, security
设置安装进程
Loading mirror speeds from cached hostfile
* extras: mirrors.aliyun.com
* updates: mirrors.huaweicloud.com
[root@hadoop003 ~]# rpm -qa|grep firefox
firefox-31.1.0-5.el6.centos.x86_64
[root@hadoop003 ~]# rpm -e firefox-31.1.0-5.el6.centos.x86_64
[root@hadoop003 ~]#
[root@hadoop003 ~]# yum install -y firefox
已加载插件:fastestmirror, refresh-packagekit, security
设置安装进程
Loading mirror speeds from cached hostfile
* extras: mirrors.aliyun.com
* updates: mirrors.huaweicloud.com
(1)让其他需要安装RPM包的服务器指向这个YUM源,准备一台新的服务器,备份或删除原有的YUM源配置文件。
备份原有的YUM源的配置文件
[root@hadoop004 /]#cd /etc/yum.repos.d/
[root@hadoop004 yum.repos.d]# cp CentOS-Base.repo CentOS-Base.repo.bak
编辑CentOS-Base.repo文件
[root@hadoop004 yum.repos.d]# vi CentOS-Base.repo
[base]
name=CentOS-hadoop003
baseurl=http://192.168.66.3/Packages
gpgcheck=0
gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-CentOS-6
添加上面内容保存退出
(2)在这台新的服务器上执行YUM的命令
[root@hadoop004 yum.repos.d]# yum clean all
[root@hadoop004 yum.repos.d]# yum repolist
(3)安装软件
因为其他机器用到的是hadoop003上的yum源,因此要开启hadoop003上的httpd服务并配置好相关的rpm包。
1、安装相应的软件
[root@hadoop003 yum.repos.d]#yum install -y httpd
2、启动httpd服务
[root@hadoop003 yum.repos.d]#service httpd start
3、使用浏览器访问http://192.168.66.3:80(如果访问不通,检查防火墙是否开启了80端口或关闭防火墙),测试网络是否畅通
4、配置rpm包到httpd的html目录
[root@hadoop003 ~]# cd /var/www/html/
[root@hadoop003 html]# mkdir Packages
[root@hadoop003 html]# chown hadoop:hadoop Packages/
[root@hadoop003 html]# cp -r /mnt/mycdrom/Packages/* /var/www/html/Packages/
5、执行创建仓库命令:createrepo 路径,注意此过程有点慢,一两分钟。
[root@hadoop003 Packages]# createrepo ./
[root@hadoop004 ~]# yum -y install tree
扩展内容,会不会影响不大,但是如果你会,吊吊吊这都知道~
呼!!没了没了写完了,有缺少的可以提个醒,我晓得的再补上。
建议收藏,这东西不用就忘了,忘了再来找。
关于文章中的软件工具,如有需要,百度下载即可。
写作不易,如有帮助,请点赞关注支持一下,谢谢谢谢。
好了,感谢观看,谢谢