操作HDFS有三种方式,分别是 使用Web Console网页工具、命令行、Java API 。
NameNode:端口50070
访问地址:IP/dfshealth.html
在summary中,值得关注的是 safemode is off ,说明HDFS的安全模式是关闭的,如果是打开的,那么HDFS是处于只读的状态,不能进行操作HDFS。
下面是HDFS启动过程,比较重要
端口:50090
访问地址:Ip:50090/status.html
1、普通的操作命令:hdfs dfs ****
hdfs dfs -mkdir /aaa
hdfs dfs -mkdir -p /bbb/ccc 如果父目录不存在,使用-p参数先创建父目录
-ls 查询HDFS的某个目录
-ls -R 查询HDFS的某个目录,包含子目录,简写:-lsr
-put 上传数据
-copyFromLocal 上传数据
-moveFromLocal 上传数据,本质ctrl+x 剪切
-copyToLocal 下载数据
-get 下载数据
-rm 删除目录
-rmr 删除目录,包含子目录
-getmerge:先把某个目录下的文件合并,再下载
demo:
[root@bigdata111 ~]# vi student01.txt
[root@bigdata111 ~]# vi student02.txt
[root@bigdata111 ~]# hdfs dfs -mkdir /students
[root@bigdata111 ~]# hdfs dfs -put student0* /students
[root@bigdata111 ~]# hdfs dfs -ls /students
Found 2 items
-rw-r--r-- 1 root supergroup 19 2020-02-24 10:19 /students/student01.txt
-rw-r--r-- 1 root supergroup 10 2020-02-24 10:19 /students/student02.txt
[root@bigdata111 ~]# hdfs dfs -getmerge /students ./allstudents.txt
-cp:拷贝 hdfs dfs -cp /input/data.txt /input/data2.txt
-mv:剪切
-count:举例 hdfs dfs -count /students 查看文件的个数
-du:类似-count,更详细
hdfs dfs -du /students
结果:
19 /students/student01.txt
10 /students/student02.txt
-text、-cat 查看文本文件的内容
hdfs dfs -cat /students/student01.txt
2、管理的命令:hdfs dfsadmin ****
-safemode 安全模式
[root@bigdata111 ~]# hdfs dfsadmin -safemode
Usage: hdfs dfsadmin [-safemode enter | leave | get | wait]
[root@bigdata111 ~]# hdfs dfsadmin -safemode get
Safe mode is OFF
[root@bigdata111 ~]# hdfs dfsadmin -safemode enter
Safe mode is ON
[root@bigdata111 ~]# hdfs dfs -mkdir /xyz
mkdir: Cannot create directory /xyz. Name node is in safe mode.
[root@bigdata111 ~]# hdfs dfsadmin -safemode leave
Safe mode is OFF
操作需要包含的jar包:
$HADOOP_HOME/share/hadoop/common/*.jar
$HADOOP_HOME/share/hadoop/common/lib/*.jar
$HADOOP_HOME/share/hadoop/hdfs/*.jar
$HADOOP_HOME/share/hadoop/hdfs/lib/*.jar
方式:
Java API连接HDFS并创建文件夹
使用Java API 上传下载数据
使用Java API获取HDFS的元信息
默认回收站是关闭的,可以通过在 core-site.xml 中添加 fs.trash.interval 来打开幵配置时间阀值。
<property>
<name>fs.trash.intervalname>
<value>1440value>
property>
可以设置一个时间阈值,当回收站里文件的存放时间超过返个阈值,就被彻底删除,并且释放占用的数据块,比如上面就设置了一个1440分钟的阀值。
名称配额:规定的是某个HDFS目录下文件的个数,
比如:设置名称配额是N,表示只能在该目录下存放N-1个文件或者目录
hdfs dfsadmin [-setQuota <quota> <dirname>...<dirname>]
hdfs dfsadmin [-clrQuota <dirname>...<dirname>]
举例:
hdfs dfs -mkdir /t1
设置该目录的名称配额是3,所以该目录下只能放两个文件或文件夹。
hdfs dfsadmin -setQuota 3 /t1
空间配额:规定的是某个HDFS目录下文件的大小
比如:设置某个HDFS目录的空间配额是200M,只能存放200M以下的文件
hdfs dfsadmin [-setSpaceQuota <quota> [-storageType <storagetype>] <dirname>...<dirname>]
hdfs dfsadmin [-clrSpaceQuota [-storageType <storagetype>] <dirname>...<dirname>]
举例:
hdfs dfs -mkdir /t2
设置该目录的空间配额是1M (逻辑单位)
hdfs dfsadmin -setSpaceQuota 1M /t2
上传一个超过1M,大小为50M的文件,会发生下面的错误:
The DiskSpace quota of /t2 is exceeded: quota = 1048576 B = 1 MB but diskspace consumed = 134217728 B = 128 MB
由于是50M文件,占用一个数据块,所以会提示128M。
一个snapshot(快照)是一个全部文件系统、或者某个目录在某一时刻的镜像。(本质:就是cp命令)
安全模式是hadoop的一种保护机制,用于保证集群中的数据块的安全性。如果HDFS处于
安全模式,则表示HDFS是只读状态。
安全模式的作用:当集群启动的时候,会首先进入安全模式。当系统处于安全模式时会检查数据块的完整性。(数据块是否满足冗余度的要求)
假设我们设置的副本数/冗余度(即参数dfs.replication)是5,那么在datanode上就应该有5个副本存在,假设只存在3个副本,那么比例就是3/5=0.6。在配置文件hdfs-default.xml中定义了一个最小的副本的副本率0.999。我们的副本率0.6明显小于0.99,因此系统会自动的复制副本到其他的dataNode,使得副本率不小于0.999.如果系统中有8个副本,超过我们设定的5个副本,那么系统也会删除多余的3个副本。
hdfs dfsadmin -safemode get 查看安全模式状态
hdfs dfsadmin -safemode enter 进入安全模式状态
hdfs dfsadmin -safemode leave 离开安全模式
集群的两大功能和解决方式:
(1)负载均衡:联盟Federation
(2)失败迁移(单点故障):HA
注意:联盟是HDFS特有的,但HA是主从架构共有的
1、Java的代理对象Proxy
案例:利用Java的代理对象实现数据库的连接池。
(1)通过连接池返回一个Connection对象
(2)使用完后,connection.close,把该连接直接还给数据库
(3)重写close方法,把该连接还给数据库的连接池
准备实验环境:MySQL的数据库
如何安装MySQL,在Hive的时候,再介绍
2、RPC协议(remote procedure call远程过程调用)