HDFS磁盘满了扩容

1. 添加新硬盘

2. 查看新硬盘

 #查看现有的磁盘空间 
 sudo fdisk -l 
 #可看到新加的虚拟硬盘,一般名为:Disk /dev/sdb 

3. 给新加的硬盘分区

 sudo fdisk /dev/sdb 
 # 键入m,可看到帮助信息 
 command (m for help):m          
 # 增加新分区 
 command (m for help):n 
 # 选择基本分区,输入:p 
 # 建一个分区 
 Partition number(1-4):1 
 # 回车 
 First cylinder (1-15908,default 1):Enter 
 Enter,Enter
 # 写入并退出 
 command (m for help):w 

4. 格式化磁盘分区

 # 用ext4格式对/dev/sdb1进入格式化 
 sudo mkfs.ext4 /dev/sdb1 

5. 挂载分区

 #创建新的挂载点 
 mkdir /home/hadoop/hdfsdata
 #将新磁盘分区挂载到/work目录下 
 sudo mount -t ext4 /dev/sdb1 /home/hadoop/hdfsdata
 #查看挂载 
 df -h 
 #可以看到新加的硬盘:/dev/sdb1 

6. 开机自动挂载

 #修改文件 
 sudo vim /etc/fstab 
 #在最后一行加入: 
 /dev/sdb1 /home/hadoop/hdfsdata ext4 defaults  0 0

7. hadoop 文件权限

sudo chown -R hadoop:hadoop /hadoop2/hdfs
sudo chmod 755 -R /hadoop2/hdfs

8. 创建文件夹

mkdir /hadoop2/hdfs/name
mkdir /hadoop2/hdfs/data

9. 修改hdfs-site.xml文件

<property>
    <name>dfs.namenode.name.dirname>
    <value>/hadoop/hdfs/name,/hadoop2/hdfs/namevalue>
property>
<property>
    <name>dfs.datanode.data.dirname>
    <value>/hadoop/hdfs/data,/hadoop2/hdfs/datavalue>
property>

你可能感兴趣的:(hadoop,大数据,hadoop,hdfs,hdfs扩容,hdfs磁盘满)