Hadoop集群扩容新增4T硬盘(解决分区大小问题限制2T问题)

用fdisk分区,发现最大支持2T的分区

简单记录下操作命令流程(建议每次升级扩容一台机子,安全起见以防万一):


1、查询磁盘信息:
fdisk -l


2、4T硬盘分4个区:
parted /dev/sdc
mklabel gpt
/dev/sdc mkpart sdc1 2048s 1000gb
/dev/sdc mkpart sdc2 1000gb 2000gb
/dev/sdc mkpart sdc3 2000gb 3000gb
/dev/sdc mkpart sdc4 3000gb -1
print
quit


3、格式化:
mkfs.ext4 /dev/sdc1
mkfs.ext4 /dev/sdc2
mkfs.ext4 /dev/sdc3
mkfs.ext4 /dev/sdc4


4、列出分区信息:
parted -l


5 创建数据目录(/data1已经在hadoop中使用):
mkdir /data2
mkdir /data3

mkdir /data4

mkdir /data5(预留其他用途)


6、挂载:
mount /dev/sdc1 /data2
mount /dev/sdc2 /data3
mount /dev/sdc3 /data4

mount /dev/sdc4 /data5


7 查看当前磁盘情况:

df -h


8 创建DataNode数据目录(注意data的目录所属用户和权限):
mkdir -p /data2/hadoop/hdfs/data
mkdir -p /data3/hadoop/hdfs/data
mkdir -p /data4/hadoop/hdfs/data


9、配置开机自启动:
vim /etc/fstab
# 在最后面加上如下配置
/dev/sdc1    /data2    ext4    defaults    0    0
/dev/sdc2    /data3    ext4    defaults    0    0
/dev/sdc3    /data4    ext4    defaults    0    0
/dev/sdc4    /data5    ext4    defaults    0    0


你可能感兴趣的:(Hadoop)