众所周知,HDFS拥有3副本来保证其数据的高可用性。而且HDFS对着三个副本的位置放置也是有专心设计的,2个副本放在同一个rack(不同节点),另外一个副本放在另外的一个rack上。在这样的放置策略下,这个副本数据能容忍一个节点的crash甚至是一个rack机器的crash。但这里所提及的"rack“的概念是集群admin给HDFS定义的rack的概念,它是一个逻辑上的概念。它可以简单的是一个物理rack,也可以是一组rack的集合。不过它们一个共同的特征是rack与rack之间是能够隔离开的。HDFS目前默认的block放置策略在理论上是能够容忍一个rack的掉线,但是在实际大规模集群的运行过程中,默认的放置策略还是不能够完全保证数据高可用性的要求。举例来说,笔者最近在生产集群上频繁碰到因为数据3副本同时不可用导致的用户missing block问题。后来发现是因为集群在进行按rack的rolling升级,每次会有长达1小时的rack shutdown的时间。然后在此期间,偶发的其它rack的机器的dead,就会造成这种零星的missing block情况。这个问题本质上的原因是因为掉了1个rack,导致存在于此rack上的2副本无法使用,进而导致了大概率数据无法使用的情况。针对此情况,我们尝试对现有的block placement策略进行改造,来解决这个问题。
我们知道,HDFS的block位置存放一方面是基于内部的block placement policy实现,还有另一方面是admin给定的topology设置。Topology是这里的作用是规定了什么节点属于哪些rack。
如果我们不想对现有HDFS placement policy进行改造来解决上面提到的问题,改变集群使用的topology也是能够奏效的。让topology里的rack映射到实际更多的物理rack能一定程度上减缓这个问题。但这里笔者说的是减缓,不是彻底解决。因为topology里的rack的scope尽管变大了,但是还是存在俩副本落在一个物理rack上的情况的。
因此,从根本上解决block按照rack分布的问题的办法就是改变其block placement的policy策略来做。目标期望的block placement分布也很简单,就是3副本同时分布在3个rack上。这样的话,集群就能够极大地容忍一个rack掉线导致的数据不可用问题。
鉴于HDFS默认的block placement policy实现逻辑比较复杂,我们不倾向于直接改它里面的过程逻辑。而是新增一个新的policy类,然后覆盖其部分方法,以此来达到我们按照rack分布的block placement policy的实现。
我们先来看看默认的block placement policy的核心方法,BlockPlacementPolicyDefault#chooseTarget方法:
private Node chooseTarget(int numOfReplicas,
Node writer,
final Set<Node> excludedNodes,
final long blocksize,
final int maxNodesPerRack,
final List<DatanodeStorageInfo> results,
final boolean avoidStaleNodes,
final BlockStoragePolicy storagePolicy,
final EnumSet<StorageType> unavailableStorages,
final boolean newBlock) {
if (numOfReplicas == 0 || clusterMap.getNumOfLeaves()==0) {
return (writer instanceof DatanodeDescriptor) ? writer : null;
}
final int numOfResults = results.size();
final int totalReplicasExpected = numOfReplicas + numOfResults;
if ((writer == null || !(writer instanceof DatanodeDescriptor)) && !newBlock) {
writer = results.get(0).getDatanodeDescriptor();
}
// Keep a copy of original excludedNodes
final Set<Node> oldExcludedNodes = new HashSet<Node>(excludedNodes);
// choose storage types; use fallbacks for unavailable storages
final List<StorageType> requiredStorageTypes = storagePolicy
.chooseStorageTypes((short) totalReplicasExpected,
DatanodeStorageInfo.toStorageTypes(results),
unavailableStorages, newBlock);
final EnumMap<StorageType, Integer> storageTypes =
getRequiredStorageTypes(requiredStorageTypes);
if (LOG.isTraceEnabled()) {
LOG.trace("storageTypes=" + storageTypes);
}
try {
if ((numOfReplicas = requiredStorageTypes.size()) == 0) {
throw new NotEnoughReplicasException(
"All required storage types are unavailable: "
+ " unavailableStorages=" + unavailableStorages
+ ", storagePolicy=" + storagePolicy);
}
// 1) 当前已经选取成功的location为0,则从local node开始选取
if (numOfResults == 0) {
writer = chooseLocalStorage(writer, excludedNodes, blocksize,
maxNodesPerRack, results, avoidStaleNodes, storageTypes, true)
.getDatanodeDescriptor();
// 如果需要选取location的副本已经减为0,则返回意为target location都已经选取完毕
if (--numOfReplicas == 0) {
return writer;
}
}
final DatanodeDescriptor dn0 = results.get(0).getDatanodeDescriptor();
// 2) 如果执行此方法时,当前已经选取了1个location或者还没选过1个location的,
// 则继续进而第二个block location的选取,从remote rack里选择一个合适的location
if (numOfResults <= 1) {
chooseRemoteRack(1, dn0, excludedNodes, blocksize, maxNodesPerRack,
results, avoidStaleNodes, storageTypes);
// 如果需要选取location的副本已经减为0,则返回意为target location都已经选取完毕
if (--numOfReplicas == 0) {
return writer;
}
}
// 3)如果选择的location数量在2个以内,则进行第三个副本location的选取
if (numOfResults <= 2) {
final DatanodeDescriptor dn1 = results.get(1).getDatanodeDescriptor();
// 3.1)如果副本第一个locating和第二个location在一个rack,则选取不同于此rack的副本location作为第三个location
if (clusterMap.isOnSameRack(dn0, dn1)) {
chooseRemoteRack(1, dn0, excludedNodes, blocksize, maxNodesPerRack,
results, avoidStaleNodes, storageTypes);
} else if (newBlock){
// 3.2)否则选取和第二个location同rack的副本location作为第三个location
chooseLocalRack(dn1, excludedNodes, blocksize, maxNodesPerRack,
results, avoidStaleNodes, storageTypes);
} else {
chooseLocalRack(writer, excludedNodes, blocksize, maxNodesPerRack,
results, avoidStaleNodes, storageTypes);
}
if (--numOfReplicas == 0) {
return writer;
}
}
// 超出3副本的其它副本的location则用随机选取的方法做选择
chooseRandom(numOfReplicas, NodeBase.ROOT, excludedNodes, blocksize,
maxNodesPerRack, results, avoidStaleNodes, storageTypes);
} catch (NotEnoughReplicasException e) {
...
}
return writer;
}
除了上面涉及到一些方法外,这里会涉及到的几个关键的方法:
以上5个方法和HDFS的block placement选择息息相关。上面方法的前2个方法是首先需要覆盖的方法,因为在多rack分布策略下,chooseLocalRack的语义此时将转变为和chooseRemoteRack一样的语义。chooseRemoteRack方法其实和default policy的实现一致,以防后续这个方法也会需要变动,笔者暂时对chooseRemoteRack方法进行了复制,代码如下:
public class BlockPlacementPolicyWithRackSeparated extends BlockPlacementPolicyDefault {
private static ThreadLocal<Integer> CHOOSE_TARGET_FAILED_COUNT =
new ThreadLocal<Integer>() {
@Override
protected Integer initialValue() {
return 0;
}
};
@Override
protected DatanodeStorageInfo chooseLocalRack(Node localMachine, Set<Node> excludedNodes,
long blocksize, int maxNodesPerRack, List<DatanodeStorageInfo> results,
boolean avoidStaleNodes, EnumMap<StorageType, Integer> storageTypes) throws NotEnoughReplicasException {
// no local machine, so choose a random machine
if (localMachine == null) {
return chooseRandom(NodeBase.ROOT, excludedNodes, blocksize,
maxNodesPerRack, results, avoidStaleNodes, storageTypes);
}
final String localRack = localMachine.getNetworkLocation();
try {
// override default chooseLocalRack method and choose one from the remote rack
return chooseRandom("~" + localRack, excludedNodes,
blocksize, maxNodesPerRack, results, avoidStaleNodes, storageTypes);
} catch (NotEnoughReplicasException e) {
return chooseRandom(NodeBase.ROOT, excludedNodes, blocksize,
maxNodesPerRack, results, avoidStaleNodes, storageTypes);
}
}
@Override
protected void chooseRemoteRack(int numOfReplicas, DatanodeDescriptor localMachine,
Set<Node> excludedNodes, long blocksize, int maxReplicasPerRack,
List<DatanodeStorageInfo> results, boolean avoidStaleNodes, EnumMap<StorageType,
Integer> storageTypes) throws NotEnoughReplicasException {
int oldNumOfReplicas = results.size();
// randomly choose one node from remote racks
try {
chooseRandom(numOfReplicas, "~" + localMachine.getNetworkLocation(),
excludedNodes, blocksize, maxReplicasPerRack, results,
avoidStaleNodes, storageTypes);
} catch (NotEnoughReplicasException e) {
if (LOG.isDebugEnabled()) {
LOG.debug("Failed to choose remote rack (location = ~"
+ localMachine.getNetworkLocation() + "), fallback to local rack", e);
}
chooseRandom(numOfReplicas-(results.size()-oldNumOfReplicas),
localMachine.getNetworkLocation(), excludedNodes, blocksize,
maxReplicasPerRack, results, avoidStaleNodes, storageTypes);
}
}
...
}
其次紧跟着的isGoodDatanode方法,这个方法是用在chooseRemoteRack里选好一个target后判断此candidate是否是一个合格的datanode的检查方法,如果不合格,则会进行马上的下一次选择。在新的policy实现中,我们主要对rack的值进行判断,确保每个副本的location所属的rack都是独立的。
...
@Override
boolean isGoodDatanode(DatanodeDescriptor node, int maxTargetPerRack,
boolean considerLoad, List<DatanodeStorageInfo> results, boolean avoidStaleNodes) {
if (!super.isGoodDatanode(node, maxTargetPerRack, considerLoad, results, avoidStaleNodes)) {
return false;
}
// the chosen node rack
String rack = node.getNetworkLocation();
Set<String> rackNames = new HashSet<>();
rackNames.add(rack);
for (DatanodeStorageInfo info : results) {
rack = info.getDatanodeDescriptor().getNetworkLocation();
if (!rackNames.contains(rack)) {
rackNames.add(rack);
} else {
LOG.warn("Chosen node failed since there is nodes in the same rack.");
return false;
}
}
return true;
}
...
最后是verifyBlockPlacement和isMovable方法,前者用于判断现有block副本的placement是否满足多rack分布模式,后者方法是用在Balancer里判断移动某个location的block是否是可移动的,如果break了block placement policy,则是不可移的。方法如下:
...
@Override
public BlockPlacementStatus verifyBlockPlacement(DatanodeInfo[] locs,
int numberOfReplicas) {
if (locs == null) {
locs = DatanodeDescriptor.EMPTY_ARRAY;
}
if (!clusterMap.hasClusterEverBeenMultiRack()) {
// only one rack
return new BlockPlacementStatusDefault(1, 1);
}
int minRacks = 3;
minRacks = Math.min(minRacks, numberOfReplicas);
// 1. Check that all locations are different.
// 2. Count locations on different racks.
Set<String> racks = new TreeSet<>();
for (DatanodeInfo dn : locs) {
racks.add(dn.getNetworkLocation());
}
return new BlockPlacementStatusDefault(racks.size(), minRacks);
}
@Override
public boolean isMovable(Collection<DatanodeInfo> locs, DatanodeInfo source,
DatanodeInfo target) {
Set<String> rackNames = new HashSet<>();
for (DatanodeInfo dn : locs) {
rackNames.add(dn.getNetworkLocation());
}
rackNames.remove(source.getNetworkLocation());
rackNames.add(target.getNetworkLocation());
return rackNames.size() >= locs.size() ? true : false;
}
...
以上就是实现多rack分布的新block placement policy的主要方法实现。笔者已经在ut测试方法中验证过此逻辑的正确性了,但还未在生产集群部署过此policy,目前仅供大家参考实现。
上面实现完多rack分布的placement policy就意味着已经完美解决了上面提到的问题了呢?答案是没有。有些事情没有像想象的那么简单。多rack的placement policy可以解决的是新数据写入的block分布的问题。但是对于集群里大量的原有placement的block,我们还是需要去做里面的placement的转化的。如何能够平滑,透明地迁移老placement的block数据也是一个难点问题。
对于block placement的迁移,笔者调研了现有可用的一些方法,可归纳为大致两类:
OK,以上就是本文所阐述的关于引入多rack分布的新block placement policy实现来提高数据可用性的主要内容了,其间也提到了关于如果做老数据的block placement迁移的问题。希望对大家有所收获。