HDFS,全称Hadoop分布式文件系统,作为Hadoop生态技术圈底层的关键技术之一,被设计成适合运行在通用硬件上的分布式文件系统。它和现有的分布式文件系统有很多共同点,但同时,它和其他的分布式文件系统的区别也是很明显的。HDFS是一个高度容错性的系统,适合部署在连接的机器上。HDFS能够提供高吞吐量的数据访问,非常适合大规模数据集上的应用。
笔者本人接触研究HDFS也有半年之久了,了解了HDFS Java API接口后,就一直设想着设计一个类似于Windows操作系统上的资源管理器一样的小工具,用来管理分布式文件资源。其实,Hadoop Web UI和HUE都自带有WEB版本的分布式文件浏览器,但是在文件信息管理方面不够讨人喜欢,可能笔者本人习惯了Windows上的资源管理器那样的操作习惯。于是利用闲暇时间,经过几个月断断续续的设计完善,最终开发出了一个类似Windows资源管理器一样的管理工具,暂且就叫做“HDFS分布式文件资源管理器”,现在把设计思路过程总结一下,贴在网络上,希望能够对感兴趣的朋友们有所帮助。成型后的资源管理器界面如下图所示:
朋友们可以看出来,笔者本人是采用Eclipse+Swing方式进行开发设计的,界面上没有动用第三方的UI组件,所以看起来稍显朴素,不过这都不是重点,关键是它在Windows和Linux下都运行良好,为笔者进行分布式文件管理提供了大大的便利。
笔者先大致讲述下此工具的开发过程。
第一步是封装了一下HDFS Java API接口。对组件系统提供的API接口方法进行二次封装好像已经成为了笔者本人的习惯了,如果不能按照自己的软件开发习惯调用接口方法,就总是感觉怪怪的。
第二步是功能模块设计。功能模块梳理比较轻松,一是因为自己的需求比较明确,二是因为有Windows资源管理器可以做参考。梳理后的主要功能包括几点:
对HDFS Java API进行二次封装,并不仅仅是为了设计开发HDFS分布式文件系统资源管理器,还要尽量考虑日后针对HDFS的其他后续开发,所以在封装的时候,尽量让自己目光看的远一些。
封装编译后的jar文件命名为hnepri-hadoop-common.jar,里面也包含有针对HBase Java API的二次封装接口方法,所以命名为hadoop-common包,特此说明下。下图是开发工程结构图:
主要包括两个工具类文件:HadoopConfigUtil和HadoopFileUtil。其中,HadoopConfigUtil为HDFS配置管理类,负责与Hadoop建立连接和信息配置;HadoopFileUtil为HDFS文件目录操作工具类。
HDFS的核心配置文件是core-site.xml和hdfs-site.xml,构建Configuration对象时读取这两个配置文件即可,如果有其他的自定义配置信息,可以将其配置在hadoop.config.properties文件。
另外需要特别强调的是,在Windows下利用API接口方法操作HDFS时会遇到权限认证的问题,类似“Permission denied: user=XXXXX,access=WRITE,inode=......”等一样的错误。这主要是由于当前用户与HDFS默认用户不一致所造成的,针对这种情况,有三种解决方案:
第一、在hdfs配置文件中,将dfs.permissions修改为false,即取消HDFS的安全权限认证机制。
第二、在hdfs文件系统中为指定目录赋予当前用户操作的权限,譬如执行hadoop fs -chmod 777 /user/hadoop等。
第三、在环境变量中创建HADOOP_USER_NAME选项,其值为HDFS对应的用户名称,譬如hadoop或者hdfs,然后重新启动计算机和Eclipse以使环境变量生效。
针对开发人员而言,我们推荐第三种解决方案。配置方法参考下图:
以下为HadoopConfigUtil类详细信息。
import java.io.File; import java.util.HashMap; import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.FileSystem; import org.apache.hadoop.hdfs.DistributedFileSystem; import com.hnepri.common.util.PropertiesUtil; /** * Description: Hadoop信息配置工具类<br> * Copyright: Copyright (c) 2015<br> * Company: 河南电力科学研究院智能电网所<br> * @author shangbingbing 2015-01-01编写 * @version 1.0 */ public class HadoopConfigUtil { /** * 加载解析Hadoop自定义配置信息。<br> * 需在系统启动时调用此方法加载自定义配置信息,否则将采用默认配置或者无法连接Hadoop。 */ public static void loadHadoopConfigProperties() { String path = "hadoop.config.properties"; HashMap<String,String> pps = PropertiesUtil.readProperties(path); HadoopConfigUtil.setHadoopConfigItemList(pps); } private static Configuration conf = null; /** * hadoop配置信息列表,其中key中存储参数名称,譬如master.hadoop;value中存储参数值,譬如master.hadoop:9000等 */ private static HashMap<String,String> hadoopConfigItemList = new HashMap<String,String>(); /** * 获取hadoop配置信息列表 * @return */ public static HashMap<String, String> getHadoopConfigItemList() { return hadoopConfigItemList; } /** * 设置hadoop配置信息列表 * @param hadoopConfigItemList */ public static void setHadoopConfigItemList(HashMap<String, String> hadoopConfigItemList) { HadoopConfigUtil.hadoopConfigItemList = hadoopConfigItemList; } /** * 添加hadoop配置信息 * @param key * @param value */ public static void addHadoopConfigItem(String key,String value) { if(hadoopConfigItemList.containsKey(key)) { hadoopConfigItemList.remove(key); } hadoopConfigItemList.put(key, value); } /** * 删除hadoop配置信息 * @param key */ public static void removeHadoopConfigItem(String key) { if(hadoopConfigItemList.containsKey(key)) { hadoopConfigItemList.remove(key); } } /** * 获取Hadoop Configuration对象 * @return */ public static Configuration getHadoopConfig() { if(conf == null) { conf = new Configuration(); try { //解决winutils.exe不存在的问题 File workaround = new File("."); System.getProperties().put("hadoop.home.dir", workaround.getAbsolutePath()); new File("./bin").mkdirs(); new File("./bin/winutils.exe").createNewFile(); conf.addResource("core-site.xml"); conf.addResource("hdfs-site.xml"); //初始化设置zookeeper相关配置信息 if(hadoopConfigItemList != null && hadoopConfigItemList.size() > 0) { for(String key : hadoopConfigItemList.keySet()) { String value = hadoopConfigItemList.get(key); conf.set(key, value); } } } catch (Exception ex) { System.out.println(ex.toString()); } } return conf; } /** * 刷新重置Hadoop配置对象 */ public static void initHadoopConfig() { conf = null; } private static FileSystem fileSystem = null; /** * 获取FileSystem文件系统对象 * @return */ public static FileSystem getFileSystem() { if(fileSystem == null) { try { fileSystem = FileSystem.get(getHadoopConfig()); } catch (Exception e) { e.printStackTrace(); } } return fileSystem; } /** * 获取HDFS文件系统对象 * @return */ public static DistributedFileSystem getHDFS() { return (DistributedFileSystem)getFileSystem(); } }
在HadoopFileUtil工具类文件中,主要包括本地目录文件和HDFS目录文件的操作接口方法,这里不再罗列详细的实现代码,笔者本人会以附件的形式将代码文件贴在文章后面,有需要的朋友请自行下载查看。这里对接口方法简单分类整理下。
1) 创建目录
2) 复制目录文件
3) 重命名目录文件
4) 删除目录文件
5) 获取HDFS目录文件
利用JTree组件构建一个目录导航树是一件很容易的事情,不过需要注意的是,当HDFS文件系统中目录数量和层级较多时,该如何加载显示它们。通常有两种方式,一是一次性加载显示所有目录,这可能比较耗时,当然如果另外启动一个线程的话,在页面上也不会出现明显的阻塞。二是逐级加载显示目录,当用户点击某个目录时,系统才开始加载其下的子目录信息。
另外一个需要注意的细节,就是JTree目录树的刷新问题,当新建、重命名或者删除目录时,需要刷新JTree目录树,理想的方法是只刷新相关的JTree分支,而不是每次都刷新整棵目录树。
HDFS文件系统的根目录路径是“/”,不过笔者本人在设计这个资源管理器时,并没有固定采用默认根目录路径,而是提供了可自定义的根目录路径接口,为什么要这样呢?因为我们考虑到日后要将此资源管理器组件嵌入到其他的窗口系统中,并可根据不同用户组权限分配设置不同的起始根目录,譬如,对于admin系统管理员等角色,根目录路径为”/”,对于hdfs角色用户,根目录路径则为“/user/hdfs”,依次类推,等等等等。效果图如下所示:
利用JTable组件构建右侧的目录文件列表,用不同的图标来区分文件和目录,列表中显示的内容包括:目录文件名称、文件大小、目录文件权限、所属用户、所属用户组、创建(修改)时间等。与Windows的资源管理器类似,系统不会显示目录大小信息,这是因为统计目录大小是一件比较耗时的工作。
在列表中双击目录行时,系统将打开进入此目录。但双击文件行时,系统将不执行任何操作。在这一点,朋友们可以根据自己的需要自行开发设计。
目录文件的权限信息格式与linux系统中的目录文件权限信息格式类似,HDFS Java API提供有接口方法获取和设置权限信息,笔者本人编写了一个方法,专门用来解析获取目录文件的权限信息,代码如下:
/** * 解析文件权限信息 * @param fs * @return */ public static String getFilePermissionInfo(FileStatus fs) { String fileType = "-"; if(fs.isDirectory()) { fileType = "d"; } else if (fs.isSymlink()) { fileType = "l"; } return fileType + fs.getPermission().toString(); }
创建目录、重命名目录以及重命名文件的代码都比较简单明了,这里不再赘述,下面只贴出来几张效果图供朋友们参考。当删除目录时,需要先删除目录中的文件,然后才能删除目录,也就是说,HDFS是不允许直接删除非空目录的。
移动目录文件其实是重命名目录文件的变相操作,是在保持目录文件名称不变的同时改变下目录文件路径而已。当移动一个目录时,会同时移动此目录下的所有子目录和文件。譬如移动某个文件,示例代码如下:
Path srcPath = new Path("/user/hdfs/2015/10/10.dat"); Path dstPath = new Path("/user/hdfs/2014/08/10.dat"); HadoopConfigUtil.getFileSystem().rename(srcPath, dstPath);
移动目录文件有两种操作方式,一是先打开目录导航树,选择目标目录,然后移动,如下图所示;二是直接在目录文件列表区域拖动要移动的目录文件到左侧目录导航树上,完成移动。
上传目录文件,是指在本地文件系统中选择目录文件,将其上传到HDFS系统中。如果上传的是文件,则直接将其上传到HDFS指定目录中即可;如果上传的是目录,则需要根据本地目录结构在HDFS系统中构建对应的目录结构,然后将文件上传到对应的目录中。
HDFS文件系统中存储的一般都是大文件数据,因此在上传或者下载的时候必须有进度提醒。
下面,笔者将采用截图、代码的形式讲解下目录文件上传的大致流程。
第一,选择本地文件系统中要上传的目录文件,可一次上传多个目录文件。
JFileChooser chooser = new JFileChooser(); chooser.setFileSelectionMode(JFileChooser.FILES_AND_DIRECTORIES); chooser.setMultiSelectionEnabled(true); chooser.showDialog(this, "选择目录或文件"); if(chooser.getSelectedFiles().length == 0) return; File[] files = chooser.getSelectedFiles();
第三,根据已选择的本地目录,在HDFS系统中构建对应的目录结构。
第四,循环读取JTable文件列表,逐个上传文件,并实时更新上传进度。关键代码如下所示:
new Thread(new Runnable() { @Override public void run() { int rowCount = tableModel.getRowCount(); for(int i=0;i<rowCount;i++) { final int rowIndex = i; String localFilePath = tableModel.getValueAt(rowIndex, 1).toString(); String hdfsFilePath = pathMappingList.get(localFilePath); InputStream in = null; OutputStream out = null; try { File localFile = new File(localFilePath); final int fileSize = (int)localFile.length(); final int[] uploadSize = new int[1]; final DecimalFormat df = new DecimalFormat("#"); in = new BufferedInputStream(new FileInputStream(localFilePath)); out = HadoopConfigUtil.getFileSystem().create(new Path(hdfsFilePath),new Progressable() { public void progress() { uploadSize[0] += 1024*64; double dblPercent = (uploadSize[0] * 1.0 / fileSize) * 100; String strPercent = df.format(dblPercent); tableModel.setValueAt(strPercent + "%", rowIndex, 4); } }); IOUtils.copyBytes(in, out, 1024*64, true); tableModel.setValueAt("已上传", rowIndex, 4); } catch (Exception ex) { ex.printStackTrace(); } finally { if(in != null) { try { in.close(); } catch (IOException e) { e.printStackTrace(); } } if(out != null) { try { out.close(); } catch (IOException e) { e.printStackTrace(); } } } } } }).start();
上传效果图如下所示:
下载目录文件,是指在HDFS文件系统中选择目录文件,将其下载到本地文件系统中。如果下载的是文件,则直接将其下载到本地指定目录中即可;如果下载的是目录,则需要根据HDFS系统目录结构在本地系统中构建对应的目录结构,然后将文件下载到对应的目录中。
下面,笔者将采用截图、代码的形式讲解下目录文件下载的大致流程。
第一,选择HDFS文件系统中要下载的目录文件,可一次下载多个目录文件。
第二,解析已选择的HDFS文件,将它们罗列在JTable列表中,以方便下载监控。
第三,根据已选择的HDFS目录,在本地文件系统中构建对应的目录结构。
第四,循环读取JTable文件列表,逐个下载文件,并实时更新下载进度。关键代码如下所示:
new Thread(new Runnable() { @Override public void run() { int rowCount = tableModel.getRowCount(); for(int i=0;i<rowCount;i++) { String hdfsFilePath = tableModel.getValueAt(i, 1).toString(); String localFilePath = pathMappingList.get(hdfsFilePath); Path path = new Path(hdfsFilePath); InputStream in = null; OutputStream out = null; try { FileStatus fs = HadoopConfigUtil.getFileSystem().getFileStatus(path); int fileSize = (int)fs.getLen(); in = HadoopConfigUtil.getFileSystem().open(path, 1024); byte[] buffer = new byte[fileSize]; int offset = 0; int numRead = 0; double dblPercent = 0; DecimalFormat df = new DecimalFormat("#"); while(offset < buffer.length && (numRead = in.read(buffer,offset,buffer.length - offset)) >= 0) { offset += numRead; dblPercent = (offset * 1.0 / fileSize) * 100; String strPercent = df.format(dblPercent); tableModel.setValueAt(strPercent + "%", i, 4); } if(offset != buffer.length) { throw new IOException("不能完整地读取文件 " + hdfsFilePath); } tableModel.setValueAt("已下载", i, 4); File localFile = new File(localFilePath); if(localFile.getParentFile().exists() == false) { localFile.getParentFile().mkdirs(); } out = new FileOutputStream(localFile); out.write(buffer); out.flush(); } catch (Exception ex) { ex.printStackTrace(); } finally { if(in != null) { try { in.close(); } catch (IOException e) { e.printStackTrace(); } } if(out != null) { try { out.close(); } catch (IOException e) { e.printStackTrace(); } } } } } }).start();
此功能窗体用于查看目录文件的详细属性信息,对于目录,则会统计此目录所包含的子目录和文件数量,以及目录的总大小。效果图如下所示:
配置目录文件权限是一个高级别的功能,一般只开放给管理员用户,普通用户是禁用的。权限配置分两部分:文件权限和用户权限。
文件权限配置代码如下所示:
int userPermission = 7; int groupPermission = 6; int otherPermission = 6; String permissionInfo = userPermission + "" + groupPermission + "" + otherPermission; for(String filePath : filePathList) { Path path = new Path(filePath); FsPermission permission = new FsPermission(permissionInfo); HadoopConfigUtil.getFileSystem().setPermission(path, permission); }
用户权限配置代码如下所示:
String userName = this.txtOwner.getText(); String groupName = this.txtGroup.getText(); for(String filePath : filePathList) { Path path = new Path(filePath); HadoopConfigUtil.getFileSystem().setOwner(path, userName, groupName); }
效果图如下所示:
笔者以“/user/hdfs”为根目录路径,编译导出了一个简单版本的HDFS-BROWSER运行文件包,各位朋友可以下载试运行一下。当然,前提是你要有一个Hadoop集群才行(本地模式、伪集群都可以,只要有HDFS服务就行),并用你的集群配置文件core-site.xml和hdfs-site.xml进行替换;另外,笔者本人是用JDK7进行编译的。
本来想把所有的jar都一块打包算了,不过hadoop相关的jar包实在太多了,取舍又很不方便,所以只保留了几个笔者本人自己开发的jar包文件,其他jar文件都删除了,需要您手动把hadoop相关的jar包文件拷贝到lib目录中,这里给出相关jar包文件的清单截图,仅供参考,如果您有耐心的话,可以剔除不需要的jar包文件。
还有,记着在环境变量中设置HADOOP_USER_NAME=hdfs,不然会出现权限不足方面的错误。配置完毕后,双击bat文件就可以启动这个资源管理器了。
下载HDFS-Browser运行文件
作者:商兵兵
单位:河南省电力科学研究院智能电网所
QQ:52190634
主页:http://www.cnblogs.com/shangbingbing
空间:http://shangbingbing.qzone.qq.com