Hadoop/Hive-学习笔记【中级篇】

目录

参考文章

hadoop配置文件详解

core-site.xml篇

hdfs-site.xml篇


参考文章

目的 链接
hadoop配置文件 hadoop配置文件详解系列(一)-core-site.xml篇 - 程序员姜小白 - 博客园 (cnblogs.com)
hadoop配置文件 hadoop配置文件详解系列(二)-hdfs-site.xml篇 - 程序员姜小白 - 博客园 (cnblogs.com)

hadoop配置文件详解

core-site.xml篇

属性名称
 
hadoop.common.configuration.version 【属性值】:0.23.0;【描述】:配置文件的版本。
hadoop.tmp.dir 【属性值】:/tmp/hadoop-${user.name};【描述】:其它临时目录的父目录,会被其它临时目录用到。
io.native.lib.available 【属性值】:TRUE;【描述】:是否使用本地库进行bz2和zlib的文件压缩及编解码。
hadoop.http.filter.initializers 【属性值】:org.apache.hadoop.http.lib.StaticUserWebFilter;【描述】:一个逗号分隔的类名列表,他们必须继承于org.apache.hadoop.http.FilterInitializer,相应的过滤器被初始化后,将应用于所有的JSP和Servlet网页。列表的排序即为过滤器的排序。 
hadoop.security.authorization 【属性值】:FALSE;【描述】:是否启用service级别的授权。
hadoop.security.instrumentation.requires.admin 【属性值】:FALSE;【描述】:访问servlets (JMX, METRICS, CONF, STACKS)是否需要管理员ACL(访问控制列表)的授权。
hadoop.security.authentication 【属性值】:simple;【描述】:有两个选项,simple和kerberos,两个的详细区别就自己百度吧。
hadoop.security.group.mapping 【属性值】:org.apache.hadoop.security.JniBasedUnixGroupsMappingWithFallback;【描述】:用于ACL用户组映射的类,默认的实现类是 org.apache.hadoop.security.JniBasedUnixGroupsMappingWithFallback,定义了JNI是否可用,如果可用,将使用hadoop中的API来实现访问用户组解析,如果不可用,将使用ShellBasedUnixGroupsMapping来实现。
hadoop.security.dns.interface 【属性值】:;【描述】:用于确定Kerberos登录主机的网络接口的名称。
hadoop.security.dns.nameserver 【属性值】:;【描述】:用于确定Kerberos登录主机的地址。
hadoop.security.dns.log-slow-lookups.enabled 【属性值】:FALSE;【描述】:当查询名称时间超过阈值时是否进行记录。
hadoop.security.dns.log-slow-lookups.threshold.ms 【属性值】:1000;【描述】:接上一个属性,这个属性就是设置阈值的。
hadoop.security.groups.cache.secs 【属性值】:300;【描述】:配置用户组映射缓存时间的,当过期时重新获取并缓存。
hadoop.security.groups.negative-cache.secs 【属性值】:30;【描述】:当无效用户频繁访问,用于设置缓存锁定时间。建议设置为较小的值,也可以通过设置为0或负数来禁用此属性。
hadoop.security.groups.cache.warn.after.ms 【属性值】:5000;【描述】:当查询用户组时间超过设置的这个阈值时,则作为警告信息进行记录。
hadoop.security.groups.cache.background.reload 【属性值】:FALSE;【描述】:是否使用后台线程池重新加载过期的用户组映射。
hadoop.security.groups.cache.background.reload.threads 【属性值】:3;【描述】:接上一个属性,当上个属性为true时,通过此属性控制后台线程的数量。
hadoop.security.groups.shell.command.timeout 【属性值】:0s;【描述】:设置shell等待命令执行时间,如果超时,则命令中止,如果设置为0,表示无限等待。
hadoop.security.group.mapping.ldap.connection.timeout.ms 【属性值】:60000;【描述】:设置LDAP的连接超时时间,如果为0或负数,表示无限等待。
hadoop.security.group.mapping.ldap.read.timeout.ms 【属性值】:60000;【描述】:设置LDAP的读取超时时间,如果为0或负数,表示无限等待。
hadoop.security.group.mapping.ldap.url 【属性值】:;【描述】:LDAP服务器的地址。
hadoop.security.group.mapping.ldap.ssl 【属性值】:FALSE;【描述】:是否使用SSL连接LDAP服务器。
hadoop.security.group.mapping.ldap.ssl.keystore 【属性值】:;【描述】:包含SSL证书的SSL密钥文件的存储路径。
hadoop.security.group.mapping.ldap.ssl.keystore.password.file 【属性值】:;【描述】:包括SSL密钥文件访问密码的文件路径,如果此属性没有设置,并且hadoop.security.group.mapping.ldap.ssl.keystore.password属性也没有设置,则直接从LDAP指定文件读取密码(注意:此文件只能由运行守护进程的unix用户读取,并且应该是本地文件)。
hadoop.security.group.mapping.ldap.ssl.keystore.password 【属性值】:;【描述】:保存SSL密钥文件访问密码的别名,如果此属性为空,并且hadoop.security.credential.clear-text-fallback属性为true时,则通过后者获取密码。
hadoop.security.credential.clear-text-fallback 【属性值】:TRUE;【描述】:是否将密码保存为明文。
hadoop.security.credential.provider.path 【属性值】:;【描述】:包含证书类型和位置的文件地址列表。
hadoop.security.credstore.java-keystore-provider.password-file 【属性值】:;【描述】:包含用户自定义密码的文件路径。
hadoop.security.group.mapping.ldap.bind.user 【属性值】:;【描述】:连接到LDAP服务器时的用户别名,如果LDAP服务器支持匿名绑定,则此属性可以为空值。
hadoop.security.group.mapping.ldap.bind.password.file 【属性值】:;【描述】:包含绑定用户密码的文件的路径。如果在证书提供程序中没有配置密码,并且属性hadoop.security.group.mapping.ldap.bind.password没有设置,则从文件读取密码。注意:此文件只能由运行守护进程的UNIX用户读取,并且应该是本地文件。
hadoop.security.group.mapping.ldap.bind.password 【属性值】:;【描述】:绑定用户的密码。此属性名用作从凭据提供程序获取密码的别名。如果无法找到密码,hadoop.security.credential.clear-text-fallback是真的,则使用此属性的值作为密码。
hadoop.security.group.mapping.ldap.base 【属性值】:;【描述】:LDAP连接时搜索的根目录。
hadoop.security.group.mapping.ldap.userbase 【属性值】:;【描述】:指定用户LDAP连接时搜索的根目录。如果不设置此属性,则使用hadoop.security.group.mapping.ldap.base属性的值。
hadoop.security.group.mapping.ldap.groupbase 【属性值】:;【描述】:指定用户组LDAP连接时搜索的根目录。如果不设置此属性,则使用hadoop.security.group.mapping.ldap.base属性的值。
hadoop.security.group.mapping.ldap.search.filter.user 【属性值】:(&(objectClass=user)(sAMAccountName={0}));【描述】:搜索LDAP用户时提供的额外的筛选器。
hadoop.security.group.mapping.ldap.search.filter.group 【属性值】:(objectClass=group);【描述】:搜索LDAP用户组时提供的额外的筛选器。
hadoop.security.group.mapping.ldap.search.attr.memberof 【属性值】:;【描述】:用户对象的属性,用于标识其组对象。
hadoop.security.group.mapping.ldap.search.attr.member 【属性值】:member;【描述】:用户组对象的属性,用于标识其有哪些组成员。
hadoop.security.group.mapping.ldap.search.attr.group.name 【属性值】:cn;【描述】:用户组对象的属性,用于标识用户组的名称。
hadoop.security.group.mapping.ldap.search.group.hierarchy.levels 【属性值】:0;【描述】:当要确定用户所属的用户组时,此属性用于指定向上查找的层级数目。如果为0,则表示只查询当前用户所属的直接用户组,不再向上查找。
hadoop.security.group.mapping.ldap.posix.attr.uid.name 【属性值】:uidNumber;【描述】: posixAccount的属性,用于成员分组
hadoop.security.group.mapping.ldap.posix.attr.gid.name 【属性值】:gidNumber;【描述】:posixAccount的属性,用户标识组ID。
hadoop.security.group.mapping.ldap.directory.search.timeout 【属性值】:10000;【描述】: LDAP SearchControl的属性,用于在搜索和等待结果时设置最大时间限制。如果需要无限等待时间,设置为0。默认值为10秒。单位为毫秒。
hadoop.security.group.mapping.providers 【属性值】:;【描述】:逗号分隔的提供商名称,用于用户组映射。
hadoop.security.group.mapping.providers.combined 【属性值】:TRUE;【描述】:标识提供商提供的级是否可以被组合。
hadoop.security.service.user.name.key 【属性值】:;【描述】:此属性用于指定RPC调用的服务主名称,适用于相同的RPC协议由多个服务器实现的情况。
fs.azure.user.agent.prefix 【属性值】:unknown;【描述】:WASB提供给Azure的前缀,默认包括WASB版本、JAVA运行时版本、此属性的值等。
hadoop.security.uid.cache.secs 【属性值】:14400;【描述】:控制缓存的过期时间。
hadoop.rpc.protection 【属性值】:authentication;【描述】:一个逗号分隔的安全SASL连接的保护值列表。
hadoop.security.saslproperties.resolver.class 【属性值】:;【描述】:用于连接时解决QOP的SaslPropertiesResolver。
hadoop.security.sensitive-config-keys 【属性值】:secret$ password$ ssl.keystore.pass$ fs.s3.*[Ss]ecret.?[Kk]ey fs.s3a.*.server-side-encryption.key fs.azure.account.key.* credential$ oauth.*token$ hadoop.security.sensitive-config-keys;【描述】:一个逗号分隔的或多行的正则表达式列表。
hadoop.workaround.non.threadsafe.getpwuid 【属性值】:TRUE;【描述】:一些系统已知在调用getpwuid_r和getpwgid_r有问题,这些调用是非线程安全的。这个问题的主要表现特征是JVM崩溃。如果你的系统有这些问题,开启这个选项。默认是关闭的。
hadoop.kerberos.kinit.command 【属性值】:kinit;【描述】:用于Kerberos证书的定时更新。
hadoop.kerberos.min.seconds.before.relogin 【属性值】:60;【描述】:重新尝试登录Kerberos的最小时间间隔,单位为秒。
hadoop.security.auth_to_local 【属性值】:;【描述】:将Kerberos主体映射到本地用户名。
hadoop.token.files 【属性值】:;【描述】:具有Hadoop服务授权令牌的令牌缓存文件列表。
io.file.buffer.size 【属性值】:4096;【描述】:在序列文件中使用的缓冲区大小。这个缓冲区的大小应该是页大小(英特尔x86上为4096)的倍数,它决定读写操作中缓冲了多少数据。
io.bytes.per.checksum 【属性值】:512;【描述】:每个检验和的字节数,不能大于 io.file.buffer.size属性的值。
io.skip.checksum.errors 【属性值】:FALSE;【描述】:如果为true,当读取序列文件时遇到校验和错误,则跳过条目,而不是抛出异常。
io.compression.codecs 【属性值】:;【描述】:一组可用于压缩/解压缩的表列表,使用逗号进行分隔。
io.compression.codec.bzip2.library 【属性值】:system-native;【描述】:用于bzip2编解码的本地代码库,可以通过名称或全路径来指定该库。
io.serializations 【属性值】:org.apache.hadoop.io.serializer.WritableSerialization, org.apache.hadoop.io.serializer.avro.AvroSpecificSerialization, org.apache.hadoop.io.serializer.avro.AvroReflectSerialization;【描述】:可用于获取序列化和反序列化的序列化类的列表。
io.seqfile.local.dir 【属性值】:${hadoop.tmp.dir}/io/local;【描述】:存储中间数据文件的本地目录。
io.map.index.skip 【属性值】:0;【描述】:跳过索引的数量。
io.map.index.interval 【属性值】:128;【描述】:MapFile由两部分组成:数据文件和索引文件。在每个设置的时间间隔后,会根据写入的数据文件内容,创建索引对应的索引文件内容。
fs.defaultFS 【属性值】:file:///;【描述】:默认文件系统的名称。通常指定namenode的URI地址,包括主机和端口。
fs.default.name 【属性值】:file:///;【描述】:不建议使用此属性,建议用fs.defaultFS属性代替。
fs.trash.interval 【属性值】:0;【描述】:检查点被删除的时间间隔,单位为分钟。此属性可以在服务器和客户端上配置。如果服务器上被禁用,则检查客户端配置,如果服务器上被启用,则忽略客户端配置。
fs.trash.checkpoint.interval 【属性值】:0;【描述】:检查点之间的时间间隔,此属性的值应该小于fs.trash.interval属性的值。每次检查指针运行时,它都会创建一个新的检查点,并移除在几分钟前创建的检查点。
fs.protected.directories 【属性值】:;【描述】:一个逗号分隔的目录列表,即使是空的,也不能被超级用户删除。此设置可用于防止重要系统目录因管理员错误而意外删除。 
fs.AbstractFileSystem.file.impl 【属性值】:org.apache.hadoop.fs.local.LocalFs;【描述】:file的抽象文件类。
fs.AbstractFileSystem.har.impl 【属性值】:org.apache.hadoop.fs.HarFs;【描述】:har的抽象文件类。
fs.AbstractFileSystem.hdfs.impl 【属性值】:org.apache.hadoop.fs.Hdfs;【描述】:hdfs的抽象文件类。
fs.AbstractFileSystem.viewfs.impl 【属性值】:org.apache.hadoop.fs.viewfs.ViewFs;【描述】:viewfs的抽象文件类。
fs.viewfs.rename.strategy 【属性值】:SAME_MOUNTPOINT;【描述】:允许在多个挂载点间重命名。
fs.AbstractFileSystem.ftp.impl 【属性值】:org.apache.hadoop.fs.ftp.FtpFs;【描述】:ftp的抽象文件类。
fs.AbstractFileSystem.webhdfs.impl 【属性值】:org.apache.hadoop.fs.WebHdfs;【描述】:webhdfs的抽象文件类。
fs.AbstractFileSystem.swebhdfs.impl 【属性值】:org.apache.hadoop.fs.SWebHdfs;【描述】:swebhdfs的抽象文件类。
fs.ftp.host 【属性值】:0.0.0.0;【描述】:ftp的连接服务器。
fs.ftp.host.port 【属性值】:21;【描述】:ftp的连接服务器端口。
fs.ftp.data.connection.mode 【属性值】:ACTIVE_LOCAL_DATA_CONNECTION_MODE;【描述】:ftp客户端的数据连接模式,有如下选项ACTIVE_LOCAL_DATA_CONNECTION_MODE,PASSIVE_LOCAL_DATA_CONNECTION_MODE 和PASSIVE_REMOTE_DATA_CONNECTION_MODE。
fs.ftp.transfer.mode 【属性值】:BLOCK_TRANSFER_MODE;【描述】:ftp的数据传输模式,有如下选项 STREAM_TRANSFER_MODE,BLOCK_TRANSFER_MODE 和COMPRESSED_TRANSFER_MODE。
fs.df.interval 【属性值】:60000;【描述】:磁盘使用统计情况的刷新时间间隔。
fs.du.interval 【属性值】:600000;【描述】:文件空间使用统计情况的刷新时间间隔。
fs.s3.awsAccessKeyId 【属性值】:;【描述】:S3使用的AWS访问密钥ID。
fs.s3.awsSecretAccessKey 【属性值】:;【描述】:S3使用的AWS密钥.
fs.s3.block.size 【属性值】:67108864;【描述】:S3使用的块大小。
fs.s3.buffer.dir 【属性值】:${hadoop.tmp.dir}/s3;【描述】:该目录用于发送S3前的临时本地目录。
fs.s3.maxRetries 【属性值】:4;【描述】:在向应用程序发出故障之前,读取或写入文件到S3的最大重试次数。
fs.s3.sleepTimeSeconds 【属性值】:10;【描述】:在每次S3重试之间的睡眠时间间隔。
fs.swift.impl 【属性值】:org.apache.hadoop.fs.swift.snative.SwiftNativeFileSystem;【描述】:OpenStack Swift Filesystem的实现类。
fs.automatic.close 【属性值】:TRUE;【描述】:当为true时,FileSystem的实例会在程序退出时关闭,为false时,不自动退出。
fs.s3n.awsAccessKeyId 【属性值】:;【描述】:S3本地文件系统使用的AWS访问密钥ID。
fs.s3n.awsSecretAccessKey 【属性值】:;【描述】:S3本地文件系统使用的AWS密钥.
fs.s3n.block.size 【属性值】:67108864;【描述】:S3本地文件系统使用的块大小。
fs.s3n.multipart.uploads.enabled 【属性值】:FALSE;【描述】:为true时,允许多个上传到本地S3。当上传一个的大小超过fs.s3n.multipart.uploads.block.size属性的大小,则将其分割成块。
fs.s3n.multipart.uploads.block.size 【属性值】:67108864;【描述】:多上传到本地S3时的块大小,默认大小为64MB。
fs.s3n.multipart.copy.block.size 【属性值】:5368709120;【描述】:多拷贝时的块大小,默认大小为5GB。
fs.s3n.server-side-encryption-algorithm 【属性值】:;【描述】:为S3指定服务器端加密算法。默认情况下未设置,而当前唯一允许的值是AES256。
fs.s3a.access.key 【属性值】:;【描述】:S3A文件系统使用的AWS访问密钥ID。
fs.s3a.secret.key 【属性值】:;【描述】:S3A文件系统使用的AWS密钥。
fs.s3a.aws.credentials.provider 【属性值】:;【描述】:一组com.amazonaws.auth.AWSCredentialsProvider的实现类,按照顺序加载和查询。
fs.s3a.session.token 【属性值】:;【描述】:当使用org.apache.hadoop.fs.s3a.TemporaryAWSCredentialsProvider时的会话令牌。
fs.s3a.security.credential.provider.path 【属性值】:;【描述】:hadoop.security.credential.provider.path属性的一个子集
fs.s3a.connection.maximum 【属性值】:15;【描述】:S3A的最大连接数。
fs.s3a.connection.ssl.enabled 【属性值】:TRUE;【描述】:是否启用SSL连接到S3A。
fs.s3a.endpoint 【属性值】:;【描述】:AWS S3 连接终端。
fs.s3a.path.style.access 【属性值】:FALSE;【描述】:启用S3A path style访问,即禁用默认虚拟的互联网行为。
fs.s3a.proxy.host 【属性值】:;【描述】:S3A连接代理的主机名。
fs.s3a.proxy.port 【属性值】:;【描述】:S3A连接代理的端口,如果未设置,默认为80或443。
fs.s3a.proxy.username 【属性值】:;【描述】:S3A连接代理的用户名。
fs.s3a.proxy.password 【属性值】:;【描述】:S3A连接代理的密码。
fs.s3a.proxy.domain 【属性值】:;【描述】:S3A连接代理的域。
fs.s3a.proxy.workstation 【属性值】:;【描述】:S3A连接代理的工作站。
fs.s3a.attempts.maximum 【属性值】:20;【描述】:当出现错误时的最大重试次数。
fs.s3a.connection.establish.timeout 【属性值】:5000;【描述】:Socket连接建立超时时间,单位为毫秒。
fs.s3a.connection.timeout 【属性值】:200000;【描述】:Socket连接保持时间,单位为毫秒。
fs.s3a.socket.send.buffer 【属性值】:8192;【描述】:Socket 发送缓冲大小,单位为字节。
fs.s3a.socket.recv.buffer 【属性值】:8192;【描述】:Socket 接收缓冲大小,单位为字节。
fs.s3a.paging.maximum 【属性值】:5000;【描述】:在读取目录列表时,从S3A同时请求的密钥最大数量。
fs.s3a.threads.max 【属性值】:10;【描述】:文件请求的最大并发线程数。
fs.s3a.threads.keepalivetime 【属性值】:60;【描述】:线程空间多长时间后,即终止。单位为秒。
fs.s3a.max.total.tasks 【属性值】:5;【描述】:可以并发执行的操作数。
fs.s3a.multipart.size 【属性值】:100M;【描述】:upload或copy操作,当文件超过多大时,即拆分。单位可以为K/M/G/T/P。
fs.s3a.multipart.threshold 【属性值】:2147483647;【描述】:upload或copy或rename操作,当文件超过多大时,即拆分。单位可以为K/M/G/T/P,不写表示字节。
fs.s3a.multiobjectdelete.enable 【属性值】:TRUE;【描述】:当启用时,多个单对象的删除,被单个多对象的删除替代,以减少请求数。
fs.s3a.acl.default 【属性值】:;【描述】:选项有Private、PublicRead,、PublicReadWrite、 AuthenticatedRead、LogDeliveryWrite、 BucketOwnerRead、 or BucketOwnerFullControl。
fs.s3a.multipart.purge 【属性值】:FALSE;【描述】:当为true时,清除多文件上传失败时的文件。
fs.s3a.multipart.purge.age 【属性值】:86400;【描述】:清理多文件上传的最小秒数。
fs.s3a.server-side-encryption-algorithm 【属性值】:;【描述】:为S3A指定服务器端加密算法,可以为 'AES256' (for SSE-S3)、 'SSE-KMS' 或 'SSE-C'.
fs.s3a.server-side-encryption.key 【属性值】:;【描述】:如果 fs.s3a.server-side-encryption-algorithm属性值为'SSE-KMS' or 'SSE-C',则使用特定的加密密钥。在SSE-C的情况下,这个属性的值应该是Base64编码的密钥,在SSE-KMS的情况下,如果该属性为空,则使用默认的S3KMS密钥,否则应将该属性设置为特定的KMS密钥ID。
fs.s3a.signing-algorithm 【属性值】:;【描述】:重写默认签名算法。
fs.s3a.block.size 【属性值】:32M;【描述】:S3A的块大小。
fs.s3a.buffer.dir 【属性值】:${hadoop.tmp.dir}/s3a;【描述】:用于缓冲上传文件的目录。
fs.s3a.fast.upload 【属性值】:FALSE;【描述】:是否启用基于增量块的快速上传机制。
fs.s3a.fast.upload.buffer 【属性值】:disk;【描述】:选项可以为disk/array/bytebuffer。
fs.s3a.fast.upload.active.blocks 【属性值】:4;【描述】:单个输出流可以激活的最大块数。
fs.s3a.readahead.range 【属性值】:64K;【描述】:在关闭和重新打开S3 HTTP连接之前在seek()提前读取的字节。
fs.s3a.user.agent.prefix 【属性值】:;【描述】:设置一个自定义值,作为发送到S3的HTTP请求的头部。
fs.s3a.metadatastore.authoritative 【属性值】:FALSE;【描述】:当为true时,允许元数据作为真实的数据源。
fs.s3a.metadatastore.impl 【属性值】:org.apache.hadoop.fs.s3a.s3guard.NullMetadataStore;【描述】:实现S3A的元数据存储类的完全限定名。
fs.s3a.s3guard.cli.prune.age 【属性值】:86400000;【描述】:删除命令执行后,元数据在设定时间后被删除,单位为毫秒。
fs.s3a.impl 【属性值】:org.apache.hadoop.fs.s3a.S3AFileSystem;【描述】:S3A文件系统的实现类 。
fs.s3a.s3guard.ddb.region 【属性值】:;【描述】:AWS DynamoDB连接域。
fs.s3a.s3guard.ddb.table 【属性值】:;【描述】:DynamoDB操作表名,如果此属性没有被设置,则使用S3的桶名。
fs.s3a.s3guard.ddb.table.create 【属性值】:FALSE;【描述】:当为true时,S3A客户端将允许创建不存在的表。
fs.s3a.s3guard.ddb.table.capacity.read 【属性值】:500;【描述】:读操作的吞吐量设置。
fs.s3a.s3guard.ddb.table.capacity.write 【属性值】:100;【描述】:写操作的吞吐量设置。
fs.s3a.s3guard.ddb.max.retries 【属性值】:9;【描述】:批量DynamoDB操作报错或取消前的最大重试次数。
fs.s3a.s3guard.ddb.background.sleep 【属性值】:25;【描述】:批量删除时,每个删除间的时间间隔,单位为毫秒。
fs.AbstractFileSystem.s3a.impl 【属性值】:org.apache.hadoop.fs.s3a.S3A;【描述】:S3A抽象文件系统的实现类。
fs.wasb.impl 【属性值】:org.apache.hadoop.fs.azure.NativeAzureFileSystem;【描述】:原生Azure文件系统的实现类。
fs.wasbs.impl 【属性值】:org.apache.hadoop.fs.azure.NativeAzureFileSystem$Secure;【描述】:安全原生Azure文件系统的实现类。
fs.azure.secure.mode 【属性值】:FALSE;【描述】:当为true时,允许 fs.azure.NativeAzureFileSystem使用SAS密钥与Azure存储进行通信。
fs.azure.local.sas.key.mode 【属性值】:FALSE;【描述】:当为true时,fs.azure.NativeAzureFileSystem使用本地SAS密钥生成,当为false,此属性无意义。
fs.azure.sas.expiry.period 【属性值】:90d;【描述】:生成的SAS密钥过期时间,单位可以是ms(millis), s(sec), m(min), h(hour), d(day) 。
fs.azure.authorization 【属性值】:FALSE;【描述】:当为true时,启用WASB的授权支持。
fs.azure.authorization.caching.enable 【属性值】:TRUE;【描述】:当为true时,开户授权结果的缓存。
fs.azure.saskey.usecontainersaskeyforallaccess 【属性值】:TRUE;【描述】:当为true时,使用容器内的SAS密钥访问blob,专用密钥无效。
fs.adl.impl 【属性值】:org.apache.hadoop.fs.adl.AdlFileSystem;【描述】:
fs.AbstractFileSystem.adl.impl 【属性值】:org.apache.hadoop.fs.adl.Adl;【描述】:
io.seqfile.compress.blocksize 【属性值】:1000000;【描述】:块压缩序列文件中压缩的最小块大小。
io.mapfile.bloom.size 【属性值】:1048576;【描述】:BloomMapFile中的bloom过滤器大小。
io.mapfile.bloom.error.rate 【属性值】:0.005;【描述】:BloomMapFile中的bloom过滤器的假负率,默认是0.5%。
hadoop.util.hash.type 【属性值】:murmur;【描述】:Hash的默认实现,有两个选项murmur和jenkins。
ipc.client.idlethreshold 【属性值】:4000;【描述】:定义连接的阈值数量,之后将检查连接是否空闲。
ipc.client.kill.max 【属性值】:10;【描述】:定义一次断开的客户端的最大数量。
ipc.client.connection.maxidletime 【属性值】:10000;【描述】:空间连接断开时间,单位为毫秒。
ipc.client.connect.max.retries 【属性值】:10;【描述】:客户端重新建立服务器连接的重试次数。
ipc.client.connect.retry.interval 【属性值】:1000;【描述】:两次重新建立连接之间的时间间隔,单位为毫秒。
ipc.client.connect.timeout 【属性值】:20000;【描述】:客户端通过socket连接到服务器的超时时间。
ipc.client.connect.max.retries.on.timeouts 【属性值】:45;【描述】:客户端通过socket重新连接到服务器的重试次数。
ipc.client.tcpnodelay 【属性值】:TRUE;【描述】:当为true时,使用TCP_NODELAY标志绕过Nagle的算法传输延迟。
ipc.client.low-latency 【属性值】:FALSE;【描述】:当为true时,使用低延迟在QoS标记。
ipc.client.ping 【属性值】:TRUE;【描述】:当为true时,如果读取响应超时,则向服务器发送ping命令。
ipc.ping.interval 【属性值】:60000;【描述】:等待服务器响应的超时时间,单位为毫秒。当ipc.client.ping属性为true时,客户端将在不接收字节的情况下发送Ping命令。
ipc.client.rpc-timeout.ms 【属性值】:0;【描述】:等待服务器响应的超时时间,单位为毫秒。当ipc.client.ping属性为true,并且这个属性的时间比 ipc.ping.interval属性的值大时,这个属性的时间将被修改为 ipc.ping.interval的最大倍数。
ipc.server.listen.queue.size 【属性值】:128;【描述】:接受客户端连接的服务器的侦听队列的长度。
ipc.server.log.slow.rpc 【属性值】:FALSE;【描述】:此设置有助于排除各种服务的性能问题。如果这个值设置为true,将被记录请求。
ipc.maximum.data.length 【属性值】:67108864;【描述】:服务器可以接受的最大IPC消息长度(字节)。
ipc.maximum.response.length 【属性值】:134217728;【描述】:服务器可以接受的最大IPC消息长度(字节)。设置为0禁用。
hadoop.security.impersonation.provider.class 【属性值】:;【描述】:ImpersonationProvider接口的实现类,用于授权一个用户是否可以模拟特定用户。如果未指定,则使用DefaultImpersonationProvider实现。
hadoop.rpc.socket.factory.class.default 【属性值】:org.apache.hadoop.net.StandardSocketFactory;【描述】:默认使用SocketFactory,参数格式为package.FactoryClassName。
hadoop.rpc.socket.factory.class.ClientProtocol 【属性值】:;【描述】:连接到DFS的SocketFactory,如果为空,则使用 hadoop.rpc.socket.class.default属性的值。
hadoop.socks.server 【属性值】:;【描述】:SocksSocketFactory使用的SOCKS服务器的地址(主机:端口)。
net.topology.node.switch.mapping.impl 【属性值】:org.apache.hadoop.net.ScriptBasedMapping;【描述】:DNSToSwitchMapping的默认实现,其调用net.topology.script.file.name属性的值来解析节点名称。
net.topology.impl 【属性值】:org.apache.hadoop.net.NetworkTopology;【描述】:NetworkTopology的默认实现,它是典型的三层拓扑结构。
net.topology.script.file.name 【属性值】:;【描述】:该脚本被用于解析DNS的名称,例如,脚本将接收host.foo.bar,然后返回 /rack1。
net.topology.script.number.args 【属性值】:100;【描述】:net.topology.script.file.name属性中参数的最大数量。
net.topology.table.file.name 【属性值】:;【描述】:当net.topology.node.switch.mapping.impl属性的值为 org.apache.hadoop.net.TableMapping时适用,表示一个拓扑文件。该文件格式是两列文本,列由空白分隔。第一列是DNS或IP地址,第二列指定地址映射的机架。如果没有找到对应于集群中的主机的条目,则假设默认机架。
file.stream-buffer-size 【属性值】:4096;【描述】:流文件的缓冲区大小,这个大小应该是页大小的位数(X86为4096)。
file.bytes-per-checksum 【属性值】:512;【描述】:每个校验和的字节数。
file.client-write-packet-size 【属性值】:65536;【描述】:客户机写入的数据包大小。
file.blocksize 【属性值】:67108864;【描述】:块大小。
file.replication 【属性值】:1;【描述】:复制因子。
s3.stream-buffer-size 【属性值】:4096;【描述】:流文件的缓冲区大小,这个大小应该是页大小的位数(X86为4096)。
s3.bytes-per-checksum 【属性值】:512;【描述】:每个校验和的字节数,该数值不能大于 s3.stream-buffer-size属性的值。
s3.client-write-packet-size 【属性值】:65536;【描述】:客户机写入的数据包大小。
s3.blocksize 【属性值】:67108864;【描述】:块大小。
s3.replication 【属性值】:3;【描述】:复制因子。
s3native.stream-buffer-size 【属性值】:4096;【描述】:流文件的缓冲区大小,这个大小应该是页大小的位数(X86为4096)。
s3native.bytes-per-checksum 【属性值】:512;【描述】:每个校验和的字节数,该数值不能大于 s3native.stream-buffer-size属性的值。
s3native.client-write-packet-size 【属性值】:65536;【描述】:客户机写入的数据包大小。
s3native.blocksize 【属性值】:67108864;【描述】:块大小。
s3native.replication 【属性值】:3;【描述】:复制因子。
ftp.stream-buffer-size 【属性值】:4096;【描述】:流文件的缓冲区大小,这个大小应该是页大小的位数(X86为4096)。
ftp.bytes-per-checksum 【属性值】:512;【描述】:每个校验和的字节数,该数值不能大于ftp.stream-buffer-size属性的值。
ftp.client-write-packet-size 【属性值】:65536;【描述】:客户机写入的数据包大小。
ftp.blocksize 【属性值】:67108864;【描述】:块大小。
ftp.replication 【属性值】:3;【描述】:复制因子。
tfile.io.chunk.size 【属性值】:1048576;【描述】:chunk大小,单位为字节,默认为1MB。
tfile.fs.output.buffer.size 【属性值】:262144;【描述】:FSDataOutputStream中使用的缓冲区大小。
tfile.fs.input.buffer.size 【属性值】:262144;【描述】:FSDataInputStream使用的缓冲区大小。
hadoop.http.authentication.type 【属性值】:simple;【描述】:定义了Oozie HTTP终端的认证方式,支持simple和kerberos。
hadoop.http.authentication.token.validity 【属性值】:36000;【描述】:验证令牌的有效时长,单位为秒。
hadoop.http.authentication.signature.secret.file 【属性值】:${user.home}/hadoop-http-auth-signature-secret;【描述】:签署认证令牌的签名秘密。同样的秘密应该用于JT/NN/DN/TT配置。
hadoop.http.authentication.cookie.domain 【属性值】:;【描述】:用于存储身份验证令牌的HTTP Cookie域。为了授权在所有Hadoop节点Web控制台上正确工作,必须正确设置域。重要事项:当使用IP地址时,浏览器忽略具有域设置的Cookie。为了使该设置正常工作,集群中的所有节点必须配置为具有主机名的URL。
hadoop.http.authentication.simple.anonymous.allowed 【属性值】:TRUE;【描述】:当使用'simple'认证时,是否允许匿名请求。
hadoop.http.authentication.kerberos.principal 【属性值】:HTTP/_HOST@LOCALHOST;【描述】:HTTP终端中使用的Kerberos principal,该principal必须以 'HTTP/'开头。
hadoop.http.authentication.kerberos.keytab 【属性值】:${user.home}/hadoop.keytab;【描述】:keytab文件的位置。
hadoop.http.cross-origin.enabled 【属性值】:FALSE;【描述】:是否启用cross-origin (CORS)过滤器。
hadoop.http.cross-origin.allowed-origins 【属性值】:*;【描述】:需要cross-origin (CORS)支持的web服务的来源列表,用逗号分隔。
hadoop.http.cross-origin.allowed-methods 【属性值】:GET,POST,HEAD;【描述】:需要cross-origin (CORS)支持的方法列表,用逗号分隔。
hadoop.http.cross-origin.allowed-headers 【属性值】:X-Requested-With,Content-Type,Accept,Origin;【描述】:需要cross-origin (CORS)支持的web服务的的头部,用逗号分隔。
hadoop.http.cross-origin.max-age 【属性值】:1800;【描述】:需要cross-origin (CORS)支持的web服务缓存支持秒数。
dfs.ha.fencing.methods 【属性值】:;【描述】:fencing方法列表。
dfs.ha.fencing.ssh.connect-timeout 【属性值】:30000;【描述】:SSH连接超时时长,单位为毫秒。
dfs.ha.fencing.ssh.private-key-files 【属性值】:;【描述】:SSH私钥文件。
hadoop.http.staticuser.user 【属性值】:dr.who;【描述】:呈现内容时在静态Web筛选器上进行过滤的用户名,比如在HDFS web UI中的过滤。
ha.zookeeper.quorum 【属性值】:;【描述】:ZooKeeper服务器地址列表,用逗号分隔,可以被ZKFailoverController用于自动故障转移。
ha.zookeeper.session-timeout.ms 【属性值】:5000;【描述】:ZKFC连接到ZooKeeper的超时时长,将该值设置为较低的值意味着服务器崩溃将被更快地检测到,但在瞬态错误或网络错误的情况下,就会使故障转移过于激进。
ha.zookeeper.parent-znode 【属性值】:/hadoop-ha;【描述】:ZKFC下的存储信息的znode。
ha.zookeeper.acl 【属性值】:world:anyone:rwcda;【描述】:znode使用的ZooKeeper ACL列表,用逗号分隔。格式同ZooKeeper CLI。如果ACL本身包含秘密,那么您可以指定一个文件的路径,用“@”符号前缀,并且该配置的值将从内部加载。
ha.zookeeper.auth 【属性值】:;【描述】:连接到ZooKeeper时,将该列表加入到认证列表,此列表用逗号分隔。
hadoop.ssl.keystores.factory.class 【属性值】:org.apache.hadoop.security.ssl.FileBasedKeyStoresFactory;【描述】:用于检索证书的密钥存储工厂。
hadoop.ssl.require.client.cert 【属性值】:FALSE;【描述】:是否需要客户端证书。
hadoop.ssl.hostname.verifier 【属性值】:DEFAULT;【描述】:提供HttpsURL连接主机名验证器。有以下选项:DEFAULT, STRICT, STRICT_IE6, DEFAULT_AND_LOCALHOST 和 ALLOW_ALL。
hadoop.ssl.server.conf 【属性值】:ssl-server.xml;【描述】:提取SSL服务器密钥存储信息的资源文件,这个文件通过在classpath中查询。默认为hadoop下的conf/ 目录。
hadoop.ssl.client.conf 【属性值】:ssl-client.xml;【描述】:提取SSL客户端密钥存储信息的资源文件,这个文件通过在classpath中查询。默认为hadoop下的conf/ 目录。
hadoop.ssl.enabled 【属性值】:FALSE;【描述】:不建议使用,建议用dfs.http.policy and yarn.http.policy代替。
hadoop.ssl.enabled.protocols 【属性值】:TLSv1,SSLv2Hello,TLSv1.1,TLSv1.2;【描述】:支持的SSL协议列表。The supported SSL protocols.
hadoop.jetty.logs.serve.aliases 【属性值】:TRUE;【描述】:对于jetty的服务是否启用别名。
fs.permissions.umask-mode 【属性值】:22;【描述】:创建文件或目录时的umask。例如"022" (符号表示就是 u=rwx,g=r-x,o=r-x ),或者 "u=rwx,g=rwx,o=" (用八进制表示就是007)。
ha.health-monitor.connect-retry-interval.ms 【属性值】:1000;【描述】:重试连接到服务的频率。
ha.health-monitor.check-interval.ms 【属性值】:1000;【描述】:多久检查一次服务
ha.health-monitor.sleep-after-disconnect.ms 【属性值】:1000;【描述】:在异常RPC错误之后,休眠多长时间。
ha.health-monitor.rpc-timeout.ms 【属性值】:45000;【描述】:实际 monitorHealth() 调用超时时间。
ha.failover-controller.new-active.rpc-timeout.ms 【属性值】:60000;【描述】:FC等待新任务的超时时间,在设置时间内有新任务,即重新进入激活状态。
ha.failover-controller.graceful-fence.rpc-timeout.ms 【属性值】:5000;【描述】:FC等待旧任务的超时时间,然后进入待机。
ha.failover-controller.graceful-fence.connection.retries 【属性值】:1;【描述】:graceful fencing中FC连接的重试次数。
ha.failover-controller.cli-check.rpc-timeout.ms 【属性值】:20000;【描述】:CLI (manual) FC等待monitorHealth, getServiceState的超时时间。
ipc.client.fallback-to-simple-auth-allowed 【属性值】:FALSE;【描述】:当客户端被配置为尝试安全连接,但尝试连接到不安全的服务器时,该服务器可以指示客户端切换到SASL SIMPLE(非安全)认证。此设置控制客户端是否将接受来自服务器的此指令。当FALSE(默认)时,客户端将不允许退回到简单的身份验证,并将中止连接。 
fs.client.resolve.remote.symlinks 【属性值】:TRUE;【描述】:在访问远程Hadoop文件系统时,是否解析符号连接。当为false时,如果遇到符号连接,则触发异常。此设置对于本地文件系统不适用,对于本地文件系统,会自动解析符号连接。
nfs.exports.allowed.hosts 【属性值】:* rw;【描述】:默认情况下,所有客户端都可以导出。该属性的值包含机构号和访问权限,由空格分隔。机器名称的格式可以是一个单一的主机,一个java正则表达式,或一个IPv4地址。访问特权使用RW或RO来指定机器的读/写权限。如果未提供访问特权,则默认为只读。条目由“;”分隔。例如:“192.1680.0/22RW;主机。*.Stase\.com;Hoo1.Test.Org Ro;”。只有更新了NFS网关之后,才能重新启动该属性。
hadoop.user.group.static.mapping.overrides 【属性值】:dr.who=;;【描述】:用户到组的静态映射。如果指定的用户在系统中可用,则这将覆盖组。换句话说,这些用户不会出现组查找,而是使用在这个配置中映射的组。映射应采用这种格式。USER1=GROMP1,GROP2;USER2=;USER3= GROP2;默认“DR.WH=”将考虑“D.WHO”作为没有组的用户。
rpc.metrics.quantile.enable 【属性值】:FALSE;【描述】:当为true,并且rpc.metrics.percentiles.intervals属性为一组逗号分隔的度量时,将在百分位50/75/90/95/99时,加入rpc metrics。
rpc.metrics.percentiles.intervals 【属性值】:;【描述】:接上一属性,和rpc.metrics.quantile.enable配合使用。
hadoop.security.crypto.codec.classes.EXAMPLECIPHERSUITE 【属性值】:;【描述】:对于给定的加密编解码器的前缀,包含一个逗号分隔的给定密码编解码器(例如EXAMPLECIPHERSUITE)的实现类。如果可用的话,第一个实现将被使用,其他的则是回退。
hadoop.security.crypto.codec.classes.aes.ctr.nopadding 【属性值】:org.apache.hadoop.crypto.OpensslAesCtrCryptoCodec, org.apache.hadoop.crypto.JceAesCtrCryptoCodec;【描述】:AES/CTR/NopAudio的加密编解码器实现类,用逗号分隔。如果可用的话,第一个实现将被使用,其他的则是回退。
hadoop.security.crypto.cipher.suite 【属性值】:AES/CTR/NoPadding;【描述】:用于加密编解码器的密码套件。
hadoop.security.crypto.jce.provider 【属性值】:;【描述】:CryptoCodec中使用的JCE提供程序名称。
hadoop.security.crypto.buffer.size 【属性值】:8192;【描述】:CryptoInputStream和CryptoOutputStream使用的缓冲区大小。
hadoop.security.java.secure.random.algorithm 【属性值】:SHA1PRNG;【描述】:java安全随机算法。
hadoop.security.secure.random.impl 【属性值】:;【描述】:安全随机的实现。
hadoop.security.random.device.file.path 【属性值】:/dev/urandom;【描述】:OS安全随机设备文件路径。
hadoop.security.key.provider.path 【属性值】:;【描述】:在管理区域密钥时使用的密钥提供程序。对于HDFS客户端,提供程序路径将与NAMENODE的提供程序路径相同。 
fs.har.impl.disable.cache 【属性值】:TRUE;【描述】:当为true时,不缓存“HAR”文件系统实例。
hadoop.security.kms.client.authentication.retry-count 【属性值】:1;【描述】:在认证失败时重试连接到KMS的次数。
hadoop.security.kms.client.encrypted.key.cache.size 【属性值】:500;【描述】:EncryptedKeyVersion缓存队列的大小。
hadoop.security.kms.client.encrypted.key.cache.low-watermark 【属性值】:0.3f;【描述】:如果EncryptedKeyVersion缓存队列大小低于watermark,队列将被重新调度填充。
hadoop.security.kms.client.encrypted.key.cache.num.refill.threads 【属性值】:2;【描述】:重新填充EncryptedKeyVersion缓存队列的线程数。
hadoop.security.kms.client.encrypted.key.cache.expiry 【属性值】:43200000;【描述】:密钥过期时间,默认为12小时。
hadoop.security.kms.client.timeout 【属性值】:60;【描述】:KMS连接超时时间。
hadoop.security.kms.client.failover.sleep.base.millis 【属性值】:100;【描述】:在故障转移尝试之间以指数形式增加时长,这是迄今为止尝试的数目的函数,具有+/- 50%的随机因子。此选项指定在故障转移计算中使用的基值。第一次故障转移将立即重试。第二次故障转移尝试将延迟至少hadoop.security.client.failover.sleep.base.millis属性的值之后……单位为毫秒
hadoop.security.kms.client.failover.sleep.max.millis 【属性值】:2000;【描述】:在故障转移尝试之间以指数形式增加时长,这是迄今为止尝试的数目的函数,具有+/- 50%的随机因子。此选项指定在故障转移之间等待的最大值。具体来说,两个故障转移尝试之间的时间将不超过 hadoop.security.client.failover.sleep.max.millis属性的值,单位为毫秒。
ipc.server.max.connections 【属性值】:0;【描述】:服务器接受的最大并发连接数。
hadoop.registry.rm.enabled 【属性值】:FALSE;【描述】:是否在YARN Resource Manager中启用注册表。
hadoop.registry.zk.root 【属性值】:/registry;【描述】:注册表的根zookeeper节点。
hadoop.registry.zk.session.timeout.ms 【属性值】:60000;【描述】:Zookeeper会话超时时间,单位为毫秒。
hadoop.registry.zk.connection.timeout.ms 【属性值】:15000;【描述】:Zookeeper连接超时时间,单位为毫秒。
hadoop.registry.zk.retry.times 【属性值】:5;【描述】:Zookeeper连接重试最大次数。
hadoop.registry.zk.retry.interval.ms 【属性值】:1000;【描述】:Zookeeper连接重试间隔。
hadoop.registry.zk.retry.ceiling.ms 【属性值】:60000;【描述】:Zookeeper重试的时长限制,单位为毫秒。
hadoop.registry.zk.quorum 【属性值】:localhost:2181;【描述】:绑定注册表的zookeeper的主机名列表。
hadoop.registry.secure 【属性值】:FALSE;【描述】:注册表是否是安全的。
hadoop.registry.system.acls 【属性值】:sasl:yarn@, sasl:mapred@, sasl:hdfs@;【描述】:可以安全访问注册表的 zookeeper ACL列表。
hadoop.registry.kerberos.realm 【属性值】:;【描述】:Kerberos域。
hadoop.registry.jaas.context 【属性值】:Client;【描述】:定义 JAAS上下文的密钥,用于安全模式中。
hadoop.shell.missing.defaultFs.warning 【属性值】:FALSE;【描述】:如果fs.defaultFS属性未设置,则在hdfs中启用shell命令打印警告信息。 
hadoop.shell.safely.delete.limit.num.files 【属性值】:100;【描述】:使用hadoop fs -rm的-safe选项,以避免意外删除大目录。 当启用时,如果要删除的文件数量大于该限制,则-RM命令需要确认。默认的限制是100个文件。如果限制为0或在-RM命令中未指定安全性,则禁用警告。
fs.client.htrace.sampler.classes 【属性值】:;【描述】:hadoop文件系统客户端使用的HTrace Samplers类名。
hadoop.htrace.span.receiver.classes 【属性值】:;【描述】:hadoop中使用的Span Receivers类名。
hadoop.http.logs.enabled 【属性值】:TRUE;【描述】:当为true时,启用hadoop守护进程上的/logs终端。
fs.client.resolve.topology.enabled 【属性值】:FALSE;【描述】:是否使用net.topology.node.switch.mapping.impl属性的值来计算客户端到远程机器之间的网络距离。
fs.adl.impl 【属性值】:org.apache.hadoop.fs.adl.AdlFileSystem;【描述】:
fs.AbstractFileSystem.adl.impl 【属性值】:org.apache.hadoop.fs.adl.Adl;【描述】:
adl.feature.ownerandgroup.enableupn 【属性值】:FALSE;【描述】:为了获得最佳性能,建议使用FALSE。
fs.adl.oauth2.access.token.provider.type 【属性值】:ClientCredential;【描述】:定义了Azure Active Directory OAuth2访问令牌提供程序类型。
fs.adl.oauth2.client.id 【属性值】:;【描述】:OAuth2客户端ID。
fs.adl.oauth2.credential 【属性值】:;【描述】:OAuth2访问密钥。
fs.adl.oauth2.refresh.url 【属性值】:;【描述】:OAuth2令牌终端。
fs.adl.oauth2.refresh.token 【属性值】:;【描述】:OAuth2刷新令牌。
fs.adl.oauth2.access.token.provider 【属性值】:;【描述】:OAuth2访问令牌提供程序的类名。
fs.adl.oauth2.msi.port 【属性值】:;【描述】:MSI令牌服务的本地端口,端口是在创建Azure VM时被指定的。如果未被指定,则用默认的50342。
fs.adl.oauth2.devicecode.clientapp.id 【属性值】:;【描述】:ADD本地app的ID。
hadoop.caller.context.enabled 【属性值】:FALSE;【描述】:当为true时,附加的内容会被写入到namenode的log。
hadoop.caller.context.max.size 【属性值】:128;【描述】:调用内容的最大字节数。
hadoop.caller.context.signature.max.size 【属性值】:40;【描述】:服务器中允许签名的最大字节。
seq.io.sort.mb 【属性值】:100;【描述】:当使用SequenceFile.Sorter时,可以用于排序的缓冲区总大小。单位为兆字节。默认情况下,每个合并流为1MB。
seq.io.sort.factor 【属性值】:100;【描述】:当使用SequenceFile.Sorter时,允许同时合并的流数量。
hadoop.zk.address 【属性值】:;【描述】:ZooKeeper服务器地址。
hadoop.zk.num-retries 【属性值】:1000;【描述】:尝试连接到ZooKeeper的数量。
hadoop.zk.retry-interval-ms 【属性值】:1000;【描述】:连接到ZooKeeper的重试时间间隔,单位为毫秒。
hadoop.zk.timeout-ms 【属性值】:10000;【描述】:ZooKeeper会话超时时间,单位为毫秒。 
hadoop.zk.acl 【属性值】:world:anyone:rwcda;【描述】:用于ZooKeeper znode的ACL。
hadoop.zk.auth 【属性值】:;【描述】:为hadoop.zk.acl属性中的ACL指定认证方式。


hdfs-site.xml篇

本篇继续介绍hdfs-site.xml的配置。
属性名称 解释
hadoop.hdfs.configuration.version 【属性值】:1;【描述】:配置文件的版本
dfs.namenode.rpc-address 【属性值】:;【描述】:处理所有客户端请求的RPC地址,若在HA场景中,可能有多个namenode,就把名称ID添加到进来。该属性的格式为nn-host1:rpc-port
dfs.namenode.rpc-bind-host 【属性值】:;【描述】:RPC服务器的真实地址,如果为空,则使用dfs.namenode.rpc-address属性中配置的主机名。该属性如果在HA场景中,可以在每个namenode中都指定。如果设置为0.0.0.0,则会在此namenode中监听所有的接口。
dfs.namenode.servicerpc-address 【属性值】:;【描述】:用于HDFS服务通信的RPC地址,所有的backupnode,datanode和其它服务都应该连接到这个地址。如果该属性未设置,则使用dfs.namenode.rpc-address属性的值。
dfs.namenode.servicerpc-bind-host 【属性值】:;【描述】:RPC服务器中服务的真实地址,如果为空,则使用dfs.namenode.servicerpc-bind-host属性中配置的主机名。该属性如果在HA场景中,可以在每个namenode中都指定。如果设置为
dfs.namenode.lifeline.rpc-address 【属性值】:;【描述】:namenode rpc 生命线地址。用于将实现轻量级的心跳检测,如果该属性为空,则不启用lifeline服务器。默认情况下,该属性是空的。
dfs.namenode.lifeline.rpc-bind-host 【属性值】:;【描述】:生命线RPC服务器的真实地址。
dfs.namenode.secondary.http-address 【属性值】:0.0.0.0:50090;【描述】:secondary namenode HTTP服务器地址和端口。
dfs.namenode.secondary.https-address 【属性值】:0.0.0.0:50091;【描述】:secondary namenode HTTPS服务器地址和端口。
dfs.datanode.address 【属性值】:0.0.0.0:50010;【描述】:datanode服务器地址和端口。
dfs.datanode.http.address 【属性值】:0.0.0.0:50075;【描述】:datanode HTTP服务器地址和端口。
dfs.datanode.ipc.address 【属性值】:0.0.0.0:50020;【描述】:datanode IPC服务器地址和端口。
dfs.datanode.handler.count 【属性值】:10;【描述】:datanode的服务器线程数。
dfs.namenode.http-address 【属性值】:0.0.0.0:50070;【描述】:namenode web UI监听的地址和端口。
dfs.namenode.http-bind-host 【属性值】:;【描述】:HTTP服务器绑定的真实地址。
dfs.namenode.heartbeat.recheck-interval 【属性值】:300000;【描述】:心跳检测的时间间隔,单位是毫秒。
dfs.http.policy 【属性值】:HTTP_ONLY;【描述】:用于配置是否在HDFS上支持HTTPS(SSL)。选项有HTTP_ONLY:只支持HHTPS HTTPS_ONLY:只支持HTTPS HTTPS_AND_HTTPS:同时支持HTTPHTTPS
dfs.client.https.need-auth 【属性值】:FALSE;【描述】:是否需要SSL客户端证书身份验证。
dfs.client.cached.conn.retry 【属性值】:3;【描述】:HDFS客户端从缓存中提取套接字的次数。一旦超过这个数量,客户端将尝试创建一个新的套接字。
dfs.https.server.keystore.resource 【属性值】:ssl-server.xml;【描述】:用于提取SSL服务器密钥存储信息的资源文件。
dfs.client.https.keystore.resource 【属性值】:ssl-client.xml;【描述】:用于提取SSL客户端密钥存储信息的资源文件。
dfs.datanode.https.address 【属性值】:0.0.0.0:50475;【描述】:datanode安全http服务器地址和端口。
dfs.namenode.https-address 【属性值】:0.0.0.0:50470;【描述】:namenode安全http服务器地址和端口。
dfs.namenode.https-bind-host 【属性值】:;【描述】:HTTPS的真实地址。
dfs.datanode.dns.interface 【属性值】:default;【描述】:datanode的网络接口名称,例如eth2。建议使用hadoop.security.dns.interface代替dfs.datanode.dns.interface
dfs.datanode.dns.nameserver 【属性值】:default;【描述】:DNS服务器的主机名或IP地址。建议使用hadoop.security.dns.nameserver代替dfs.datanode.dns.nameserver
dfs.namenode.backup.address 【属性值】:0.0.0.0:50100;【描述】:backup节点服务器地址和端口。如果端口为0,那么服务器将在自由端口启动。
dfs.namenode.backup.http-address 【属性值】:0.0.0.0:50105;【描述】:backup节点http服务器地址和端口。如果端口为0,那么服务器将在自由端口启动。
dfs.namenode.replication.considerLoad 【属性值】:TRUE;【描述】:在选择目标的时候,是否考虑目标的负载情况。
dfs.namenode.replication.considerLoad.factor 【属性值】:2;【描述】:在dfs.namenode.replication.considerLoad属性设置为true的情况下,当节点的负载超过平均值时,则拒绝写入。
dfs.default.chunk.view.size 【属性值】:32768;【描述】:在浏览器上能查看文件的字节数。
dfs.datanode.du.reserved 【属性值】:0;【描述】:每卷保留字节的空间。
dfs.namenode.name.dir 【属性值】:file://${hadoop.tmp.dir}/dfs/name;【描述】:存放namenode的名称表(fsimage)的目录,如果这是一个逗号分隔的目录列表,那么在所有目录中复制名称表,用于冗余。
dfs.namenode.name.dir.restore 【属性值】:FALSE;【描述】:如果为true,则允许namenode尝试恢复之前失败的dfs.namenode.name.dir目录。当启用时,在检查点期间会尝试恢复任何失败的目录。
dfs.namenode.fs-limits.max-component-length 【属性值】:255;【描述】:定义路径中每个组件中UTF-8编码的最大字节数。0的值将禁用检查。 
dfs.namenode.fs-limits.max-directory-items 【属性值】:1048576;【描述】:定义目录可能包含的最大项目数。无法将属性设置为小于1或大于6400000的值。 
dfs.namenode.fs-limits.min-block-size 【属性值】:1048576;【描述】:最小的块大小,单位为字节。
dfs.namenode.fs-limits.max-blocks-per-file 【属性值】:1048576;【描述】:每个文件的最大块数。
dfs.namenode.edits.dir 【属性值】:${dfs.namenode.name.dir};【描述】:存放namenode的事务文件(edits)的目录,如果这是一个逗号分隔的目录列表,那么事务文件在所有目录中被复制,用于冗余。默认与dfs.namenode.name.dir属性目录一样。
dfs.namenode.edits.dir.required 【属性值】:;【描述】:是dfs.namenode.edits.dir属性目录的子集,用于确保这些edits文件目录是最新的。
dfs.namenode.shared.edits.dir 【属性值】:;【描述】:用于HA场景中,多个namenode共享的目录。
dfs.namenode.edits.journal-plugin.qjournal 【属性值】:org.apache.hadoop.hdfs.qjournal.client.QuorumJournalManager;【描述】:
dfs.permissions.enabled 【属性值】:TRUE;【描述】:当为true时,则允许HDFS的检测,当为false时,则关闭HDFS的检测,但不影响其它HDFS的其它功能。
dfs.permissions.superusergroup 【属性值】:supergroup;【描述】:超级用户组的名称。该值应该是单个组名。 
dfs.cluster.administrators 【属性值】:;【描述】:管理员ACL列表,用于控制谁可以访问namenodeservlet,这个属性由逗号分隔,例如"user1,user2 group1,group2"。用户和组都可以为空,所以 "user1", " group1", "", "user1 group1", "user1,user2 group1,group2" 都是有效的。 '*' 表示授予所有用户和组的访问权限。
dfs.namenode.acls.enabled 【属性值】:FALSE;【描述】:当为false时,拒绝所有与设置或获取ACL相关的RPC,默认情况下是false
dfs.namenode.lazypersist.file.scrub.interval.sec 【属性值】:300;【描述】:namenode扫描lazypersist文件的时间间隔,当设置为负值时,则禁用此属性。
dfs.block.access.token.enable 【属性值】:FALSE;【描述】:当为true时,允许访问令牌访问datanode
dfs.block.access.key.update.interval 【属性值】:600;【描述】:namenode更新其访问密钥的时间间隔,单位为分钟。
dfs.block.access.token.lifetime 【属性值】:600;【描述】:访问令牌的生命周期,单位为分钟。
dfs.datanode.data.dir 【属性值】:file://${hadoop.tmp.dir}/dfs/data;【描述】:存放datanode块的目录。如果这是一个逗号分隔的目录列表,那么数据将存储在所有命名的目录中,通常存储在不同的设备上。
dfs.datanode.data.dir.perm 【属性值】:700;【描述】:datanode目录权限,可以为八进制,也可以为符号。
dfs.replication 【属性值】:3;【描述】:副本数量。可以在创建文件时指定副本的实际数目。如果在创建时未指定复制,则使用默认值。
dfs.replication.max 【属性值】:512;【描述】:最大副本数量。
dfs.namenode.replication.min 【属性值】:1;【描述】:最小副本数量。
dfs.namenode.maintenance.replication.min 【属性值】:1;【描述】:在维护模式时的最小活跃副本数量。
dfs.namenode.safemode.replication.min 【属性值】:;【描述】:用于计算安全块数量的最小副本数,当没有被设置时,则使用dfs.namenode.replication.min属性的值。
dfs.blocksize 【属性值】:134217728;【描述】:新文件的块大小,单位为字节。可以使用如下后缀:k(kilo), m(mega), g(giga), t(tera), p(peta), e(exa) ,例如128k, 512m, 1g等。
dfs.client.block.write.retries 【属性值】:3;【描述】:datanode写入失败时,尝试重新写入的次数。
dfs.client.block.write.replace-datanode-on-failure.enable 【属性值】:TRUE;【描述】:当为true时,如果datanode写入失败,则重新写入新的datanode
dfs.client.block.write.replace-datanode-on-failure.policy 【属性值】:DEFAULT;【描述】:当dfs.client.block.write.replace-datanode-on-failure.enable属性为true时,该属性有效。选项有以下几种:ALWAYSNEVERDEFAULT
dfs.client.block.write.replace-datanode-on-failure.best-effort 【属性值】:FALSE;【描述】:当dfs.client.block.write.replace-datanode-on-failure.enable属性为true时使用。Best effort表示在继续写入新datanode时,如果仍然写入失败时采取的策略。当该属性为true时,如果新datanode写入失败,则继续找新的datanode写入;当该属性为false时,如果新datanode写入失败,则不再尝试写入新datanode,而是抛出异常。
dfs.client.block.write.replace-datanode-on-failure.min-replication 【属性值】:0;【描述】:如果剩余datanode的数量小于该属性的值,则会抛出异常。详细要参考dfs.client.block.write.replace-datanode-on-failure.policy属性。
dfs.blockreport.intervalMsec 【属性值】:21600000;【描述】:块报告的时间间隔,以毫秒为单位。
dfs.blockreport.initialDelay 【属性值】:0;【描述】:第一次块报告的时间延迟,以秒为单位。
dfs.blockreport.split.threshold 【属性值】:1000000;【描述】:当datanode的块数量小于该属性的值时,将用一条消息发送所有目录的块报告,如果datanode的块数量大于该属性的值,则每个目录用单独的消息发送块报告。
dfs.namenode.max.full.block.report.leases 【属性值】:6;【描述】:所有块报告的最大数量。这个数字不应该超过RPC处理器线程数或小于1
dfs.namenode.full.block.report.lease.length.ms 【属性值】:300000;【描述】:namenode等待块报告的超时时间,单位为毫秒。
dfs.datanode.directoryscan.interval 【属性值】:21600;【描述】:datanode以秒为单位扫描数据目录,并协调内存块和磁盘上的块之间的差异。
dfs.datanode.directoryscan.threads 【属性值】:1;【描述】:线程池中用于编制卷报告的线程数。
dfs.datanode.directoryscan.throttle.limit.ms.per.sec 【属性值】:1000;【描述】:每秒钟用于报告编译的线程的运行时间,当有多个线程时,该属性的时间是多个线程的累计时间。
dfs.heartbeat.interval 【属性值】:3;【描述】:datanode的心跳时间间隔,单位为秒。
dfs.datanode.lifeline.interval.seconds 【属性值】:;【描述】:从datanodenamenode发送lifeline的时间间隔,单位为秒。该属性的值必须大于dfs.heartbeat.interval属性的值。
dfs.namenode.handler.count 【属性值】:10;【描述】:RPC服务器的监听client线程数,如果dfs.namenode.servicerpc-address属性没有配置,则线程会监听所有节点的请求。
dfs.namenode.service.handler.count 【属性值】:10;【描述】:只有当dfs.namenode.servicerpc-address属性配置后,该属性才有效。用于配置datanode和其它非client节点的监听线程数。
dfs.namenode.lifeline.handler.ratio 【属性值】:0.1;【描述】:dfs.namenode.handler.count属性中,用于处理lifeline RPC服务的线程比例。例如dfs.namenode.handler.count属性值为100,并且dfs.namenode.lifeline.handler.ratio属性的值设置为0.10,则有10个线程用于处理lifeline rpc服务。
dfs.namenode.lifeline.handler.count 【属性值】:;【描述】:用于处理datanode lifeline协议的RPC服务器线程数量
dfs.namenode.safemode.threshold-pct 【属性值】:0.999f;【描述】:dfs.namenode.replication.min属性中副本需要满足的块的百分比。
dfs.namenode.safemode.min.datanodes 【属性值】:0;【描述】:在退出安全模式前,需要满足活跃的datanode的数量。
dfs.namenode.safemode.extension 【属性值】:30000;【描述】:在达到阈值后,经过多长时间后会退出安全模式,单位为毫秒。
dfs.namenode.resource.check.interval 【属性值】:5000;【描述】:namenode resource checker运行的时间间隔,单位为毫秒。
dfs.namenode.resource.du.reserved 【属性值】:104857600;【描述】:存储或请求namenode存储目录的空间大小,单位为字节。
dfs.namenode.resource.checked.volumes 【属性值】:;【描述】:本地目录列表。
dfs.namenode.resource.checked.volumes.minimum 【属性值】:1;【描述】:所需的冗余namenode存储卷的最小数量。 
dfs.datanode.balance.bandwidthPerSec 【属性值】:10m;【描述】:datanode的最大带宽,可以使用如下后缀k(kilo) m(mega) g(giga) t(tera)p(peta) e(exa),例如128k, 512m, 1g等。或者提供完整的字节数,如134217728
dfs.hosts 【属性值】:;【描述】:命名一个文件,该文件包含允许连接到namenode的主机列表。必须指定文件的完整路径名。如果值为空,则允许所有主机。
dfs.hosts.exclude 【属性值】:;【描述】:命名一个文件,该文件包含不允许连接到namenode的主机列表。必须指定文件的完整路径名。如果值为空,则不排除任何主机。 
dfs.namenode.max.objects 【属性值】:0;【描述】:DFS支持的文件、目录和块的最大数量。0的值指示DFS支持的对象数目没有限制。
dfs.namenode.datanode.registration.ip-hostname-check 【属性值】:TRUE;【描述】:当为true时,namenode连接datanode的地址必须解析成主机名。
dfs.namenode.decommission.interval 【属性值】:30;【描述】:namenode定期检查维护是否结束的时间间隔,单位是秒。
dfs.namenode.decommission.blocks.per.interval 【属性值】:500000;【描述】:在每次维护期间,处理块的近似数量。
dfs.namenode.decommission.max.concurrent.tracked.nodes 【属性值】:100;【描述】:同时进入decommissonmaintenancedatanode的数量。
dfs.namenode.replication.interval 【属性值】:3;【描述】:namenode定期计算datanode副本数量的时间间隔,单位为秒。
dfs.namenode.accesstime.precision 【属性值】:3600000;【描述】:HDFS文件访问时间的精确值,默认为1小时。当为0时,表示禁用。
dfs.datanode.plugins 【属性值】:;【描述】:逗号分隔的datanode插件列表。
dfs.namenode.plugins 【属性值】:;【描述】:逗号分隔的namenode插件列表。
dfs.namenode.block-placement-policy.default.prefer-local-node 【属性值】:TRUE;【描述】:控制默认块放置策略如何放置块的第一个副本。当TRUE时,它将更喜欢客户端正在运行的节点。当FALSE时,它将首选与客户端相同的机架中的节点。设置为FALSE避免了大文件的整个副本终止在单个节点上的情况,从而创建热点。
dfs.stream-buffer-size 【属性值】:4096;【描述】:流文件的缓冲区大小。
dfs.bytes-per-checksum 【属性值】:512;【描述】:每个校验和的字节数,不能大于dfs.stream-buffer-size属性的值。
dfs.client-write-packet-size 【属性值】:65536;【描述】:客户端写入的数据包大小。
dfs.client.write.exclude.nodes.cache.expiry.interval.millis 【属性值】:600000;【描述】:在客户机中排除DN列表中的DN的最大周期。在此阶段之后,以毫秒为单位,先前排除的节点将自动从缓存中移除,并且将再次被认为适合于块分配。在保持文件打开很长时间(如写前日志(WAL)文件)的情况下,可以使其降低或提高,从而使作者能够容忍集群维护重新启动。默认为10分钟。 
dfs.namenode.checkpoint.dir 【属性值】:file://${hadoop.tmp.dir}/dfs/namesecondary;【描述】:DFS secondary name node存放临时镜像的目录。如果这是一个逗号分隔的目录列表,则在所有目录中复制该图像以进行冗余。
dfs.namenode.checkpoint.edits.dir 【属性值】:${dfs.namenode.checkpoint.dir};【描述】:DFS secondary name node存放临时edits的目录。如果这是一个逗号分隔的目录列表,则在所有目录中复制该图像以进行冗余。
dfs.namenode.checkpoint.period 【属性值】:3600;【描述】:两个周期检查点之间的秒数。 
dfs.namenode.checkpoint.txns 【属性值】:1000000;【描述】:创建检查点的时间间隔。
dfs.namenode.checkpoint.check.period 【属性值】:60;【描述】:查询未检查的检查点事务的执行时间间隔,单位为秒。
dfs.namenode.checkpoint.max-retries 【属性值】:3;【描述】:当加载fsimage或重演edits失败时,重试的次数。
dfs.namenode.num.checkpoints.retained 【属性值】:2;【描述】:在namenodeseccondary namenode中保留image检查点(fsimage_*)的数量。
dfs.namenode.num.extra.edits.retained 【属性值】:1000000;【描述】:namenode的需要保留的额外的事务。
dfs.namenode.max.extra.edits.segments.retained 【属性值】:10000;【描述】:额外的edit日志段的最大数量。
dfs.namenode.delegation.key.update-interval 【属性值】:86400000;【描述】:namenode中更新委托令牌主密钥的时间间隔,单位为毫秒。
dfs.namenode.delegation.token.max-lifetime 【属性值】:604800000;【描述】:令牌的最大生命周期,单位为毫秒。
dfs.namenode.delegation.token.renew-interval 【属性值】:86400000;【描述】:授权令牌的更新间隔以毫秒为单位。 
dfs.datanode.failed.volumes.tolerated 【属性值】:0;【描述】:在数据阳极停止服务之前允许失败的卷的数量。默认情况下,任何卷故障都会导致datanode关闭。
dfs.image.compress 【属性值】:FALSE;【描述】:dfs image是否应该补充压缩。
dfs.image.compression.codec 【属性值】:org.apache.hadoop.io.compress.DefaultCodec;【描述】:如果DFS图像被压缩,它们应该如何压缩?必须是 io.compression.codecs属性中定义的编解码器。
dfs.image.transfer.timeout 【属性值】:60000;【描述】:image传输超时时间,单位为毫秒。
dfs.image.transfer.bandwidthPerSec 【属性值】:0;【描述】:用于常规image传输的最大带宽,即每秒的字节数。
dfs.image.transfer-bootstrap-standby.bandwidthPerSec 【属性值】:0;【描述】:从image传输到bootstrap的最大带宽。
dfs.image.transfer.chunksize 【属性值】:65536;【描述】:上传检查点的块大小,以字节为单位。
dfs.namenode.support.allow.format 【属性值】:TRUE;【描述】:是否允许namenode将自身进行格式化。建议设置为false
dfs.datanode.max.transfer.threads 【属性值】:4096;【描述】:datanode进行传输数据的最大线程数。
dfs.datanode.scan.period.hours 【属性值】:504;【描述】:当为正值时,datanode将按照设定时间间隔进行块扫描。当为负值时,则禁止块扫描。当为0时,则使用默认的504小时(3周)进行定期扫描。
dfs.block.scanner.volume.bytes.per.second 【属性值】:1048576;【描述】:当为0时,datanode的块扫描会被禁用,当为正数时,该属性为datanode每秒扫描的字节数。I
dfs.datanode.readahead.bytes 【属性值】:4194304;【描述】:在读取块文件时,如果Hadoop本地库可用,datanode可以使用posix_fadvise系统调用来在当前阅读器位置之前将数据显式地写入操作系统缓冲区缓存中。这可以提高性能,尤其是当磁盘高度竞争时。此配置指定当前数据读取位置前面的字节数,datanode将尝试提前读取。通过将此属性配置为0,可以禁用此特性。如果本地库不可用,此配置没有效果。
dfs.datanode.drop.cache.behind.reads 【属性值】:FALSE;【描述】:在一些工作负载中,从HDFS读取的数据被认为足够大以至于在操作系统缓冲区高速缓存中不太有用。在这种情况下,datanode可以被配置为在传送到客户端之后从缓存高速缓存中自动清除所有数据。对于只读取短块(例如Hbase random IO工作负载)的工作负载,此行为被自动禁用。这可以通过释放缓存缓存空间使用更多可缓存数据来改善某些工作负载的性能。如果Hadoop本机库不可用,此配置没有效果。
dfs.datanode.drop.cache.behind.writes 【属性值】:FALSE;【描述】:在一些工作负载中,已知写入HDFS的数据足够大,以至于在操作系统缓冲区高速缓存中不太有用。在这种情况下,datanode可以被配置为在写入到磁盘之后从缓存高速缓存中自动清除所有数据。这可以通过释放缓存缓存空间使用更多可缓存数据来改善某些工作负载的性能。如果Hadoop本机库不可用,此配置没有效果。 
dfs.datanode.sync.behind.writes 【属性值】:FALSE;【描述】:当为true时,datanode将指示操作系统在写入后立即将所有写入的数据排队到磁盘。这与通常的OS策略不同,它可能在触发写回之前等待30秒。这可以通过平滑写入磁盘的数据的IO配置文件来改善某些工作负载的性能。如果Hadoop本机库不可用,此配置没有效果。 
dfs.client.failover.max.attempts 【属性值】:15;【描述】:client最多尝试次数,如果超过,则认为client失败。
dfs.client.failover.sleep.base.millis 【属性值】:500;【描述】:错误重试的时间间隔,这是一个这是迄今为止尝试的数目的函数,具有+/- 50%的随机因子。此选项指定在故障转移计算中使用的基值。第一次故障转移将立即重试。第二次故障转移尝试将至少延迟dfs.client.failover.sleep.base.millis milliseconds,等等。
dfs.client.failover.sleep.max.millis 【属性值】:15000;【描述】:错误重试的时间间隔,这是一个这是迄今为止尝试的数目的函数,具有+/- 50%的随机因子。此选项指定在故障转移之间等待的最大值dfs.client.failover.sleep.max.millis milliseconds属性值的+/- 50%
dfs.client.failover.connection.retries 【属性值】:0;【描述】:指示故障转移IPC客户端将建立服务器连接的重试次数。 
dfs.client.failover.connection.retries.on.timeouts 【属性值】:0;【描述】:在建立服务器连接时,故障转移IPC客户端将在套接字超时上进行重试次数。 
dfs.client.datanode-restart.timeout 【属性值】:30;【描述】:datanode重启等待时间,单位为秒。
dfs.nameservices 【属性值】:;【描述】:逗号分隔的名称服务器列表。
dfs.nameservice.id 【属性值】:;【描述】:nameserviceID
dfs.internal.nameservices 【属性值】:;【描述】:逗号分隔的属于集群的nameservice列表。
dfs.ha.namenodes.EXAMPLENAMESERVICE 【属性值】:;【描述】:给定nameservicce的前缀列表,可以用逗号分隔。这将被用于确定集群中中的namenode
dfs.ha.namenode.id 【属性值】:;【描述】:namenodeID
dfs.ha.log-roll.period 【属性值】:120;【描述】:standby节点向active节点询问edits的时间间隔,以秒为单位。
dfs.ha.tail-edits.period 【属性值】:60;【描述】:standby节点检查log段的时间间隔,以秒为单位。
dfs.ha.tail-edits.rolledits.timeout 【属性值】:60;【描述】:在active namenode上调用rollEdits RPC的超时时间,单位为秒。
dfs.ha.automatic-failover.enabled 【属性值】:FALSE;【描述】:是否启用自动故障转移。
dfs.client.use.datanode.hostname 【属性值】:FALSE;【描述】:client连接datanode时,是否应该使用datanode的主机名。
dfs.datanode.use.datanode.hostname 【属性值】:FALSE;【描述】:datanode连接其它datanode进行数据传输时,是否应该使用datanode的主机名。
dfs.client.local.interfaces 【属性值】:;【描述】:一个逗号分隔的网络接口名称列表,用于clientdatanode之间的数据传输。
dfs.datanode.shared.file.descriptor.paths 【属性值】:/dev/shm,/tmp;【描述】:一个逗号分隔的路径列表,用于创建将在datanodeclient之间共享的文件描述符。
dfs.short.circuit.shared.memory.watcher.interrupt.check.ms 【属性值】:60000;【描述】:为单元测试使用的一个属性。
dfs.namenode.kerberos.principal 【属性值】:;【描述】:namenode服务主体。这通常设置为nn/[email protected]。每个namenode将在启动时用它自己的完全限定主机名替换宿主。 _HOST占位符允许在HA设置中使用两个namenode上相同的配置设置。
dfs.namenode.keytab.file 【属性值】:;【描述】:namenode服务主体的keytab文件,主体参数由dfs.namenode.kerberos.principal属性配置。
dfs.datanode.kerberos.principal 【属性值】:;【描述】:datanode服务主体。
dfs.datanode.keytab.file 【属性值】:;【描述】:datanode服务主体的keytab文件,主体参数由dfs.datanode.kerberos.principal属性配置。
dfs.journalnode.kerberos.principal 【属性值】:;【描述】:JournalNode服务主体。这通常设置为jn/[email protected]。每个journalnode将在启动时用它自己的完全限定主机名替换宿主。 _HOST占位符允许使用与其它journalnode相同的配置设置。
dfs.journalnode.keytab.file 【属性值】:;【描述】:journalnode服务主体的keytab文件,主体参数由dfs.journalnode.kerberos.principal属性配置。
dfs.namenode.kerberos.internal.spnego.principal 【属性值】:${dfs.web.authentication.kerberos.principal};【描述】:当kerberos启用时,namenode用于web UI SPNEGO验证的服务主体。
dfs.journalnode.kerberos.internal.spnego.principal 【属性值】:;【描述】:当kerberos启用时,journalnode http server用于SPNEGO验证的服务主体。
dfs.secondary.namenode.kerberos.internal.spnego.principal 【属性值】:${dfs.web.authentication.kerberos.principal};【描述】:当kerberos启用时,secondary namenode用于web UI SPNEGO验证的服务主体。
dfs.web.authentication.kerberos.principal 【属性值】:;【描述】:namenode用于WebHDFS SPNEGO验证的服务主体,需要WebHDFS和安全性都启用。 
dfs.web.authentication.kerberos.keytab 【属性值】:;【描述】:和dfs.web.authentication.kerberos.principal属性的主体相关的keytab文件。 
dfs.namenode.kerberos.principal.pattern 【属性值】:*;【描述】:在跨域环境中使用。
dfs.namenode.avoid.read.stale.datanode 【属性值】:FALSE;【描述】:是否允许读取陈旧”datanode(也就是在设定时间间隔内没有向namenode发送心跳消息的节点)。
dfs.namenode.avoid.write.stale.datanode 【属性值】:FALSE;【描述】:是否允许写入陈旧”datanode(也就是在设定时间间隔内没有向namenode发送心跳消息的节点)。
dfs.namenode.stale.datanode.interval 【属性值】:30000;【描述】:在设定的这个时间里,如果namenode没有收到datanode的心跳消息,则将datanode置为陈旧”datanode,单位为毫秒。
dfs.namenode.write.stale.datanode.ratio 【属性值】:0.5f;【描述】:当陈旧datanode的数量占比超过设置的值时,会停止写入陈旧的datanode
dfs.namenode.invalidate.work.pct.per.iteration 【属性值】:0.32f;【描述】:注意:高级属性。谨慎改变。该属性决定了单条datanode心跳删除命令进行块无效(删除)的百分比。0.32f表示100%
dfs.namenode.replication.work.multiplier.per.iteration 【属性值】:2;【描述】:注意:高级属性。谨慎改变。Datanode并行传输时的块数量。这个数字可以是任何正、非零整数。
nfs.server.port 【属性值】:2049;【描述】:nft的端口号。
nfs.mountd.port 【属性值】:4242;【描述】:hadoop安装守护进程的端口号。
nfs.dump.dir 【属性值】:/tmp/.hdfs-nfs;【描述】:该目录用于在写入HDFS之前临时保存无序的写入。对于每一个文件,无序的写入在累积到超过一定的阈值(例如1MB)之后被丢弃,因此需要确保目录有足够的空间。
nfs.rtmax 【属性值】:1048576;【描述】:这是NFS网关支持的读取请求的最大字节大小。
nfs.wtmax 【属性值】:1048576;【描述】: 这是NFS网关支持的写入请求的最大字节大小。
nfs.keytab.file 【属性值】:;【描述】:注意:高级属性。谨慎改变。这是HDFS NFS网关的keytab文件的路径。
nfs.kerberos.principal 【属性值】:;【描述】:注意:高级属性。谨慎改变。这是Kerberos主体的名称。格式为nfs-gateway-user/nfs-gateway-host@kerberos-realm
nfs.allow.insecure.ports 【属性值】:TRUE;【描述】:当为false时,会拒绝来自无特权端口(高于1023的端口)的客户端连接。
dfs.webhdfs.enabled 【属性值】:TRUE;【描述】:是否允许在namenodedatanode中启用WebHDFS (REST API)
hadoop.fuse.connection.timeout 【属性值】:300;【描述】:在fuse_dfs中缓存libhdfs连接对象的最小秒数。较低的值将导致较低的内存消耗;较高的值可以通过避免创建新连接对象的开销来加快访问速度。 
hadoop.fuse.timer.period 【属性值】:5;【描述】:fuse_dfs中缓存过期检查之间的秒数。
dfs.namenode.metrics.logger.period.seconds 【属性值】:600;【描述】:namenode记录其度量的频率。
dfs.datanode.metrics.logger.period.seconds 【属性值】:600;【描述】:datanode记录其度量的频率。
dfs.metrics.percentiles.intervals 【属性值】:;【描述】:默认情况下被禁用。
dfs.datanode.peer.stats.enabled 【属性值】:FALSE;【描述】:是否开启datanode的跟踪统计。
dfs.datanode.outliers.report.interval 【属性值】:1800000;【描述】:控制datanode报告对等延迟的频率。
dfs.datanode.fileio.profiling.sampling.percentage 【属性值】:0;【描述】:设置控制文件I/O事件的百分比。默认值为0禁用磁盘统计。设置为1100之间的整数值,以启用磁盘统计。
hadoop.user.group.metrics.percentiles.intervals 【属性值】:;【描述】:默认情况下被禁用。
dfs.encrypt.data.transfer 【属性值】:FALSE;【描述】:是否启用块数据的加密。
dfs.encrypt.data.transfer.algorithm 【属性值】:;【描述】:选项有3desrc4两种。
dfs.encrypt.data.transfer.cipher.suites 【属性值】:;【描述】:选项有AES/CTR/NoPadding及未定义四种。
dfs.encrypt.data.transfer.cipher.key.bitlength 【属性值】:128;【描述】:clientdatanode之间的密钥位长度,值有128192256三种。
dfs.trustedchannel.resolver.class 【属性值】:;【描述】:TrustedChannelResolver用于确定通道是否受信任以用于普通数据传输。
dfs.data.transfer.protection 【属性值】:;【描述】:一个逗号分隔的SASL保护值列表,用于读取或写入块数据时与datanode的安全连接。选项有authentication, integrity and privacy三种。
dfs.data.transfer.saslproperties.resolver.class 【属性值】:;【描述】:用于连接datanodeQOPSaslPropertiesResolver,默认是hadoop.security.saslproperties.resolver.class
dfs.datanode.hdfs-blocks-metadata.enabled 【属性值】:FALSE;【描述】:是否启用后面datanode支持DistributedFileSystem#getFileVBlockStorageLocations API
dfs.client.file-block-storage-locations.num-threads 【属性值】:10;【描述】:DistributedFileSystem#getFileBlockStorageLocations()中进行并行RPC的线程数。
dfs.client.file-block-storage-locations.timeout.millis 【属性值】:1000;【描述】:DistributedFileSystem#getFileBlockStorageLocations()中进行RPC的超时时间,单位为毫秒。
dfs.journalnode.rpc-address 【属性值】:0.0.0.0:8485;【描述】:JournalNode RPC服务器地址和端口。
dfs.journalnode.http-address 【属性值】:0.0.0.0:8480;【描述】:JournalNode HTTP服务器监听的地址和端口。如果端口为0,那么服务器将在自由端口启动。
dfs.journalnode.https-address 【属性值】:0.0.0.0:8481;【描述】:JournalNode HTTPS服务器监听的地址和端口。如果端口为0,那么服务器将在自由端口启动。
dfs.namenode.audit.loggers 【属性值】:default;【描述】:org.apache.hadoop.hdfs.server.namenode.AuditLogger的实现类。
dfs.datanode.available-space-volume-choosing-policy.balanced-space-threshold 【属性值】:10737418240;【描述】:当dfs.datanode.fsdataset.volume.choosing.policy属性设置为org.apache.hadoop.hdfs.server.datanode.fsdataset.AvailableSpaceVolumeChoosingPolicy时使用。该属性控制datanode卷在被认为不平衡之前允许在空闲磁盘空间上有多少不同字节。如果所有卷的自由空间都在这一范围内,则卷将被认为是平衡的,并且块分配将在纯循环的基础上完成。
dfs.datanode.available-space-volume-choosing-policy.balanced-space-preference-fraction 【属性值】:0.75f;【描述】:当dfs.datanode.fsdataset.volume.choosing.policy属性设置为org.apache.hadoop.hdfs.server.datanode.fsdataset.AvailableSpaceVolumeChoosingPolicy时使用。此属性控制新的块分配百分比将被发送给具有比其他磁盘更可用的磁盘空间的卷。这个设置应该在0.01.0的范围内。
dfs.namenode.edits.noeditlogchannelflush 【属性值】:FALSE;【描述】:是否刷新edit log文件通道。
dfs.client.cache.drop.behind.writes 【属性值】:;【描述】:与dfs.datanode.drop.cache.behind.writes属性类似,该属性导致页面缓存被丢弃在HDFS写之后,可能释放更多的内存用于其他用途。
dfs.client.cache.drop.behind.reads 【属性值】:;【描述】:与dfs.datanode.drop.cache.behind.reads属性类似,该属性导致页面缓存被丢弃在HDFS读取之后,可能释放更多的内存用于其他用途。
dfs.client.cache.readahead 【属性值】:;【描述】:当使用远程读取时,此设置会导致datanode使用posix_fadvise在块文件中提前读取,可能会降低I/O等待时间。
dfs.namenode.enable.retrycache 【属性值】:TRUE;【描述】:当为true时,允许在namenode上重试缓存。
dfs.namenode.retrycache.expirytime.millis 【属性值】:600000;【描述】:重试缓存条目被保留的时间。
dfs.namenode.retrycache.heap.percent 【属性值】:0.03f;【描述】:此参数配置为重试缓存分配的堆大小(不包括响应缓存)。
dfs.client.mmap.enabled 【属性值】:TRUE;【描述】:如果将此设置为false,客户端将不会尝试内存映射读取。
dfs.client.mmap.cache.size 【属性值】:256;【描述】:当使用0拷贝读取时,DFS client保持最近使用的内存映射区域的缓存。此参数控制将在该缓存中保留的最大条目数。这个数字越大,我们可能会使用更多的内存描述符文件描述符。注意,当这个大小设置为0时,仍然可以进行零拷贝读取。 Wh
dfs.client.mmap.cache.timeout.ms 【属性值】:3600000;【描述】:在使用时,我们将在缓存中保持MMAP条目的最小时间长度。如果一个条目在缓存中比这个长,并且没有人使用它,它将被后台线程移除。
dfs.client.mmap.retry.timeout.ms 【属性值】:300000;【描述】:在重试失败的MMAP操作之前,我们将等待的最小时间量。
dfs.client.short.circuit.replica.stale.threshold.ms 【属性值】:1800000;【描述】:如果没有datanode的通信,我们将考虑短路副本的有效时间是最大的。经过这段时间后,即使在缓存中,我们也会重新获取短路副本。
dfs.namenode.path.based.cache.block.map.allocation.percent 【属性值】:0.25;【描述】:分配给缓存块地图的java堆的百分比。
dfs.datanode.max.locked.memory 【属性值】:0;【描述】:用于在datanode上缓存块副本的字节内存量。
dfs.namenode.list.cache.directives.num.responses 【属性值】:100;【描述】:设置NAMENODE将响应于listDirectives RPC发送的高速缓存指令的数量。.
dfs.namenode.list.cache.pools.num.responses 【属性值】:100;【描述】:设置NAMENODE将响应于listPools RPC发送的高速缓存池的数量。
dfs.namenode.path.based.cache.refresh.interval.ms 【属性值】:30000;【描述】:后续路径高速缓存之间的毫秒数。
dfs.namenode.path.based.cache.retry.interval.ms 【属性值】:30000;【描述】:当NAMENODE需要取消缓存的东西,或者缓存未缓存的东西时,它必须通过发送 DNA_CACHEDNA_UNCACHE命令来响应数据阳极心跳来引导数据。
dfs.datanode.fsdatasetcache.max.threads.per.volume 【属性值】:4;【描述】:用于缓存datanode上新数据的每卷的最大线程数。这些线程同时消耗I/OCPU。这会影响正常的datanode操作。
dfs.cachereport.intervalMsec 【属性值】:10000;【描述】:以毫秒为单位确定缓存报告间隔。在这段时间之后,datanode将其缓存状态的完整报告发送到namenode
dfs.namenode.edit.log.autoroll.multiplier.threshold 【属性值】:2;【描述】:确定active namenode何时滚动自己的edit log
dfs.namenode.edit.log.autoroll.check.interval.ms 【属性值】:300000;【描述】:active namenode以毫秒为单位检查它是否需要滚动自己的edit log
dfs.webhdfs.user.provider.user.pattern 【属性值】:^[A-Za-z_][A-Za-z0-9._-]*[$]?$;【描述】:webhdfs用户名和组的有效模式,它必须是一个有效的java正则表达式。 
dfs.webhdfs.acl.provider.permission.pattern 【属性值】:^(default:)?(user|group|mask|other):[[A-Za-z_][A-Za-z0-9._-]]*:([rwx-]{3})?(,(default:)?(user|group|mask|other):[[A-Za-z_][A-Za-z0-9._-]]*:([rwx-]{3})?)*$;【描述】:在webhdfs ACL操作的用户和组名的有效模式,它必须是一个有效的java正则表达式。
dfs.webhdfs.socket.connect-timeout 【属性值】:60s;【描述】:连接到WebHDFS服务器的Socket超时时间。
dfs.webhdfs.socket.read-timeout 【属性值】:60s;【描述】:从WebHDFS服务器读取数据的套接字超时时间。单位可以为 ns, us, ms, s, m, h, d for nanoseconds, microseconds, milliseconds, seconds, minutes, hours, days 等。
dfs.client.context 【属性值】:default;【描述】:我们应该使用的DFSClient上下文的名称。
dfs.client.read.shortcircuit 【属性值】:FALSE;【描述】:此配置参数开启短路本地读取。 
dfs.client.socket.send.buffer.size 【属性值】:0;【描述】:DFSClient的套接字发送缓冲区大小。这可能影响TCP连接吞吐量。如果设置为零或负值,则不显式设置缓冲区大小,从而使TCP自动调整到某些系统上。默认值为0.
dfs.domain.socket.path 【属性值】:;【描述】:可选项。DataNode 本地文件系统到 UNIX 域套接字的路径,用于 DataNode 和本地 HDFS 客户端之间的通信。该套接字用于 Short Circuit Read。只有 HDFS 系统用户和“root”拥有父目录及其所有上级的写入权限。
dfs.client.read.shortcircuit.skip.checksum 【属性值】:FALSE;【描述】:如果设置了此配置参数,则短路本地读取将跳过校验和。这通常是不推荐的,但它可能对特殊设置有用。如果正在HDFS之外进行自己的校验求和,则可以考虑使用此方法。 
dfs.client.read.shortcircuit.streams.cache.size 【属性值】:256;【描述】:DFS客户端维护了一个最近打开的文件描述符的缓存,这个参数控制缓存中文件描述符的最大数量。
dfs.client.read.shortcircuit.streams.cache.expiry.ms 【属性值】:300000;【描述】:控制文件描述符在client缓存中的最小时间。
dfs.datanode.shared.file.descriptor.paths 【属性值】:/dev/shm,/tmp;【描述】:创建共享内存段的目录,用逗号分隔。Clientdatanode通过这个共享内存段交换信息。
dfs.namenode.audit.log.debug.cmdlist 【属性值】:;【描述】:当audit log级别是debug时,写入到namenode audit log的命令列表,用逗号分隔。
dfs.client.use.legacy.blockreader.local 【属性值】:FALSE;【描述】:当为true时,使用基于HDFS-2246 Legacy short-circuit reader实现方式。
dfs.block.local-path-access.user 【属性值】:;【描述】:允许在legacy short-circuit本地读取时打开块文件的用户列表,用逗号分隔。
dfs.client.domain.socket.data.traffic 【属性值】:FALSE;【描述】:控制是否会尝试通过UNIX域套接字传递正常的数据流量,而不是通过TCP套接字在节点本地数据传输上传递数据。
dfs.namenode.reject-unresolved-dn-topology-mapping 【属性值】:FALSE;【描述】:当为true时,如果datanode的拓扑映射未被解析并且返回null,则namenode将拒绝此datanode的注册。
dfs.client.slow.io.warning.threshold.ms 【属性值】:30000;【描述】:在dfsclient中记录慢io警告的阈值。
dfs.datanode.slow.io.warning.threshold.ms 【属性值】:300;【描述】:在datanode中记录慢io警告的阈值。
dfs.namenode.xattrs.enabled 【属性值】:TRUE;【描述】:是否支持扩展namenode的属性。
dfs.namenode.fs-limits.max-xattrs-per-inode 【属性值】:32;【描述】:每个索引节点的扩展属性的最大数目。
dfs.namenode.fs-limits.max-xattr-size 【属性值】:16384;【描述】:以字节为单位的扩展属性的名称和值的最大组合大小。它应该大于0,小于或等于32768
dfs.namenode.lease-recheck-interval-ms 【属性值】:2000;【描述】:
dfs.namenode.max-lock-hold-to-release-lease-ms 【属性值】:25;【描述】:在释放lease期间,锁会使NAMENODE上的任何操作卡住。
dfs.namenode.write-lock-reporting-threshold-ms 【属性值】:5000;【描述】:当一个写锁在NAMENODE上被保存很长时间时,当锁被释放时,这将被记录下来。这设置了日志记录发生时必须持有锁的时间。
dfs.namenode.read-lock-reporting-threshold-ms 【属性值】:5000;【描述】:当读锁在NAMENODE上保存很长时间时,当锁被释放时将记录该日志。这设置了日志记录发生时必须持有锁的时间。
dfs.namenode.lock.detailed-metrics.enabled 【属性值】:FALSE;【描述】:如果为trueNAMENODE将跟踪各种操作保存命名空间锁的时间,并将其作为度量。
dfs.namenode.fslock.fair 【属性值】:TRUE;【描述】:如果为trueFS namesystem锁将在公平模式下使用,这将有助于防止编写器线程被饿死,但可以提供更低的锁定吞吐量。
dfs.namenode.startup.delay.block.deletion.sec 【属性值】:0;【描述】:在NAMENODE启动后,延迟设定时间后,我们将暂停块删除。默认情况下,它已被禁用。
dfs.namenode.list.encryption.zones.num.responses 【属性值】:100;【描述】:当列出加密区域时,将在批处理中返回的最大区域数。
dfs.namenode.list.openfiles.num.responses 【属性值】:1000;【描述】:当列出打开的文件时,将在单个批处理中返回的最大打开文件数。
dfs.namenode.edekcacheloader.interval.ms 【属性值】:1000;【描述】:当KeyProvider配置后,namenode被启动或变成active时,进行edek 缓存预热的时间间隔。
dfs.namenode.edekcacheloader.initial.delay.ms 【属性值】:3000;【描述】:当KeyProvider配置后, namenode被启动或变成active时,第一次尝试edit cache缓存预热的延迟时间。
dfs.namenode.inotify.max.events.per.rpc 【属性值】:1000;【描述】:将在单个RPC响应中发送给客户端的最大事件数。
dfs.user.home.dir.prefix 【属性值】:/user;【描述】:该目录用于添加用户名以获得用户的home目录。
dfs.datanode.cache.revocation.timeout.ms 【属性值】:900000;【描述】:当dfsclient读取缓存中的datanode块文件时,将跳过校验。datanode将保持块文件在缓存中,直到客户端完成。但是,如果客户端占用非常长的时间,那么datanode可能需要从缓存中逐出块文件。此属性数值控制datanode等待客户端释放其没有校验和读取的副本的时间。
dfs.datanode.cache.revocation.polling.ms 【属性值】:500;【描述】:datanode应该多久轮询一次,看看客户端是否停止使用datanode想要取消的副本。
dfs.datanode.block.id.layout.upgrade.threads 【属性值】:12;【描述】:创建硬链接的最大线程数。
dfs.storage.policy.enabled 【属性值】:TRUE;【描述】:允许用户更改文件和目录的存储策略。
dfs.namenode.legacy-oiv-image.dir 【属性值】:;【描述】:在standby namenodesecondary namenode的检查点期间,保存fsimage的命名空间的位置。
dfs.namenode.top.enabled 【属性值】:TRUE;【描述】:启用nntop
dfs.namenode.top.window.num.buckets 【属性值】:10;【描述】:nntop的桶数。
dfs.namenode.top.num.users 【属性值】:10;【描述】:顶部工具返回的顶级用户数。
dfs.namenode.top.windows.minutes 【属性值】:1,5,25;【描述】:nntop在分钟内的报告周期,用逗号分隔。
dfs.webhdfs.ugi.expire.after.access 【属性值】:600000;【描述】:在最后一次访问之后,缓存的UGI将在多长时间内过期。0表示永不过期。
dfs.namenode.blocks.per.postponedblocks.rescan 【属性值】:10000;【描述】:在postponedMisreplicatedBlocks每个迭代中扫描的块数。
dfs.datanode.block-pinning.enabled 【属性值】:FALSE;【描述】:PIN块是否在受欢迎的datanode上。
dfs.client.block.write.locateFollowingBlock.initial.delay.ms 【属性值】:400;【描述】:locateFollowingBlock的初始延迟,每个重试的延迟时间将成倍增加。
dfs.ha.zkfc.nn.http.timeout.ms 【属性值】:20000;【描述】:当DFS ZKFC在本地namenode成为服务不正常后,尝试获得本地namenode线程转储时,HTTP连接和读取超时值(单位为MS)。
dfs.namenode.quota.init-threads 【属性值】:4;【描述】:quota初始化并发线程的数量。
dfs.datanode.transfer.socket.send.buffer.size 【属性值】:0;【描述】:DataXceiver Socket发送缓冲区大小。
dfs.datanode.transfer.socket.recv.buffer.size 【属性值】:0;【描述】:DataXceiver Socket接收缓冲区大小。
dfs.namenode.upgrade.domain.factor 【属性值】:${dfs.replication};【描述】:只有当将块放置策略设置为BlockPlacementPolicyWithUpgradeDomain时,才有效。它定义了任何块的副本应该具有的唯一升级域的数量。当副本的数量小于或等于该值时,策略确保每个副本具有唯一的升级域。当副本的数量大于该值时,策略确保唯一域的数量至少为该值。 
dfs.ha.zkfc.port 【属性值】:8019;【描述】:ZKFCRPC端口。
dfs.datanode.bp-ready.timeout 【属性值】:20;【描述】:在接收到的请求失败之前,datanode的最大等待时间准备就绪。
dfs.datanode.cached-dfsused.check.interval.ms 【属性值】:600000;【描述】:在每个卷中加载DU_CACHE_FILE的间隔检查时间。
dfs.webhdfs.rest-csrf.enabled 【属性值】:FALSE;【描述】:如果为真,则允许WebHDFS对跨站点请求伪造(CSRF)进行保护。
dfs.webhdfs.rest-csrf.custom-header 【属性值】:X-XSRF-HEADER;【描述】:当 dfs.webhdfs.rest-csrf.enabled属性为true时,发送的HTTP请求的custom header
dfs.webhdfs.rest-csrf.methods-to-ignore 【属性值】:GET,OPTIONS,HEAD,TRACE;【描述】:当dfs.webhdfs.rest-csrf.enabled属性为true时,HTTP请求中不需要custom header的列表,用逗号分隔。
dfs.webhdfs.rest-csrf.browser-useragents-regex 【属性值】:^Mozilla.*,^Opera.*;【描述】:当dfs.webhdfs.reset-csrf.enabled属性为true时,HTTP请求的用户代理头部需匹配的正则表达式。
dfs.xframe.enabled 【属性值】:TRUE;【描述】:当为true时,则通过将返回的X_FRAME_OPTIONS设置为SAMEORIGIN,来实现对点击劫持的保护。
dfs.xframe.value 【属性值】:SAMEORIGIN;【描述】:选项有三个:DENY/SAMEORIGIN/ALLOW-FROM
dfs.http.client.retry.policy.enabled 【属性值】:FALSE;【描述】:当为true时,允许WebHDFS客户端的重试策略。当WebHDFS需要在集群间拷贝超大文件,此策略非常有用。
dfs.http.client.retry.policy.spec 【属性值】:10000,6,60000,10;【描述】:指定WebHDFS客户端的多线性随机重试策略,例如给定重试次数和睡眠时间(N0T0),(N1T1),,重试N0次后睡眠T0毫秒,重试N1次后睡眠T1毫秒,等等。
dfs.http.client.failover.max.attempts 【属性值】:15;【描述】:指定WebHDFS客户端在网络异常情况下的故障转移尝试的最大数目。 
dfs.http.client.retry.max.attempts 【属性值】:10;【描述】:指定WebHDFS客户端重试尝试的最大次数。
dfs.http.client.failover.sleep.base.millis 【属性值】:500;【描述】:WebHDFS客户端在重试或故障转移之间的指数增加的睡眠时间,单位为毫秒。 
dfs.http.client.failover.sleep.max.millis 【属性值】:15000;【描述】:在WebHDFS客户端重试或故障转移之间指定睡眠时间的上限,单位为毫秒。
dfs.namenode.hosts.provider.classname 【属性值】:org.apache.hadoop.hdfs.server.blockmanagement.HostFileManager;【描述】:提供主机文件访问的类。
datanode.https.port 【属性值】:50475;【描述】:datanodeHTTPS端口。
dfs.balancer.dispatcherThreads 【属性值】:200;【描述】:用于HDFS均衡器块移动器的线程池的大小。
dfs.balancer.movedWinWidth 【属性值】:5400000;【描述】:HDFS平衡器跟踪块及其位置的时间窗口,单位是毫秒。
dfs.balancer.moverThreads 【属性值】:1000;【描述】:用于执行块移动的线程池大小。
dfs.balancer.max-size-to-move 【属性值】:10737418240;【描述】:在单个线程中平衡器可以移动的最大字节数。
dfs.balancer.getBlocks.min-block-size 【属性值】:10485760;【描述】:在获取源块列表时忽略字节的最小块阈值大小。
dfs.balancer.getBlocks.size 【属性值】:2147483648;【描述】:获取源块列表时获得的datanode块的总字节大小。
dfs.balancer.block-move.timeout 【属性值】:0;【描述】:块移动所需的最大毫秒时间。在典型的集群中,35分钟的超时是合理的。如果大量的块移动发生超时,这需要增加。
dfs.balancer.max-no-move-interval 【属性值】:60000;【描述】:如果在指定的这个时间内,没有将块从datanode中移出,则在平衡器迭代中,将更大努力投入于datanode的块移出中来。
dfs.block.invalidate.limit 【属性值】:1000;【描述】:由NAMENODE发送到每个心跳删除命令的datanode的无效块的最大数目。
dfs.block.misreplication.processing.limit 【属性值】:10000;【描述】:初始化复制队列所需处理的最大块数。
dfs.block.replicator.classname 【属性值】:org.apache.hadoop.hdfs.server.blockmanagement.BlockPlacementPolicyDefault;【描述】:表示 non-striped的块放置策略的类。选项有:BlockPlacementPolicyDefault BlockPlacementPolicyWithNodeGroupBlockPlacementPolicyRackFaultTolerantBlockPlacementPolicyWithUpgradeDomain.
dfs.blockreport.incremental.intervalMsec 【属性值】:0;【描述】:从datanodenamenode发送增量块报告的等待时间,单位为毫秒。
dfs.checksum.type 【属性值】:CRC32C;【描述】:校验和类型
dfs.client.block.write.locateFollowingBlock.retries 【属性值】:5;【描述】:在HDFS中查找下一个块时使用的重试次数。
dfs.client.failover.proxy.provider 【属性值】:;【描述】:为主机配置的故障转移代理提供程序的类名的前缀(加上所需的名称服务ID)。
dfs.client.key.provider.cache.expiry 【属性值】:864000000;【描述】:DFS客户端安全密钥缓存过期时间,以毫秒为单位。
dfs.client.max.block.acquire.failures 【属性值】:3;【描述】:试图从指定的datanode获取块信息时允许出现的最多错误数。
dfs.client.read.prefetch.size 【属性值】:;【描述】:DFS客户端在读操作时每次从namenode读取的字节数。默认值是dfs.blocksize属性值的10倍。 
dfs.client.read.short.circuit.replica.stale.threshold.ms 【属性值】:1800000;【描述】:在 short-circuit本地读取期间,读取entries的最大阈值,单位是毫秒。
dfs.client.read.shortcircuit.buffer.size 【属性值】:1048576;【描述】:用于本地短路读取的缓冲区大小。
dfs.client.replica.accessor.builder.classes 【属性值】:;【描述】:用于构建ReplicaAccessor的类,用逗号分隔。 
dfs.client.retry.interval-ms.get-last-block-length 【属性值】:4000;【描述】:在从datanode获取块长度时,再次重试间的时间间隔,单位是毫秒。
dfs.client.retry.max.attempts 【属性值】:10;【描述】:DFS客户端尝试与namenode会话的最大重试次数。
dfs.client.retry.policy.enabled 【属性值】:FALSE;【描述】:当为true时,则开启DFS客户端的重试策略。
dfs.client.retry.policy.spec 【属性值】:10000,6,60000,10;【描述】:DFS客户端的超时时间和重试次数的数值对。
dfs.client.retry.times.get-last-block-length 【属性值】:3;【描述】:调用fetchLocatedBlocksAndGetLastBlockLength()的最大重试次数。
dfs.client.retry.window.base 【属性值】:3000;【描述】:用于DFS客户端重试的MS的基本时间窗口。对于每个重试尝试,该值线性扩展(例如,第一次尝试3000毫秒,第二次重试6000毫秒,第三次重试9000毫秒等)。
dfs.client.socket-timeout 【属性值】:60000;【描述】:所有socket的默认超时时间,单位为毫秒。
dfs.client.socketcache.capacity 【属性值】:16;【描述】:用于短路读取的socket缓存容量。
dfs.client.socketcache.expiryMsec 【属性值】:3000;【描述】:用于短路读取的socket缓存过期时间,单位为毫秒。
dfs.client.test.drop.namenode.response.number 【属性值】:0;【描述】:每个RPC调用由DFS客户端删除的namenode响应的数目。用于测试namenode重试缓存。
dfs.client.hedged.read.threadpool.size 【属性值】:0;【描述】:支持DFS客户端的hedged读取。若要启用此特性,需要将参数设置为正数。
dfs.client.hedged.read.threshold.millis 【属性值】:500;【描述】:配置DFS客户端的hedged读取。属性值为启动hedged读取前的等待时间。
dfs.client.use.legacy.blockreader 【属性值】:FALSE;【描述】:当为true时,则本地短路读取使用RemoteBlockReader类,当为false时,则使用RemoteBlockReader2类。
dfs.client.write.byte-array-manager.count-limit 【属性值】:2048;【描述】:每个数组长度允许的最大数组数。
dfs.client.write.byte-array-manager.count-reset-time-period-ms 【属性值】:10000;【描述】:分配每个数组长度的时间间隔,如果没有增量,则为0
dfs.client.write.byte-array-manager.count-threshold 【属性值】:128;【描述】:每个数组长度的计数阈值,使得只有在分配计数超过阈值后才创建管理器。
dfs.client.write.byte-array-manager.enabled 【属性值】:FALSE;【描述】:如果为true,则启用DFSOutputStream流使用的字节数组管理器。
dfs.client.write.max-packets-in-flight 【属性值】:80;【描述】:DFSPackets允许的最大间隔数。
dfs.content-summary.limit 【属性值】:5000;【描述】:在一个锁定周期中允许的最大内容摘要计数。0或负数意味着没有限制。
dfs.content-summary.sleep-microsec 【属性值】:500;【描述】:在内容汇总计算中,两次请求锁的时间。
dfs.data.transfer.client.tcpnodelay 【属性值】:TRUE;【描述】:当为true时,则从DFS客户端传输时,设置socketTCP_NODELAY
dfs.datanode.balance.max.concurrent.moves 【属性值】:50;【描述】:做balance时每个dn移动块的最大并行线程数。
dfs.datanode.fsdataset.factory 【属性值】:;【描述】:为datanode存储副本的基础存储的类名。默认为org.apache.hadoop.hdfs.server.datanode.fsdataset.impl.FsDatasetFactory
dfs.datanode.fsdataset.volume.choosing.policy 【属性值】:;【描述】:目录列表中选择卷的策略的类名。默认为org.apache.hadoop.hdfs.server.datanode.fsdataset.RoundRobinVolumeChoosingPolicy
dfs.datanode.hostname 【属性值】:;【描述】:可选的。包含此配置文件的datanode的主机名。每个机器都会不同。默认为当前主机名。
dfs.datanode.lazywriter.interval.sec 【属性值】:60;【描述】:惰性持久化写入datanode的时间间隔。
dfs.datanode.network.counts.cache.max.size 【属性值】:2147483647;【描述】:每个主机网络错误计数缓存的datanode可能包含的条目的最大数量。
dfs.datanode.oob.timeout-ms 【属性值】:1500,0,0,0;【描述】:为每个OOB类型发送OOB响应时的超时值,分别为OOB_RESTARTOOB_RESERVED1OOB_RESERVED2OOB_RESERVED3。目前只有OOB_RESTART被用到。
dfs.datanode.parallel.volumes.load.threads.num 【属性值】:;【描述】:用于升级数据目录的最大线程数。默认值是datanode中存储目录的数量。
dfs.datanode.ram.disk.replica.tracker 【属性值】:;【描述】:实现RamDiskReplicaTracker接口的类的名称。默认为org.apache.hadoop.hdfs.server.datanode.fsdataset.impl.RamDiskReplicaLruTracker
dfs.datanode.restart.replica.expiration 【属性值】:50;【描述】:在重新启动关机期间,为datanode重新启动的预算时间,单位为秒。
dfs.datanode.socket.reuse.keepalive 【属性值】:4000;【描述】:在DataXceiver关闭单个请求的套接字之间的时间窗口。如果在该窗口内出现第二个请求,则可以重新使用套接字。
dfs.datanode.socket.write.timeout 【属性值】:480000;【描述】:写入danode的客户端socket超时时间,单位为毫秒。
dfs.datanode.sync.behind.writes.in.background 【属性值】:FALSE;【描述】:如果设置为true,那么sync_file_range()系统调用将异步发生。
dfs.datanode.transferTo.allowed 【属性值】:TRUE;【描述】:当为false时,则在32位机器上,将大于等于2GB的块分成较小的块。
dfs.ha.fencing.methods 【属性值】:;【描述】:在故障转移期间,用于激活namenode的脚本或类名列表。
dfs.ha.standby.checkpoints 【属性值】:TRUE;【描述】:如果为true,则在待机状态下的NAMENODE周期性地采取命名空间的检查点,将其保存到本地存储,然后上载到远程NAMENODE
dfs.ha.zkfc.port 【属性值】:8019;【描述】:zookeeper故障转移控制器RPC服务器绑定的端口号。
dfs.http.port 【属性值】:;【描述】:HftpHttpFSWebHdfshttp端口。
dfs.https.port 【属性值】:;【描述】:HftpHttpFSWebHdfshttps端口。
dfs.journalnode.edits.dir 【属性值】:/tmp/hadoop/dfs/journalnode/;【描述】:存储 journal edit文件的目录。
dfs.journalnode.kerberos.internal.spnego.principal 【属性值】:;【描述】:journal节点使用的Kerberos SPNEGO主体名称。
dfs.journalnode.kerberos.principal 【属性值】:;【描述】:journal节点使用的Kerberos主体名称。
dfs.journalnode.keytab.file 【属性值】:;【描述】:journal节点keytab文件。
dfs.ls.limit 【属性值】:1000;【描述】:限制ls打印的文件数。如果小于或等于零,最多将打印 DFS_LIST_LIMIT_DEFAULT (= 1000)
dfs.mover.movedWinWidth 【属性值】:5400000;【描述】:一个块可以再次移动到另一个位置的最小时间间隔,以毫秒为单位。
dfs.mover.moverThreads 【属性值】:1000;【描述】:配置均衡器的移动线程池大小。 
dfs.mover.retry.max.attempts 【属性值】:10;【描述】:在移动者认为移动失败之前重试的最大次数。 
dfs.mover.max-no-move-interval 【属性值】:60000;【描述】:如果指定的时间量已经过去,并且没有块已经从源datanode中移出,则将更加努力地将块移到当前MOVER迭代中的该datanode之外。
dfs.namenode.audit.log.async 【属性值】:FALSE;【描述】:如果为true,启用异步审计日志。
dfs.namenode.audit.log.token.tracking.id 【属性值】:FALSE;【描述】:如果为true,则为所有审计日志事件添加跟踪ID 
dfs.namenode.available-space-block-placement-policy.balanced-space-preference-fraction 【属性值】:0.6;【描述】:只有当dfs.block.replicator.classname设置为org.apache.hadoop.hdfs.server.blockmanagement.AvailableSpaceBlockPlacementPolicy时使用。值在01之间。
dfs.namenode.backup.dnrpc-address 【属性值】:;【描述】:用于备份NAMENODE的服务RPC地址。
dfs.namenode.delegation.token.always-use 【属性值】:FALSE;【描述】:用于测试。设置为TRUE时总是允许使用DT秘密管理器,即使安全被禁用。
dfs.namenode.edits.asynclogging 【属性值】:TRUE;【描述】:如果设置为true,则启用NAMENODE中的异步编辑日志。如果设置为falseNAMENODE使用传统的同步编辑日志。
dfs.namenode.edits.dir.minimum 【属性值】:1;【描述】:dfs.namenode.edits.dir同时需要的目录。
dfs.namenode.edits.journal-plugin 【属性值】:;【描述】:当FSEditLog正在从dfs.namenode.edits.dir创建日记管理器时,它遇到一个与文件不同的模式的URI,它从“dfs.namenode.edits.journal-plugin.[schema]”中加载实现类的名称。这个类必须实现日志管理器,并有一个构造函数。
dfs.namenode.file.close.num-committed-allowed 【属性值】:0;【描述】:通常,只能当所有块都提交后,才能关闭文件。当该值设置为正整数N时,当N个块被提交并且其余部分完成时,文件可以被关闭。 
dfs.namenode.inode.attributes.provider.class 【属性值】:;【描述】:用于委派HDFS授权的类的名称。
dfs.namenode.inode.attributes.provider.bypass.users 【属性值】:;【描述】:将为所有操作绕过外部属性提供程序的用户主体或用户名的列表。
dfs.namenode.max-num-blocks-to-log 【属性值】:1000;【描述】:对块报告后由NAMENODE打印到日志块的数量进行限制。
dfs.namenode.max.op.size 【属性值】:52428800;【描述】:最大操作码大小,以字节为单位。
dfs.namenode.name.cache.threshold 【属性值】:10;【描述】:经常访问的文件访问次数超过了这个阈值,缓存在FSDirectory nameCache中。
dfs.namenode.replication.max-streams 【属性值】:2;【描述】:最高优先级复制流的数量的硬限制。 
dfs.namenode.replication.max-streams-hard-limit 【属性值】:4;【描述】:所有复制流的硬限制。
dfs.namenode.replication.pending.timeout-sec 【属性值】:-1;【描述】:块复制的超时秒数。如果这个值是0或更少,那么它将默认为5分钟。
dfs.namenode.stale.datanode.minimum.interval 【属性值】:3;【描述】:用NAMENODE标记datanode的数据丢失间隔的最小次数。
dfs.namenode.snapshot.capture.openfiles 【属性值】:FALSE;【描述】:如果为true,则获取的快照将具有具有有效租约的打开文件的不可变共享副本。即使在打开的文件增长或缩小的大小,快照总是会有以前的时间点打开文件的版本,就像所有其他封闭的文件。默认为false
dfs.namenode.snapshot.skip.capture.accesstime-only-change 【属性值】:FALSE;【描述】:如果文件/目录的访问时间发生了更改,但没有对文件/目录进行其他修改,则在下一个快照中不会捕获更改后的访问时间。但是,如果对文件/目录进行了其他修改,则最新的访问时间将与下一快照中的修改一起捕获。
dfs.pipeline.ecn 【属性值】:FALSE;【描述】:如果为true,则允许来自datanodeECN(显式拥塞通知)。
dfs.qjournal.accept-recovery.timeout.ms 【属性值】:120000;【描述】:在特定段的恢复/同步接受阶段中的仲裁超时时间,以毫秒为单位。
dfs.qjournal.finalize-segment.timeout.ms 【属性值】:120000;【描述】:在特定片段的最终确定过程中的仲裁超时时间,以毫秒为单位。
dfs.qjournal.get-journal-state.timeout.ms 【属性值】:120000;【描述】:调用 getJournalState()的超时时间。
dfs.qjournal.new-epoch.timeout.ms 【属性值】:120000;【描述】:获得对日志节点的写入访问的opoch数时的超时时间,以毫秒为单位。
dfs.qjournal.prepare-recovery.timeout.ms 【属性值】:120000;【描述】:在特定段的恢复/同步准备阶段的仲裁超时时间,以毫秒为单位。
dfs.qjournal.queued-edits.limit.mb 【属性值】:10;【描述】:quorum journal edits的队列大小,单位是MB
dfs.qjournal.select-input-streams.timeout.ms 【属性值】:20000;【描述】:从日记管理器接受流时的超时时间,以毫秒为单位。
dfs.qjournal.start-segment.timeout.ms 【属性值】:20000;【描述】:启动日志段的超时时间,以毫秒为单位。
dfs.qjournal.write-txns.timeout.ms 【属性值】:20000;【描述】:定稿远程journal的超时时间,以毫秒为单位。
dfs.quota.by.storage.type.enabled 【属性值】:TRUE;【描述】:如果为true,则启用基于存储类型的配额。
dfs.secondary.namenode.kerberos.principal 【属性值】:;【描述】:Secondary NameNodeKerberos主体名称。
dfs.secondary.namenode.keytab.file 【属性值】:;【描述】:Secondary NameNodeKerberos keytab文件。
dfs.support.append 【属性值】:TRUE;【描述】:启用NAMENODE上的append支持。 
dfs.web.authentication.filter 【属性值】:org.apache.hadoop.hdfs.web.AuthFilter;【描述】:用于WebHDFS的身份验证筛选器类。 
dfs.web.authentication.simple.anonymous.allowed 【属性值】:;【描述】:如果为true,允许匿名用户访问WebHDFS。设置为false以禁用匿名身份验证。
dfs.web.ugi 【属性值】:;【描述】:dfs.web.ugi被弃用,建议用hadoop.http.staticuser.user代替。
dfs.webhdfs.netty.high.watermark 【属性值】:65535;【描述】:Datanode WebHdfsNetty高水印配置。
dfs.webhdfs.netty.low.watermark 【属性值】:32768;【描述】:Datanode WebHdfsNetty低水印配置。
dfs.webhdfs.oauth2.access.token.provider 【属性值】:;【描述】:使用OAuth2访问WebHDFS的令牌提供者类。默认为org.apache.hadoop.hdfs.web.oauth2.ConfCredentialBasedAccessTokenProvider
dfs.webhdfs.oauth2.client.id 【属性值】:;【描述】:客户端ID,用于获取凭据或刷新令牌的访问令牌。
dfs.webhdfs.oauth2.enabled 【属性值】:FALSE;【描述】:如果为true,则启用WebHDFS中的OAuth2
dfs.webhdfs.oauth2.refresh.url 【属性值】:;【描述】:用以获得带有凭证或刷新令牌的承载令牌的URL
ssl.server.keystore.keypassword 【属性值】:;【描述】:HTTPS-SSL配置的密钥存储密钥密码。
ssl.server.keystore.location 【属性值】:;【描述】:HTTPS-SSL配置的密钥存储位置。
ssl.server.keystore.password 【属性值】:;【描述】:HTTPS-SSL配置的密钥存储密码。
dfs.balancer.keytab.enabled 【属性值】:FALSE;【描述】:设置为true以启用Kerberized Hadoopkeytab的登录。
dfs.balancer.address 【属性值】:0.0.0.0:0;【描述】:基于Kerberos登录时,用于keytab的主机名。
dfs.balancer.keytab.file 【属性值】:;【描述】:平衡器使用的keytab文件作为其服务主体登录。
dfs.balancer.kerberos.principal 【属性值】:;【描述】:平衡器主体,通常为balancer/[email protected]
ssl.server.truststore.location 【属性值】:;【描述】:HTTPS-SSL配置的信任存储位置。
ssl.server.truststore.password 【属性值】:;【描述】:HTTPS-SSL配置的信任存储密码。
dfs.lock.suppress.warning.interval 【属性值】:10s;【描述】:报告长临界段的instrumentation在设置的时间间隔内,将挂起警告。
dfs.webhdfs.use.ipc.callq 【属性值】:TRUE;【描述】:通过通过rpc调用的webhdfs路由。
httpfs.buffer.size 【属性值】:4096;【描述】:创建或打开HTTPFS文件系统IO流时使用的缓冲区大小。
dfs.datanode.disk.check.min.gap 【属性值】:15m;【描述】:同一datanode卷的两次连续检查之间的最小间隔。
dfs.datanode.disk.check.timeout 【属性值】:10m;【描述】:在DataNode启动期间,磁盘检查完成的最大允许时间。如果在该时间间隔内没有完成检查,则将磁盘声明为失败。此设置支持多个时间单位后缀,如 dfs.heartbeat.interval中所描述的。如果没有指定后缀,则假设为毫秒。
dfs.use.dfs.network.topology 【属性值】:TRUE;【描述】:启用DFSNetworkTopology选择放置副本的节点。
dfs.qjm.operations.timeout 【属性值】:60s;【描述】:QuorumJournalManager为相关操作设置超时的公共密钥。
dfs.reformat.disabled 【属性值】:FALSE;【描述】:禁用NAMENODE的重新格式化。
dfs.federation.router.default.nameserviceId 【属性值】:;【描述】:要监视的默认子集群的Nameservice标识符。
dfs.federation.router.rpc.enable 【属性值】:TRUE;【描述】:如果为true,则启用在路由器中处理客户端请求的RPC服务。 
dfs.federation.router.rpc-address 【属性值】:0.0.0.0:8888;【描述】:处理所有客户端请求的RPC地址。此属性的值将采用 router-host1:rpc-port端口的形式。 
dfs.federation.router.rpc-bind-host 【属性值】:;【描述】:RPC服务器将绑定到的实际地址。如果设置了这个可选地址,它只覆盖dfs.federation.router.rpc-address的主机名部分。
dfs.federation.router.handler.count 【属性值】:10;【描述】:路由器用于处理来自客户端的RPC请求的服务器线程数。
dfs.federation.router.handler.queue.size 【属性值】:100;【描述】:处理RPC客户端请求的处理数的队列大小。
dfs.federation.router.reader.count 【属性值】:1;【描述】:路由器处理RPC客户端请求的读数。 
dfs.federation.router.reader.queue.size 【属性值】:100;【描述】:路由器处理RPC客户端请求的读数的队列大小。
dfs.federation.router.connection.pool-size 【属性值】:1;【描述】:从路由器到NAMENODE的连接池的大小。
dfs.federation.router.connection.clean.ms 【属性值】:10000;【描述】:时间间隔,以毫秒为单位,检查连接池是否应该删除未使用的连接。 
dfs.federation.router.connection.pool.clean.ms 【属性值】:60000;【描述】:时间间隔,以毫秒为单位,检查连接管理器是否应该删除未使用的连接池。 
dfs.federation.router.metrics.enable 【属性值】:TRUE;【描述】:是否启用了路由器中的度量。 
dfs.federation.router.metrics.class 【属性值】:org.apache.hadoop.hdfs.server.federation.metrics.FederationRPCPerformanceMonitor;【描述】:类来监视路由器中的RPC系统。它必须实现RouterRpcMonitor接口。
dfs.federation.router.admin.enable 【属性值】:TRUE;【描述】:如果为true,则启用在路由器中处理客户端请求的RPC管理服务。
dfs.federation.router.admin-address 【属性值】:0.0.0.0:8111;【描述】:处理管理请求的RPC地址。此属性的值将采用router-host1:rpc-port的形式。
dfs.federation.router.admin-bind-host 【属性值】:;【描述】:RPC管理服务器将绑定到的实际地址。如果设置了这个可选地址,它只覆盖 dfs.federation.router.admin-address地址的主机名部分。
dfs.federation.router.admin.handler.count 【属性值】:1;【描述】:路由器的服务器线程数,以处理来自管理员的RPC请求。 
dfs.federation.router.http-address 【属性值】:0.0.0.0:50071;【描述】:处理Web请求到路由器的HTTP地址。此属性的值将采用router-host1:http-port端口的形式。
dfs.federation.router.http-bind-host 【属性值】:;【描述】:HTTP服务器将绑定到的实际地址。如果设置了这个可选地址,它只覆盖dfs.federation.router.http-address地址的主机名部分。
dfs.federation.router.https-address 【属性值】:0.0.0.0:50072;【描述】:处理Web请求到路由器的HTTPS地址。此属性的值将采用router-host1:https-port端口的形式。
dfs.federation.router.https-bind-host 【属性值】:;【描述】:HTTPS服务器将绑定到的实际地址。如果设置了这个可选地址,它只覆盖dfs.federation.router.https-address地址的主机名部分。
dfs.federation.router.http.enable 【属性值】:TRUE;【描述】:是否启用了在路由器中处理客户端请求的HTTP服务。
dfs.federation.router.metrics.enable 【属性值】:TRUE;【描述】:是否启用了路由器中的度量服务。
dfs.federation.router.file.resolver.client.class 【属性值】:org.apache.hadoop.hdfs.server.federation.MockResolver;【描述】:文件解析为子集群的类。
dfs.federation.router.namenode.resolver.client.class 【属性值】:org.apache.hadoop.hdfs.server.federation.resolver.MembershipNamenodeResolver;【描述】:解析子集群的NAMENODE的类。
dfs.federation.router.store.enable 【属性值】:TRUE;【描述】:如果为TRUE,路由器连接到状态存储。
dfs.federation.router.store.serializer 【属性值】:org.apache.hadoop.hdfs.server.federation.store.driver.impl.StateStoreSerializerPBImpl;【描述】:序列化状态存储记录的类。
dfs.federation.router.store.driver.class 【属性值】:org.apache.hadoop.hdfs.server.federation.store.driver.impl.StateStoreFileImpl;【描述】:实现状态存储的类。默认情况下,它使用本地磁盘。
dfs.federation.router.store.connection.test 【属性值】:60000;【描述】:在毫秒内检查连接到状态存储的频率。
dfs.federation.router.cache.ttl 【属性值】:60000;【描述】:在毫秒内刷新状态存储缓存的频率。
dfs.federation.router.store.membership.expiration 【属性值】:300000;【描述】:membership记录的过期时间,单位为毫秒。
dfs.federation.router.heartbeat.enable 【属性值】:TRUE;【描述】:如果为true,路由器心跳进入状态存储。
dfs.federation.router.heartbeat.interval 【属性值】:5000;【描述】:路由器进入状态存储的心跳频率,单位为毫秒。
dfs.federation.router.monitor.namenode 【属性值】:;【描述】:NAMENODE的标识符以监视和心跳。
dfs.federation.router.monitor.localnamenode.enable 【属性值】:TRUE;【描述】:如果为true,路由器应监视本地机器中的NAMENODE

你可能感兴趣的:(hadoop,hive,大数据)