Hadoop2.7.7 API: core-site.xml 解析

name description value 备注
hadoop.common.configuration.version 配置文件版本 0.23.0  
hadoop.tmp.dir 其它临时目录的父目录,会被其它临时目录用到。 /tmp/hadoop-${user.name}  
io.native.lib.available 是否使用本地库进行bz2和zlib的文件压缩及编解码。 TRUE  
hadoop.http.filter.initializers 一个逗号分隔的类名列表,他们必须继承于org.apache.hadoop.http.FilterInitializer,相应的过滤器被初始化后,将应用于所有的JSP和Servlet网页。列表的排序即为过滤器的排序。  org.apache.hadoop.http.lib.StaticUserWebFilter  
hadoop.security.authorization 是否启用service级别的授权。 FALSE  
hadoop.security.instrumentation.requires.admin 访问servlets (JMX, METRICS, CONF, STACKS)是否需要管理员ACL(访问控制列表)的授权。 FALSE  
hadoop.security.authentication 安全认证: simple(默认: 不做控制)和kerberos, simple simple
hadoop.security.group.mapping 用于ACL用户组映射的类,默认的实现类是 org.apache.hadoop.security.JniBasedUnixGroupsMappingWithFallback,定义了JNI是否可用,如果可用,将使用hadoop中的API来实现访问用户组解析,如果不可用,将使用ShellBasedUnixGroupsMapping来实现。 org.apache.hadoop.security.JniBasedUnixGroupsMappingWithFallback  
hadoop.security.groups.cache.secs 配置用户组映射缓存时间的,当过期时重新获取并缓存。 300  
hadoop.security.groups.negative-cache.secs 当无效用户频繁访问,用于设置缓存锁定时间。建议设置为较小的值,也可以通过设置为0或负数来禁用此属性。 30  
hadoop.security.groups.cache.warn.after.ms 当查询用户组时间超过设置的这个阈值时,则作为警告信息进行记录。 5000  
hadoop.security.groups.cache.background.reload 是否使用后台线程池重新加载过期的用户组映射。 FALSE  
hadoop.security.groups.cache.background.reload.threads 接上一个属性,当上个属性为true时,通过此属性控制后台线程的数量。 3  
hadoop.security.group.mapping.ldap.connection.timeout.ms 设置LDAP的连接超时时间,如果为0或负数,表示无限等待。 60000  
hadoop.security.group.mapping.ldap.read.timeout.ms 设置LDAP的读取超时时间,如果为0或负数,表示无限等待。 60000  
hadoop.security.group.mapping.ldap.url LDAP服务器的地址。    
hadoop.security.group.mapping.ldap.ssl 是否使用SSL连接LDAP服务器。 FALSE  
hadoop.security.group.mapping.ldap.ssl.keystore 包含SSL证书的SSL密钥文件的存储路径。    
hadoop.security.group.mapping.ldap.ssl.keystore.password.file 包括SSL密钥文件访问密码的文件路径.
(注意:此文件只能由运行守护进程的unix用户读取,并且应该是本地文件)
   
hadoop.security.group.mapping.ldap.ssl.truststore File path to the SSL truststore that contains the root certificate used to sign the LDAP server's certificate. Specify this if the LDAP server's certificate is not signed by a well known certificate authority.    
hadoop.security.group.mapping.ldap.ssl.truststore.password.file The path to a file containing the password of the LDAP SSL truststore. IMPORTANT: This file should be readable only by the Unix user running the daemons.    
hadoop.security.group.mapping.ldap.bind.user The di连接到LDAP服务器时的用户别名,如果LDAP服务器支持匿名绑定,则此属性可以为空值。    
hadoop.security.group.mapping.ldap.bind.password.file 包含绑定用户密码的文件的路径。如果在证书提供程序中没有配置密码,并且属性hadoop.security.group.mapping.ldap.bind.password没有设置,则从文件读取密码。注意:此文件只能由运行守护进程的UNIX用户读取,并且应该是本地文件。    
hadoop.security.group.mapping.ldap.base LDAP连接时搜索的根目录。    
hadoop.security.group.mapping.ldap.search.filter.user 搜索LDAP用户时提供的额外的筛选器。 (&(objectClass=user)(sAMAccountName={0}))  
hadoop.security.group.mapping.ldap.search.filter.group 搜索LDAP用户组时提供的额外的筛选器。 (objectClass=group)  
hadoop.security.group.mapping.ldap.search.attr.member 用户组对象的属性,用于标识其有哪些组成员。 member  
hadoop.security.group.mapping.ldap.search.attr.group.name 用户组对象的属性,用于标识用户组的名称。 cn  
hadoop.security.group.mapping.ldap.posix.attr.uid.name  posixAccount的属性,用于成员分组 uidNumber  
hadoop.security.group.mapping.ldap.posix.attr.gid.name posixAccount的属性,用户标识组ID。 gidNumber  
hadoop.security.group.mapping.ldap.directory.search.timeout  LDAP SearchControl的属性,用于在搜索和等待结果时设置最大时间限制。如果需要无限等待时间,设置为0。默认值为10秒。单位为毫秒。 10000  
hadoop.security.service.user.name.key 此属性用于指定RPC调用的服务主名称,适用于相同的RPC协议由多个服务器实现的情况。    
hadoop.security.uid.cache.secs 控制缓存的过期时间。 14400  
hadoop.rpc.protection A comma-separated list of protection values for secured sasl connections. Possible values are authentication, integrity and privacy. authentication means authentication only and no integrity or privacy; integrity implies authentication and integrity are enabled; and privacy implies all of authentication, integrity and privacy are enabled. hadoop.security.saslproperties.resolver.class can be used to override the hadoop.rpc.protection for a connection at the server side. authentication  
hadoop.security.saslproperties.resolver.class 用于连接时解决QOP的SaslPropertiesResolver。    
hadoop.work.around.non.threadsafe.getpwuid 一些系统已知在调用getpwuid_r和getpwgid_r有问题,这些调用是非线程安全的。这个问题的主要表现特征是JVM崩溃。如果你的系统有这些问题,开启这个选项。默认是关闭的。 FALSE  
hadoop.kerberos.kinit.command 用于Kerberos证书的定时更新。 kinit  
hadoop.security.auth_to_local 将Kerberos主体映射到本地用户名。   DEFAULT
io.file.buffer.size 在序列文件中使用的缓冲区大小。这个缓冲区的大小应该是页大小(英特尔x86上为4096)的倍数,它决定读写操作中缓冲了多少数据。 4096 131072  (128k)
io.bytes.per.checksum 每个检验和的字节数,不能大于 io.file.buffer.size属性的值。 512  
io.skip.checksum.errors 如果为true,当读取序列文件时遇到校验和错误,则跳过条目,而不是抛出异常。 FALSE  
io.compression.codecs 一组可用于压缩/解压缩的表列表,使用逗号进行分隔。   org.apache.hadoop.io.compress.GzipCodec,org.apache.hadoop.io.compress.DefaultCodec,org.apache.hadoop.io.compress.SnappyCodec
io.compression.codec.bzip2.library 用于bzip2编解码的本地代码库,可以通过名称或全路径来指定该库。 system-native  
io.serializations 可用于获取序列化和反序列化的序列化类的列表。 org.apache.hadoop.io.serializer.WritableSerialization,
org.apache.hadoop.io.serializer.avro.AvroSpecificSerialization,
org.apache.hadoop.io.serializer.avro.AvroReflectSerialization
org.apache.hadoop.io.serializer.WritableSerialization
io.seqfile.local.dir 存储中间数据文件的本地目录。 ${hadoop.tmp.dir}/io/local  
io.map.index.skip 跳过索引的数量。 0  
io.map.index.interval MapFile由两部分组成:数据文件和索引文件。在每个设置的时间间隔后,会根据写入的数据文件内容,创建索引对应的索引文件内容。 128  
fs.defaultFS 默认文件系统的名称。通常指定namenode的URI地址,包括主机和端口。 file:///  
fs.default.name 不建议使用此属性,建议用fs.defaultFS属性代替。 file:///  
fs.trash.interval 检查点被删除的时间间隔,单位为分钟。此属性可以在服务器和客户端上配置。如果服务器上被禁用,则检查客户端配置,如果服务器上被启用,则忽略客户端配置。 0 360
fs.trash.checkpoint.interval 检查点之间的时间间隔,此属性的值应该小于fs.trash.interval属性的值。每次检查指针运行时,它都会创建一个新的检查点,并移除在几分钟前创建的检查点。 0  
fs.AbstractFileSystem.file.impl file的抽象文件类。 org.apache.hadoop.fs.local.LocalFs  
fs.AbstractFileSystem.har.impl har的抽象文件类。 org.apache.hadoop.fs.HarFs  
fs.AbstractFileSystem.hdfs.impl hdfs的抽象文件类。 org.apache.hadoop.fs.Hdfs  
fs.AbstractFileSystem.viewfs.impl viewfs的抽象文件类。 org.apache.hadoop.fs.viewfs.ViewFs  
fs.AbstractFileSystem.ftp.impl ftp的抽象文件类。 org.apache.hadoop.fs.ftp.FtpFs  
fs.ftp.host ftp的连接服务器。 0.0.0.0  
fs.ftp.host.port ftp的连接服务器端口。 21  
fs.df.interval 磁盘使用统计情况的刷新时间间隔。 60000  
fs.du.interval 文件空间使用统计情况的刷新时间间隔。 600000  
fs.s3.block.size S3使用的块大小。 67108864  
fs.s3.buffer.dir 该目录用于发送S3前的临时本地目录。 ${hadoop.tmp.dir}/s3  
fs.s3.maxRetries 在向应用程序发出故障之前,读取或写入文件到S3的最大重试次数。 4  
fs.s3.sleepTimeSeconds 在每次S3重试之间的睡眠时间间隔。 10  
fs.swift.impl OpenStack Swift Filesystem的实现类。 org.apache.hadoop.fs.swift.snative.SwiftNativeFileSystem  
fs.automatic.close 当为true时,FileSystem的实例会在程序退出时关闭,为false时,不自动退出。 TRUE  
fs.s3n.block.size S3本地文件系统使用的块大小。 67108864  
fs.s3n.multipart.uploads.enabled 为true时,允许多个上传到本地S3。当上传一个的大小超过fs.s3n.multipart.uploads.block.size属性的大小,则将其分割成块。 FALSE  
fs.s3n.multipart.uploads.block.size 多上传到本地S3时的块大小,默认大小为64MB。 67108864  
fs.s3n.multipart.copy.block.size 多拷贝时的块大小,默认大小为5GB。 5368709120  
fs.s3n.server-side-encryption-algorithm 为S3指定服务器端加密算法。默认情况下未设置,而当前唯一允许的值是AES256。    
fs.s3a.awsAccessKeyId S3A文件系统使用的AWS访问密钥ID。    
fs.s3a.awsSecretAccessKey S3A文件系统使用的AWS密钥。    
fs.s3a.connection.maximum S3A的最大连接数. 15  
fs.s3a.connection.ssl.enabled 是否启用SSL连接到S3A。 TRUE  
fs.s3a.endpoint AWS S3 连接终端。    
fs.s3a.proxy.host S3A连接代理的主机名。    
fs.s3a.proxy.port S3A连接代理的端口,如果未设置,默认为80或443。    
fs.s3a.proxy.username S3A连接代理的用户名。    
fs.s3a.proxy.password S3A连接代理的密码。    
fs.s3a.proxy.domain S3A连接代理的域。    
fs.s3a.proxy.workstation S3A连接代理的工作站。    
fs.s3a.attempts.maximum 当出现错误时的最大重试次数。 10  
fs.s3a.connection.establish.timeout Socket连接建立超时时间,单位为毫秒。 5000  
fs.s3a.connection.timeout Socket连接保持时间,单位为毫秒。 50000  
fs.s3a.paging.maximum 在读取目录列表时,从S3A同时请求的密钥最大数量。 5000  
fs.s3a.threads.max 文件请求的最大并发线程数。 256  
fs.s3a.threads.core Number of core threads in the threadpool. 15  
fs.s3a.threads.keepalivetime 线程空间多长时间后,即终止。单位为秒。 60  
fs.s3a.max.total.tasks 可以并发执行的操作数。 1000  
fs.s3a.multipart.size upload或copy操作,当文件超过多大时,即拆分。单位可以为K/M/G/T/P。 104857600 ambari: 67108864 (64M)
fs.s3a.multipart.threshold upload或copy或rename操作,当文件超过多大时,即拆分。单位可以为K/M/G/T/P,不写表示字节。 2147483647  
fs.s3a.acl.default 选项有Private、PublicRead,、PublicReadWrite、 AuthenticatedRead、LogDeliveryWrite、 BucketOwnerRead、 or BucketOwnerFullControl。    
fs.s3a.multipart.purge 当为true时,清除多文件上传失败时的文件。 FALSE  
fs.s3a.multipart.purge.age 清理多文件上传的最小秒数。 86400  
fs.s3a.buffer.dir 用于缓冲上传文件的目录。 ${hadoop.tmp.dir}/s3a  
fs.s3a.fast.upload 是否启用基于增量块的快速上传机制。 FALSE ambari : true
fs.s3a.fast.upload.buffer 选项可以为disk/array/bytebuffer。   ambari: disk
fs.s3a.fast.buffer.size Size of initial memory buffer in bytes allocated for an upload. No effect if fs.s3a.fast.upload is false. 1048576  
fs.s3a.impl S3A文件系统的实现类 。 org.apache.hadoop.fs.s3a.S3AFileSystem  
io.seqfile.compress.blocksize 块压缩序列文件中压缩的最小块大小。 1000000  
io.seqfile.lazydecompress Should values of block-compressed SequenceFiles be decompressed only when necessary. TRUE  
io.seqfile.sorter.recordlimit The limit on number of records to be kept in memory in a spill in SequenceFiles.Sorter 1000000  
io.mapfile.bloom.size BloomMapFile中的bloom过滤器大小。 1048576  
io.mapfile.bloom.error.rate BloomMapFile中的bloom过滤器的假负率,默认是0.5%。 0.005  
hadoop.util.hash.type Hash的默认实现,有两个选项murmur和jenkins。 murmur  
ipc.client.idlethreshold 定义连接的阈值数量,之后将检查连接是否空闲。 4000 8000
ipc.client.kill.max 定义一次断开的客户端的最大数量。 10  
ipc.client.connection.maxidletime 空间连接断开时间,单位为毫秒。 10000 30000
ipc.client.connect.max.retries 客户端重新建立服务器连接的重试次数。 10 50
ipc.client.connect.retry.interval 两次重新建立连接之间的时间间隔,单位为毫秒。 1000  
ipc.client.connect.timeout 客户端通过socket连接到服务器的超时时间。 20000  
ipc.client.connect.max.retries.on.timeouts 客户端通过socket重新连接到服务器的重试次数。 45  
ipc.client.ping 当为true时,如果读取响应超时,则向服务器发送ping命令。 TRUE  
ipc.ping.interval 等待服务器响应的超时时间,单位为毫秒。当ipc.client.ping属性为true时,客户端将在不接收字节的情况下发送Ping命令。 60000  
ipc.client.rpc-timeout.ms 等待服务器响应的超时时间,单位为毫秒。当ipc.client.ping属性为true,并且这个属性的时间比 ipc.ping.interval属性的值大时,这个属性的时间将被修改为 ipc.ping.interval的最大倍数。 0  
ipc.server.tcpnodelay false打开/关闭服务器上TCP套接字连接的Nagle算法。 设置为true会禁用算法,并可能会减少延迟,但需要使用更多/更小的数据包。 FALSE true
ipc.server.listen.queue.size 接受客户端连接的服务器的侦听队列的长度。 128  
ipc.maximum.data.length 服务器可以接受的最大IPC消息长度(字节)。 67108864  
ipc.server.log.slow.rpc 此设置有助于排除各种服务的性能问题。如果这个值设置为true,将被记录请求。 FALSE  
hadoop.security.impersonation.provider.class ImpersonationProvider接口的实现类,用于授权一个用户是否可以模拟特定用户。如果未指定,则使用DefaultImpersonationProvider实现。    
hadoop.rpc.socket.factory.class.default 默认使用SocketFactory,参数格式为package.FactoryClassName。 org.apache.hadoop.net.StandardSocketFactory  
hadoop.rpc.socket.factory.class.ClientProtocol 连接到DFS的SocketFactory,如果为空,则使用 hadoop.rpc.socket.class.default属性的值。    
hadoop.socks.server SocksSocketFactory使用的SOCKS服务器的地址(主机:端口)。    
net.topology.node.switch.mapping.impl DNSToSwitchMapping的默认实现,其调用net.topology.script.file.name属性的值来解析节点名称。 org.apache.hadoop.net.ScriptBasedMapping  
net.topology.impl NetworkTopology的默认实现,它是典型的三层拓扑结构。 org.apache.hadoop.net.NetworkTopology  
net.topology.script.file.name 该脚本被用于解析DNS的名称,例如,脚本将接收host.foo.bar,然后返回 /rack1。    
net.topology.script.number.args net.topology.script.file.name属性中参数的最大数量。 100  
net.topology.table.file.name 当net.topology.node.switch.mapping.impl属性的值为 org.apache.hadoop.net.TableMapping时适用,表示一个拓扑文件。该文件格式是两列文本,列由空白分隔。第一列是DNS或IP地址,第二列指定地址映射的机架。如果没有找到对应于集群中的主机的条目,则假设默认机架。    
file.stream-buffer-size 流文件的缓冲区大小,这个大小应该是页大小的位数(X86为4096)。 4096  
file.bytes-per-checksum 每个校验和的字节数。 512  
file.client-write-packet-size 客户机写入的数据包大小。 65536  
file.blocksize 块大小。 67108864  
file.replication 复制因子。 1  
s3.stream-buffer-size 流文件的缓冲区大小,这个大小应该是页大小的位数(X86为4096)。 4096  
s3.bytes-per-checksum 每个校验和的字节数,该数值不能大于 s3.stream-buffer-size属性的值。 512  
s3.client-write-packet-size 客户机写入的数据包大小。 65536  
s3.blocksize 块大小。 67108864  
s3.replication 复制因子。 3  
s3native.stream-buffer-size 流文件的缓冲区大小,这个大小应该是页大小的位数(X86为4096)。 4096  
s3native.bytes-per-checksum 每个校验和的字节数,该数值不能大于 s3native.stream-buffer-size属性的值。 512  
s3native.client-write-packet-size 客户机写入的数据包大小。 65536  
s3native.blocksize 块大小。 67108864  
s3native.replication 复制因子。 3  
ftp.stream-buffer-size 流文件的缓冲区大小,这个大小应该是页大小的位数(X86为4096)。 4096  
ftp.bytes-per-checksum 每个校验和的字节数,该数值不能大于ftp.stream-buffer-size属性的值。 512  
ftp.client-write-packet-size 客户机写入的数据包大小。 65536  
ftp.blocksize 块大小。 67108864  
ftp.replication 复制因子。 3  
tfile.io.chunk.size chunk大小,单位为字节,默认为1MB。 1048576  
tfile.fs.output.buffer.size FSDataOutputStream中使用的缓冲区大小。 262144  
tfile.fs.input.buffer.size FSDataInputStream使用的缓冲区大小。 262144  
hadoop.http.authentication.type 定义了Oozie HTTP终端的认证方式,支持simple和kerberos。 simple  
hadoop.http.authentication.token.validity 验证令牌的有效时长,单位为秒。 36000  
hadoop.http.authentication.signature.secret.file 签署认证令牌的签名秘密。同样的秘密应该用于JT/NN/DN/TT配置。 ${user.home}/hadoop-http-auth-signature-secret  
hadoop.http.authentication.cookie.domain 用于存储身份验证令牌的HTTP Cookie域。为了授权在所有Hadoop节点Web控制台上正确工作,必须正确设置域。重要事项:当使用IP地址时,浏览器忽略具有域设置的Cookie。为了使该设置正常工作,集群中的所有节点必须配置为具有主机名的URL。    
hadoop.http.authentication.simple.anonymous.allowed 当使用'simple'认证时,是否允许匿名请求。 TRUE  
hadoop.http.authentication.kerberos.principal HTTP终端中使用的Kerberos principal,该principal必须以 'HTTP/'开头。 HTTP/_HOST@LOCALHOST  
hadoop.http.authentication.kerberos.keytab keytab文件的位置。 ${user.home}/hadoop.keytab  
hadoop.http.cross-origin.enabled 是否启用cross-origin (CORS)过滤器。 FALSE  
hadoop.http.cross-origin.allowed-origins 需要cross-origin (CORS)支持的web服务的来源列表,用逗号分隔。 *  
hadoop.http.cross-origin.allowed-methods 需要cross-origin (CORS)支持的方法列表,用逗号分隔。 GET,POST,HEAD  
hadoop.http.cross-origin.allowed-headers 需要cross-origin (CORS)支持的web服务的的头部,用逗号分隔。 X-Requested-With,Content-Type,Accept,Origin  
hadoop.http.cross-origin.max-age 需要cross-origin (CORS)支持的web服务缓存支持秒数。 1800  
dfs.ha.fencing.methods fencing方法列表。    
dfs.ha.fencing.ssh.connect-timeout SSH连接超时时长,单位为毫秒。 30000  
dfs.ha.fencing.ssh.private-key-files SSH私钥文件。    
hadoop.http.staticuser.user 呈现内容时在静态Web筛选器上进行过滤的用户名,比如在HDFS web UI中的过滤。 dr.who  
ha.zookeeper.quorum ZooKeeper服务器地址列表,用逗号分隔,可以被ZKFailoverController用于自动故障转移。    
ha.zookeeper.session-timeout.ms ZKFC连接到ZooKeeper的超时时长,将该值设置为较低的值意味着服务器崩溃将被更快地检测到,但在瞬态错误或网络错误的情况下,就会使故障转移过于激进。 5000  
ha.zookeeper.parent-znode ZKFC下的存储信息的znode。 /hadoop-ha  
ha.zookeeper.acl znode使用的ZooKeeper ACL列表,用逗号分隔。格式同ZooKeeper CLI。如果ACL本身包含秘密,那么您可以指定一个文件的路径,用“@”符号前缀,并且该配置的值将从内部加载。 world:anyone:rwcda  
ha.zookeeper.auth 连接到ZooKeeper时,将该列表加入到认证列表,此列表用逗号分隔。    
hadoop.ssl.keystores.factory.class 用于检索证书的密钥存储工厂。 org.apache.hadoop.security.ssl.FileBasedKeyStoresFactory  
hadoop.ssl.require.client.cert 是否需要客户端证书。 FALSE  
hadoop.ssl.hostname.verifier 提供HttpsURL连接主机名验证器。有以下选项:DEFAULT, STRICT, STRICT_IE6, DEFAULT_AND_LOCALHOST 和 ALLOW_ALL。 DEFAULT  
hadoop.ssl.server.conf 提取SSL服务器密钥存储信息的资源文件,这个文件通过在classpath中查询。默认为hadoop下的conf/ 目录。 ssl-server.xml  
hadoop.ssl.client.conf 提取SSL客户端密钥存储信息的资源文件,这个文件通过在classpath中查询。默认为hadoop下的conf/ 目录。 ssl-client.xml  
hadoop.ssl.enabled 不建议使用,建议用dfs.http.policy and yarn.http.policy代替。 FALSE  
hadoop.ssl.enabled.protocols 支持的SSL协议列表。The supported SSL protocols. TLSv1  
hadoop.jetty.logs.serve.aliases 对于jetty的服务是否启用别名。 TRUE  
fs.permissions.umask-mode 创建文件或目录时的umask。例如"022" (符号表示就是 u=rwx,g=r-x,o=r-x ),或者 "u=rwx,g=rwx,o=" (用八进制表示就是007)。 22  
ha.health-monitor.connect-retry-interval.ms 重试连接到服务的频率。 1000  
ha.health-monitor.check-interval.ms 多久检查一次服务 1000  
ha.health-monitor.sleep-after-disconnect.ms 在异常RPC错误之后,休眠多长时间。 1000  
ha.health-monitor.rpc-timeout.ms 实际 monitorHealth() 调用超时时间。 45000  
ha.failover-controller.new-active.rpc-timeout.ms FC等待新任务的超时时间,在设置时间内有新任务,即重新进入激活状态。 60000  
ha.failover-controller.graceful-fence.rpc-timeout.ms FC等待旧任务的超时时间,然后进入待机。 5000  
ha.failover-controller.graceful-fence.connection.retries graceful fencing中FC连接的重试次数。 1  
ha.failover-controller.cli-check.rpc-timeout.ms CLI (manual) FC等待monitorHealth, getServiceState的超时时间。 20000  
ipc.client.fallback-to-simple-auth-allowed 当客户端被配置为尝试安全连接,但尝试连接到不安全的服务器时,该服务器可以指示客户端切换到SASL SIMPLE(非安全)认证。此设置控制客户端是否将接受来自服务器的此指令。当FALSE(默认)时,客户端将不允许退回到简单的身份验证,并将中止连接。  FALSE  
fs.client.resolve.remote.symlinks 在访问远程Hadoop文件系统时,是否解析符号连接。当为false时,如果遇到符号连接,则触发异常。此设置对于本地文件系统不适用,对于本地文件系统,会自动解析符号连接。 TRUE  
nfs.exports.allowed.hosts 默认情况下,所有客户端都可以导出。该属性的值包含机构号和访问权限,由空格分隔。机器名称的格式可以是一个单一的主机,一个java正则表达式,或一个IPv4地址。访问特权使用RW或RO来指定机器的读/写权限。如果未提供访问特权,则默认为只读。条目由“;”分隔。例如:“192.1680.0/22RW;主机。*.Stase\.com;Hoo1.Test.Org Ro;”。只有更新了NFS网关之后,才能重新启动该属性。 * rw  
hadoop.user.group.static.mapping.overrides 用户到组的静态映射。如果指定的用户在系统中可用,则这将覆盖组。换句话说,这些用户不会出现组查找,而是使用在这个配置中映射的组。映射应采用这种格式。USER1=GROMP1,GROP2;USER2=;USER3= GROP2;默认“DR.WH=”将考虑“D.WHO”作为没有组的用户。 dr.who=;  
rpc.metrics.quantile.enable 当为true,并且rpc.metrics.percentiles.intervals属性为一组逗号分隔的度量时,将在百分位50/75/90/95/99时,加入rpc metrics。 FALSE  
rpc.metrics.percentiles.intervals 接上一属性,和rpc.metrics.quantile.enable配合使用。    
hadoop.security.crypto.codec.classes.EXAMPLECIPHERSUITE 对于给定的加密编解码器的前缀,包含一个逗号分隔的给定密码编解码器(例如EXAMPLECIPHERSUITE)的实现类。如果可用的话,第一个实现将被使用,其他的则是回退。    
hadoop.security.crypto.codec.classes.aes.ctr.nopadding AES/CTR/NopAudio的加密编解码器实现类,用逗号分隔。如果可用的话,第一个实现将被使用,其他的则是回退。 org.apache.hadoop.crypto.OpensslAesCtrCryptoCodec,org.apache.hadoop.crypto.JceAesCtrCryptoCodec  
hadoop.security.crypto.cipher.suite 用于加密编解码器的密码套件。 AES/CTR/NoPadding  
hadoop.security.crypto.jce.provider CryptoCodec中使用的JCE提供程序名称。    
hadoop.security.crypto.jceks.key.serialfilter Enhanced KeyStore Mechanisms in JDK 8u171 introduced jceks.key.serialFilter. If jceks.key.serialFilter is configured, the JCEKS KeyStore uses it during the deserialization of the encrypted Key object stored inside a SecretKeyEntry. If jceks.key.serialFilter is not configured it will cause an error when recovering keystore file in KeyProviderFactory when recovering key from keystore file using JDK 8u171 or newer. The filter pattern uses the same format as jdk.serialFilter. The value of this property will be used as the following: 1. The value of jceks.key.serialFilter system property takes precedence over the value of this property. 2. In the absence of jceks.key.serialFilter system property the value of this property will be set as the value of jceks.key.serialFilter. 3. If the value of this property and jceks.key.serialFilter system property has not been set, org.apache.hadoop.crypto.key.KeyProvider sets a default value for jceks.key.serialFilter.    
hadoop.security.crypto.buffer.size CryptoInputStream和CryptoOutputStream使用的缓冲区大小。 8192  
hadoop.security.java.secure.random.algorithm java安全随机算法。 SHA1PRNG  
hadoop.security.secure.random.impl 安全随机的实现。    
hadoop.security.random.device.file.path OS安全随机设备文件路径。 /dev/urandom  
fs.har.impl.disable.cache 当为true时,不缓存“HAR”文件系统实例。 TRUE  
hadoop.security.kms.client.authentication.retry-count 在认证失败时重试连接到KMS的次数。 1  
hadoop.security.kms.client.encrypted.key.cache.size EncryptedKeyVersion缓存队列的大小。 500  
hadoop.security.kms.client.encrypted.key.cache.low-watermark 如果EncryptedKeyVersion缓存队列大小低于watermark,队列将被重新调度填充。 0.3f  
hadoop.security.kms.client.encrypted.key.cache.num.refill.threads 重新填充EncryptedKeyVersion缓存队列的线程数。 2  
hadoop.security.kms.client.encrypted.key.cache.expiry 密钥过期时间,默认为12小时。 43200000  
hadoop.htrace.spanreceiver.classes A comma separated list of the fully-qualified class name of classes implementing SpanReceiver. The tracing system works by collecting information in structs called 'Spans'. It is up to you to choose how you want to receive this information by implementing the SpanReceiver interface.    
ipc.server.max.connections 服务器接受的最大并发连接数。 0  
hadoop.registry.rm.enabled 是否在YARN Resource Manager中启用注册表。 FALSE  
hadoop.registry.zk.root 注册表的根zookeeper节点。 /registry  
hadoop.registry.zk.session.timeout.ms Zookeeper会话超时时间,单位为毫秒。 60000  
hadoop.registry.zk.connection.timeout.ms Zookeeper连接超时时间,单位为毫秒。 15000  
hadoop.registry.zk.retry.times Zookeeper连接重试最大次数。 5  
hadoop.registry.zk.retry.interval.ms Zookeeper连接重试间隔。 1000  
hadoop.registry.zk.retry.ceiling.ms Zookeeper重试的时长限制,单位为毫秒。 60000  
hadoop.registry.zk.quorum 绑定注册表的zookeeper的主机名列表。 localhost:2181  
hadoop.registry.secure 注册表是否是安全的。 FALSE  
hadoop.registry.system.acls 可以安全访问注册表的 zookeeper ACL列表。 sasl:yarn@, sasl:mapred@, sasl:hdfs@  
hadoop.registry.kerberos.realm Kerberos域。    
hadoop.registry.jaas.context 定义 JAAS上下文的密钥,用于安全模式中。 Client  
hadoop.security.sensitive-config-keys 一个逗号分隔的或多行的正则表达式列表。 password$,fs.s3.*[Ss]ecret.?[Kk]ey,fs.azure.account.key.*,dfs.webhdfs.oauth2.[a-z]+.token,hadoop.security.sensitive-config-keys  

你可能感兴趣的:(Hadoop官方API,工具,API,速查)