<!--Thu Aug 15 20:47:13 2013-->
<configuration>
<property>
<name>fs.checkpoint.size</name>
<value>0.5</value>
<!-- 表示一次记录多大的size,默认64M -->
</property>
<property>
<name>dfs.namenode.checkpoint.period</name>
<value>21600</value>
<!-- checkpoint 检查周期间隔,表示多长时间记录一次hdfs的镜像。默认是1小时。 -->
</property>
<property>
<name>dfs.namenode.checkpoint.dir</name>
<value>file:///hadoop/hdfs/namesecondary</value>
<!-- 定义hadoop的name备份的路径,官方文档说是读取这个,写入dfs.name.dir -->
</property>
<property>
<name>hadoop.security.authentication</name>
<value>simple</value>
<!-- hadoop本身的权限验证,非http访问,simple或者kerberos -->
</property>
<property>
<name>fs.checkpoint.edits.dir</name>
<value>file:///hadoop/hdfs/namesecondary</value>
<!-- 本地文件系统上的DFS secondary name节点存储临时edits文件。默认值是dfs.namenode.checkpoint.dir一样 -->
</property>
<property>
<name>ipc.client.connect.max.retries</name>
<value>50</value>
<!-- 连接重试最大次数 -->
</property>
<property>
<name>ipc.client.connection.maxidletime</name>
<value>30000</value>
<!-- 客户端连接的最大空闲时间是 s-->
</property>
<property>
<name>hadoop.security.auth_to_local</name>
<value>
RULE:[2:$1@$0]([rn]m@.*)s/.*/yarn/
RULE:[2:$1@$0](jhs@.*)s/.*/mapred/
RULE:[2:$1@$0]([nd]n@.*)s/.*/hdfs/
RULE:[2:$1@$0](hm@.*)s/.*/hbase/
RULE:[2:$1@$0](rs@.*)s/.*/hbase/
DEFAULT
</value>
<!-- kerberos主体映射到本地用户的名字 -->
</property>
<property>
<name>ipc.client.idlethreshold</name>
<value>8000</value>
<!-- 连接数据最小阀值为 -->
</property>
<property>
<name>io.serializations</name>
<value>org.apache.hadoop.io.serializer.WritableSerialization</value>
<!-- 序列化的编解码器 -->
</property>
<property>
<name>fs.trash.interval</name>
<value>360</value>
<!-- HDFS垃圾箱设置,可以恢复误删除,分钟数,0为禁用,添加该项无需重启hadoop -->
</property>
<property>
<name>hadoop.security.authorization</name>
<value>false</value>
<!-- Hadoop服务层级验证安全验证,需配合hadoop-policy.xml使用,配置好以后用dfsadmin,mradmin -refreshServiceAcl刷新生效 -->
</property>
<property>
<name>fs.defaultFS</name>
<value>hdfs://hadoop01:8020</value>
<!-- 指向namenode:host:port -->
</property>
<property>
<name>mapreduce.jobtracker.webinterface.trusted</name>
<value>false</value>
<!-- 设为true,则JT和NN的tracker网页会出现杀任务删文件等操作连接,默认是false -->
</property>
<property>
<name>io.file.buffer.size</name>
<value>131072</value>
<!-- 用作序列化文件处理时读写buffer的大小 -->
</property>
<property>
<name>io.compression.codecs</name>
<value>org.apache.hadoop.io.compress.GzipCodec,org.apache.hadoop.io.compress.DefaultCodec</value>
<!-- Hadoop所使用的编解码器,gzip和bzip2为自带,lzo需安装hadoopgpl或者kevinweil,逗号分隔,snappy也需要单独安装 -->
</property>
<property>
<name>io.compression.codecs</name>
<value>org.apache.hadoop.io.compress.GzipCodec,org.apache.hadoop.io.compress.DefaultCodec,org.apache.hadoop.io.compress.SnappyCodec</value>
<!-- Hadoop所使用的编解码器,gzip和bzip2为自带,lzo需安装hadoopgpl或者kevinweil,逗号分隔,snappy也需要单独安装 -->
</property>
<property>
<name>hadoop.proxyuser.hive.groups</name>
<value>users</value>
</property>
<property>
<name>hadoop.proxyuser.hcat.groups</name>
<value>users</value>
</property>
<property>
<name>hadoop.proxyuser.oozie.groups</name>
<value>users</value>
<!-- -->
</property>
</configuration>