hadoop报错 is longer than maximum configured RPC length 67108864

hadoop 2.7.3 集群,出现录入数据延迟高的问题,namenode日志中有报错信息:
is longer than maximum configured RPC length 67108864

报错原因:
ipc实际通讯的数据包大于默认最大的数据包配置64MB

解决办法:
提高这个参数到128MB

1、在下面3个配置中同时加上 
vi /data/usr/hadoop-2.7.3/share/doc/hadoop/hadoop-project-dist/hadoop-common/core-default.xml
vi /data/usr/hadoop-2.7.3/etc/hadoop/core-site.xml
vi /data/usr/hadoop-2.7.3/etc/hadoop/hdfs-site.xml

ipc.maximum.data.length
134217728

2、替换 protobuf-java-2.5.0-sources.jar ,解压 jar包,其中修改 CodedInputStream.java 的 DEFAULT_SIZE_LIMIT 参数

DEFAULT_SIZE_LIMIT = 64 << 20
>>
DEFAULT_SIZE_LIMIT = 128 << 20

拷贝新的包替换到下面目录
/data/usr/hadoop-2.7.3/share/hadoop/common/lib/
/data/usr/hadoop-2.7.3/share/hadoop/hdfs/lib/
/data/usr/hadoop-2.7.3/share/hadoop/httpfs/tomcat/webapps/webhdfs/WEB-INF/lib/
/data/usr/hadoop-2.7.3/share/hadoop/kms/tomcat/webapps/kms/WEB-INF/lib/
/data/usr/hadoop-2.7.3/share/hadoop/yarn/lib/
/data/usr/hadoop-2.7.3/share/hadoop/mapreduce/lib/
/data/usr/hadoop-2.7.3/share/hadoop/tools/lib/

3、重启整个集群

你可能感兴趣的:(云计算和大数据,hadoop)