博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
Hadoop使用常见问题以及解决方法1
阅读量:4974 次
发布时间:2019-06-12

本文共 703 字,大约阅读时间需要 2 分钟。

1:Shuffle Error: Exceeded MAX_FAILED_UNIQUE_FETCHES; bailing-out

Answer:
程序里面需要打开多个文件,进行分析,系统一般默认数量是1024,(用ulimit -a可以看到)对于正常使用是够了,但是对于程序来讲,就太少了。
修改办法:
修改2个文件。
        /etc/security/limits.conf
vi /etc/security/limits.conf
加上:
* soft nofile 102400
* hard nofile 409600
    $cd /etc/pam.d/
    $sudo vi login
        添加        session    required     /lib/security/pam_limits.so
针对第一个问题我纠正下答案:
这是reduce预处理阶段shuffle时获取已完成的map的输出失败次数超过上限造成的,上限默认为5。引起此问题的方式可能会有很多种,比如网络连接不正常,连接超时,带宽较差以及端口阻塞等。。。通常框架内网络情况较好是不会出现此错误的。
2:Too many fetch-failures
Answer:
出现这个问题主要是结点间的连通不够全面。
1) 检查 、/etc/hosts
   要求本机ip 对应 服务器名
   要求要包含所有的服务器ip + 服务器名
2) 检查 .ssh/authorized_keys
   要求包含所有服务器(包括其自身)的public key

转载于:https://www.cnblogs.com/mixer/archive/2012/04/12/2444492.html

你可能感兴趣的文章
内置函数
查看>>
mysql 5.6二进制安装
查看>>
c#调用c++ dll(二)
查看>>
XXS level10
查看>>
20175301 实验五《网络编程与安全》实验报告
查看>>
window下的run命令行解释 - 转
查看>>
android 数据存储方式
查看>>
第一次作业
查看>>
SQL中的escape的用法
查看>>
C#之结束指定进程!...
查看>>
CV特征提取:
查看>>
虚拟机极简配置manjaro gnome
查看>>
Linux配置成网关
查看>>
【Yii】数据库读写方法:AR模型和DAO方法
查看>>
具有普遍性的一些关系
查看>>
理解和使用SQL Server中的并行
查看>>
第二冲刺阶段计划
查看>>
Redis 安装与配置
查看>>
spark[源码]-TaskSchedulerlmpl类源码
查看>>
crm
查看>>