其他分享
首页 > 其他分享> > Hadoop遇到的问题

Hadoop遇到的问题

作者:互联网

1、

问题描述:hadoop集群启动时,datanode进程启动不了

解决方法:

dfs.namenode.name.dir file:///root/work/hadoop-2.7.1/tmp/namenode dfs.datanode.data.dir file:///root/work/hadoop-2.7.1/tmp/datanode

2.启动时报错 java.net.UnknownHostException

结果:不能正常启动

原因:通过localhost.localdomain根本无法映射到一个IP地址

解决办法:查看/etc/hosts,将主机名添加到hosts文件

3.Hive执行时报错 java.lang.OutOfMemoryError: GC overhead limit exceeded

解决办法:,关闭该功能,可以添加JVM的启动参数来限制使用内存:在mapred-site.xml 里新增项:mapred.child.java.opts 内容:-XX:-UseGCOverheadLimit

标签:java,遇到,mapred,启动,hadoop,Hadoop,问题,datanode,file
来源: https://blog.csdn.net/WQcjyc/article/details/118094419