Hadoop遇到的问题
作者:互联网
1、
问题描述:hadoop集群启动时,datanode进程启动不了
解决方法:
dfs.namenode.name.dir file:///root/work/hadoop-2.7.1/tmp/namenode dfs.datanode.data.dir file:///root/work/hadoop-2.7.1/tmp/datanode2.启动时报错 java.net.UnknownHostException
结果:不能正常启动
原因:通过localhost.localdomain根本无法映射到一个IP地址
解决办法:查看/etc/hosts,将主机名添加到hosts文件
3.Hive执行时报错 java.lang.OutOfMemoryError: GC overhead limit exceeded
解决办法:,关闭该功能,可以添加JVM的启动参数来限制使用内存:在mapred-site.xml 里新增项:mapred.child.java.opts 内容:-XX:-UseGCOverheadLimit
标签:java,遇到,mapred,启动,hadoop,Hadoop,问题,datanode,file 来源: https://blog.csdn.net/WQcjyc/article/details/118094419