其他分享
首页 > 其他分享> > win10下安装Hadoop3.2.2

win10下安装Hadoop3.2.2

作者:互联网

因为Hadoop需要依赖java环境,因此需要先安装JDK1.8(大于1.8版本的jdk需要收费,因此很多厂家开发都是依赖与jdk1.8,hadoop当然也是啦)

1.安装JDK1.8

下载JDK1.8安装包,直接清华源:https://mirrors.tuna.tsinghua.edu.cn/AdoptOpenJDK/,可以到其他的方去下载。我给忘记了是不是从这个源下载的,这个比较容易我是找的***x86_64.exe安装的。
在这里插入图片描述
注意:安装的时候需要就最好不要安装在Programe Files下面了,因为有空格,所以最好自己创建一个没有空格的文件夹,比如ProgrameDate

安装好了之后配置环境,参考:https://blog.csdn.net/weixin_44084189/article/details/98966787/

2.安装Hadoop

我下载的是hadoop3.2.2版本,在清华源下载的:https://mirror.tuna.tsinghua.edu.cn/apache/hadoop/core/
在这里插入图片描述

2.1 解压Hadoop镜像

文件到磁盘目录下,注意:可以解压在非C盘下,存储目录不要包含中文和空格

2.2 配置HADOOP_HOME环境变量

,并在系统环境变量Path中添加Hadoop环境变量
在这里插入图片描述在这里插入图片描述
打开cmd窗口,输入hadoop version命令验证
在这里插入图片描述
备注: 若出现 Error: JAVA_HOME is incorrectly set. Please update F:\hadoop\conf\hadoop-env.cmd的报错,则是因为JAVA_HOME环境变量配置的路径含有空格的原因

2.2 Hadoop伪分布式部署配置

就一台win10所以就叫伪分布式
a. 下载windows专用二进制文件和工具类依赖库: hadoop在windows上运行需要winutils支持和hadoop.dll等文件
https://gitcode.net/mirrors/cdarlint/winutils/-/tree/master/
在github仓库中找到对应版本的二进制库hadoop.dll和winutils.exe文件,然后把文件拷贝到hadoop解压的bin目录中去
注意: hadoop.dll等文件不要与hadoop冲突,若出现依赖性错误可以将hadoop.dll放到C:\Windows\System32下一份

b. 修改etc目录下的core-site.xml文件
各个文件的意义参考:https://blog.csdn.net/qq_31151125/article/details/101785843
1)core-site.xml
主要配置

  1. 文件系统采用hdfs实现
  2. 临时数据存放的位置
  3. 缓冲区大小,实际工作中根据服务器性能动态调整
  4. 开启hdfs的垃圾桶机制,删除掉的数据可以从垃圾桶中回收,单位分钟
<configuration>
   <property>
       <name>fs.defaultFS</name>
       <value>hdfs://localhost:9000</value>
   </property>
<!-- 临时数据存放的位置 -->
	<property>
		<name>hadoop.tmp.dir</name>
		<value>/D:/hadoop-3.2.2/data/tmp</value>
	</property>
		<!--  缓冲区大小,实际工作中根据服务器性能动态调整 -->
	<property>
		<name>io.file.buffer.size</name>
		<value>4096</value>
	</property>
		<!--  开启hdfs的垃圾桶机制,删除掉的数据可以从垃圾桶中回收,单位分钟  10080 相当与7天  60*24*7-->
	<property>
		<name>fs.trash.interval</name>
		<value>10080</value>
	</property>
</configuration>

2)hdfs-site.xml
主要配置

  1. NameNode与2nn的访问地址
  2. NameNode与DataNode数据的存放路径
  3. FSImage,Edits,Checkpoint的存放位置
  4. 设置文件的副本数,一份文件保存多少份
  5. 设置文件存储的block块大小 128M

新建两个文件夹,在hadoop的安装目录下
**\data\dfs\namenode
**\data\dfs\datanode

<configuration>
   <property>
        <name>dfs.namenode.name.dir</name>
        <value>D:/hadoop-3.2.2/data/dfs/namenode</value>
   </property>
   <property>
        <name>dfs.datanode.data.dir</name>
        <value>D:/hadoop-3.2.2/data/dfs/datanode</value>
   </property>
</configuration>

3)mapred-site.xml

<configuration>
<!-- 指定我们mapreduce运行在yarn集群上面 -->
	<property>
		<name>mapreduce.framework.name</name>
		<value>yarn</value>
	</property>
	<!-- 开启mapreduce的小任务模式,用于调优 -->
	<property>
		<name>mapreduce.job.ubertask.enable</name>
		<value>true</value>
	   </property>
</configuration>

4)yarn-sute.xml

<?xml version="1.0"?>
<configuration>
	<!-- NodeManager的通信方式 -->
	<property>
		<name>yarn.nodemanager.aux-services</name>
		<value>mapreduce_shuffle</value>
	</property>
	<!-- 日志的聚合功能,方便我们查看任务执行完成之后的日志记录 -->
	<property>
		<name>yarn.log-aggregation-enable</name>
		<value>true</value>
	</property>
</configuration>

2.3cmd下进行测试

hdfs namenode -format

接下来进入sbin文件,执行如下代码:

start-all.cmd

会弹出来四个窗口如下 :
在这里插入图片描述
在这里插入图片描述

3 验证配置成功

访问 http://localhost:8088 看看会不会显示出来如下:
在这里插入图片描述
访问 http://localhost:9870 看看会不会显示出来如下:
在这里插入图片描述

参考链接:
https://www.jianshu.com/p/aa8cfaa26790
https://www.freesion.com/article/47651012308/

标签:文件,data,hadoop,dfs,Hadoop3.2,https,win10,安装
来源: https://blog.csdn.net/weixin_42294118/article/details/122001438