系统相关
首页 > 系统相关> > Hadoop3.1.4在Linux平台上编译

Hadoop3.1.4在Linux平台上编译

作者:互联网

HDFS核心源码分析

目录

  1. Hadoop源码编译
  2. HDFS源码结构分析
  3. HDFS核心源码解析

学习目标

Hadoop源码编译

为什么要编译源码 —> Native Library本地库

Hadoop本地库

  1. 压缩编译解码器(bzip,lz4,snappy,zlib)
  2. HDFS的本地IO程序,用于HDFS短路本地读取和集中式缓存管理
  3. CRC32校验和实现

源码修改

  1. Hadoop不能满足企业需求,对源码进行修改,改成符合自己性能要求
  2. 此时也是需要重新编译编译源码然后在部署安装

如何去编译源码

Linux平台编译Hadoop

mkdir -p /export/server
cd /export/server
yum install gcc gcc-c++ -y
yum install autoconf automake libtool curl -y
yum install lzo-devel zlib-devel openssl openssl-devel ncurses-devel -y
yum install snappy snappy-devel bzip2 bzip2-devel lzo lzo-devel lzop libXtst -y

#yum卸载已安装cmake 版本低
yum erase cmake

#解压
tar zxvf cmake-3.13.5.tar.gz

#编译安装
cd /export/server/cmake-3.13.5

./configure

make && make install

#验证
[root@node4 ~]# cmake -version      
cmake version 3.13.5

#如果没有正确显示版本 请断开SSH连接 重写登录

在这里插入图片描述
在这里插入图片描述

#上传解压
tar zxvf snappy-1.1.3.tar.gz 

#编译安装
cd /export/server/snappy-1.1.3
./configure
make && make install

在这里插入图片描述
在这里插入图片描述

# 配置jdk的环境变量
export JAVA_HOME=/opt/module/jdk1.8.0_144
export PATH=$PATH:$JAVA_HOME/bin
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

在这里插入图片描述

#解压安装包
tar zxvf apache-maven-3.5.4-bin.tar.gz

#配置环境变量
vim /etc/profile

export MAVEN_HOME=/export/server/apache-maven-3.5.4
export MAVEN_OPTS="-Xms4096m -Xmx4096m"
export PATH=:$MAVEN_HOME/bin:$PATH

source /etc/profile

#验证是否安装成功
[root@node4 ~]# mvn -v
Apache Maven 3.5.4

#添加maven 阿里云仓库地址 加快国内编译速度
vim /export/server/apache-maven-3.5.4/conf/settings.xml

<mirrors>
     <mirror>
           <id>alimaven</id>
           <name>aliyun maven</name>
           <url>http://maven.aliyun.com/nexus/content/groups/public/</url>
           <mirrorOf>central</mirrorOf>
      </mirror>
</mirrors>
#解压
tar zxvf protobuf-2.5.0.tar.gz

#编译安装
cd /export/server/protobuf-2.5.0
./configure
make && make install

#验证是否安装成功
[root@node4 protobuf-2.5.0]# protoc --version
libprotoc 2.5.0

编译Hadoop

编译的时候可能是有点慢的,需要根据自己网络的情况来进行判断,如果网络不畅通的话,可能会导致我们编译失败,差不多可能要编译30分钟左右,它会下载很多很多的jar

#上传解压源码包
tar zxvf hadoop-3.1.4-src.tar.gz

#编译
cd /export/server/hadoop-3.1.4-src

mvn clean package -Pdist,native -DskipTests -Dtar -Dbundle.snappy -Dsnappy.lib=/usr/local/lib

#参数说明:

Pdist,native :把重新编译生成的hadoop动态库;
DskipTests :跳过测试
Dtar :最后把文件以tar打包
Dbundle.snappy :添加snappy压缩支持【默认官网下载的是不支持的】
Dsnappy.lib=/usr/local/lib :指snappy在编译机器上安装后的库路径

在这里插入图片描述

标签:tar,Hadoop,Hadoop3.1,编译,源码,export,Linux,snappy
来源: https://blog.csdn.net/weixin_45098163/article/details/113547281