首页 > TAG信息列表 > cdh5.14

Sqoop安装教程

sqoop版本:sqoop-1.4.6-cdh5.14.2 资源路径:百度网盘 请输入提取码 提取码:zzzz 1、将软件安装包拷贝到 /opt 目录下 2、创建sqoop安装目录 命令: mkdir /opt/soft/sqoop146 3、将安装包解压到安装目录 命令: tar -zxvf sqoop-1.4.6-cdh5.14.2.tar.gz -C /opt/soft/sqoop146 --scr

Sqoop详细安装与环境配置

1.Sqoop作用 Sqoop是一个用于在Hadoop和关系数据库服务器之间传输数据的工具。它用于从关系数据库(如MySQL,Oracle)导入数据到Hadoop HDFS,并从Hadoop文件系统导出到关系数据库。 2.安装教程 下载安装包 下载地址:http://archive.cloudera.com/cdh5/cdh/5/sqoop-1.4.6-cdh5.14.2.tar

HBase的集群环境搭建

        本篇博客,小菌为大家带来的是关于HBase的集群环境搭建。         在开始之前,有一个注意事项:HBase强依赖zookeeper和hadoop,安装HBase之前一定要保证zookeeper和hadoop启动成功,且服务正常运行。          第一步: 下载对应的HBase 的安装包  

Hadoop集群配置(二)免密登录和集群配置

写在开头: 难难难道德玄,不对知音不可谈,对了知音谈几句,不对知音枉费舌尖~~ 咱们书接上回,上一篇写完了基础环境的配置,这篇就来说硕同样重要的免密登录,当然还有Hadoop集群的配置。 2.1 三台linux服务器环境准备 1. 三台机器IP设置 三台机器修改ip地址: # 对网库进行设置 vi /etc/s

zookeeper-3.4.5-cdh5.14.2安装部署(三节点)

文章目录 1. 三台机器安装zookeeper集群1.1 下载zookeeeper的压缩包,下载网址如下1.2 解压1.3 修改配置文件1.4 添加myid配置1.5 安装包分发并修改myid的值1.6 配置环境变量1.7 三台机器启动zookeeper服务1.8 如何关闭zookeeper集群 1. 三台机器安装zookeeper集群 注

2.kafka集群环境搭建

2.1.集群主机规划 序号机器名称ip/mac地址硬件资源安装服务 1 cdh1 root/server123 192.168.80.100,00:50:56:2B:5B:EF cpu:2核 , 内存:2.5g ,硬盘20g ,网卡:千兆网卡 jdk、zookeeper、kafka 2 cdh2 root/server123 192.168.80.101,00:50:56:39:23:67 cpu:2核 , 内存:2.5g ,硬盘20g ,网

hadoop-2.6.0-cdh5.14.0 集群高可用搭建

分布式环境搭建(适用于工作当中正式环境搭建) 使用完全分布式,实现namenode高可用,ResourceManager的高可用 集群运行服务规划 安装包解压 停止之前的hadoop集群的所有服务,并删除所有机器的hadoop安装包,然后重新解压hadoop压缩包 解压压缩包 第一台机器执行以下命令进行解压 cd /exp

简易hadoop三节点集群搭建总结

三节点hadoop集群搭建教程 一、 安装VMware虚拟机 二、 创建第一个Linux虚拟机节点,本机使用的centOS7.6 64位版本 三、 创建2个克隆节点 四、 3节点都关闭防火墙 命令:systemctl stop firewalld 关闭后查看防火墙状态确认是否关闭成功:systemctl status firewalld 五、 关闭 selinu

B02 - 013、上传源码包:hadoop-2.6.0-cdh5.14.0-src.tar

初学耗时:0.5h 注:CSDN手机端暂不支持章节内链跳转,但外链可用,更好体验还请上电脑端。 一、上传源码包:hadoop-2.6.0-cdh5.14.0-src.tar   1.1  上传并解压hadoop-2.6.0-cdh5.14.0-src.tar。   1.2  编译前的快照:V3_Hadoop编译前的部署。   1.3  开始了,开始编译。  

B02 - 014、成功后的处理

初学耗时:0.5h 注:CSDN手机端暂不支持章节内链跳转,但外链可用,更好体验还请上电脑端。 一、成功后的处理     1.1  验证是否安装成功。     1.2  下载压缩包到桌面。 记忆词:   sz  B02 - 999、部署大数据环境及部分编译  ギ 舒适区ゾ || ♂ 累觉无爱 ♀

给hive的metastore做JVM优化

  最近在测试环境下,hive的metastore不稳定,于是做一次JVM优化 在hive-env.sh中 export HADOOP_HOME=/opt/cdh/hadoop-2.6.0-cdh5.14.0   if [ "$SERVICE" = "cli" ]; then if [ -z "$DEBUG" ]; then export HADOOP_OPTS="$HADOOP_OPTS -XX:NewRatio=12

编译phoneix源码,整合Hbase

Hbase版本:1.2.0-cdh5.14.0 1):下载phoneix源码 链接:https://pan.baidu.com/s/1uryK_jLEekdXV04DRc3axg 密码:bkqg 2):解压后,更改pom文件,指定你需要的cdh版本 因为我的是CDH5.14.0,所以要更改为我的版本 注意:需要更改所有的pom文件,把版本指定; 3):指定好之后,执行maven命令: mvn packag

关于Hbase开启snappy压缩

版本:自己编译的hbase-1.2.0-cdh5.14.0 默认情况下,Hbase不开启snappy压缩 , 所以在hbase的lib/native目录下什么也没有(我的前提是执行hadoop checknative可以看到hadoop是支持snappy的) 第一步: 需要将snappy-java-1.0.4.1.jar放在hbase的native目录下: 可以去hadoop下拷贝过去: cp /o

Phoenix安装配置

下载Phoenix  在网站http://phoenix.apache.org/download.html找到对应HBase版本的安装程序,并下载安装包,解压安装程序到指定目录[root@hadoop01 soft]# wget http://www.apache.org/dyn/closer.lua/phoenix/apache-phoenix-4.14.0-cdh5.14.2/bin/apache-phoenix-4.14.0-cdh5.14.2

二十一:CDH5.14离线安装Apache Spark 2

一:当有需要CDH安装Apache Spark 2时: 老规矩,从官网开始: https://www.cloudera.com/documentation.html https://www.cloudera.com/documentation/spark2/latest/topics/spark2_installing.html 注意几个重要的提示: 二:按步骤进行安装: 2.1:查看自己需要安装的版本: a:To download