首页 > TAG信息列表 > cdh5.16
CDH5和6的区别
CDH5.16.2CDH6.3.4ComponentPackage VersionComponentPackage VersionApache Avroavro-1.7.6+cdh5.16.2+143Apache Avro1.8.2Apache Crunchcrunch-0.11.0+cdh5.16.2+106Apache DataFupig-udf-datafu-1.1.0+cdh5.16.2+29Apache Flumeflume-ng-1.7.0+cdh5.16.2+196Apache Flume1【转】CDH5.16.1启用Kerberos
1 内容概述: 1.如何安装及配置KDC服务 2.如何通过CDH启用Kerberos 3.如何登录Kerberos并访问Hadoop相关服务 4.总结 测试环境: 1.操作系统:Redhat7.4 2.CDH5.16.1 3.采用root用户进行操作 2 KDC服务安装及配置 本文档中将KDC服务安装在Cloudera Manager Server所在服务器大数据平台CDH5.16.2 安装配置
大数据平台CDH5.16.2 安装配置 标签(空格分隔): 大数据平台构建 一: 环境初始化 二: 安装CDH5.16.2 1.1: 系统环境介绍 系统: RHEL7.7X64 cat /etc/hosts --- 192.168.100.21 rhel01.flyfish 192.168.100.22 rhel02.flyfish 192.168.100.23 rhel03.flyfish 192.168.100.24CDH5.16.1版本的tar包版Hive1.1.0集成安装
1 下载对应的hive安装包,cdh官方的下载镜像找到对应的hive版本 http://archive.cloudera.com/cdh5/cdh/5/ 2 下载好的tar包hive-1.1.0-cdh5.16.1.tar.gz ,并解压 tar -zvxf hive-1.1.0-cdh5.16.1.tar.gz 3 创建MySQL数据库并创建用户和权限 create database hive default cCDH5.16.1 Hue服务的 Load Balancer 启动失败
1.集群环境 CentOS 7.6 CDH5.16.1 2.问题详情 报错原因: 与服务器通信失败 No such file or directory: '/var/log/hue-httpd/error_log' 3.问题原因及解决方法 原因:服务器环境没有预先安装httpd,mod_ssl服务 解决方法: yum -y install httpd yum -y install mod_ssl 4.重启HueCDH5.16.1的Yarn提交任务默认资源分配
1 同时运行5个Spark任务的资源分配截图 2 每个任务占用3个Container 3个core以及4.5GB内存 也就是说一个Container需要 1个core 以及 512MB的内存 如果资源不够,可以提交任务时修改下内存分配,比如256MB,这样就可以提交更多的Spark任务到Yarn集群运行了。自编译Apache Spark2.3.3支持CDH5.16.1的Yarn
1 下载源代码文件 https://archive.apache.org/dist/spark/spark-2.3.3/ 2 解压后导入编辑器,修改依赖的Hadoop版本,下面截图是修改后的,要看自己集成的CDH版本 3 然后编译,一开始要等一会儿, 4 编译成功后,copy出编译好的tar包,然后部署【原创】大叔经验分享(29)cdh5使用已存在的metastore数据库部署hive
cdh5.16.1使用的hive版本是hive-1.1.0+cdh5.16.1+1431,详见:https://www.cloudera.com/documentation/enterprise/release-notes/topics/cdh_vd_cdh_package_tarball_516.html如果想将直接使用之前已有的hive metastore的数据库,比如hive1.2,要做如下操作: 1)修改元数据的version mysql>