首页 > TAG信息列表 > node03
python 云计算 基础架构服务 PXE
1.PXE安装一台服务器 域名(example.cn) 主机名: 个人姓名全拼 (比如:个人姓名全拼.example.cn) IP地址: 10.15.200.94 MAC地址: 00:0c:59:04:4d:b6 http端口号:8094 打开gw节点 配置dhcp文件 添加信息 配置正向解析文件 配置反向解析文件 重启服务 新建虚拟机hadoop2.7.5安装hive2.1.1启动报错Caused by: java.sql.SQLException: Access denied for user ‘root‘@‘node03‘
1.报错截图和日志 hadoop2.7.5安装hive2.1.1启动报错 Caused by: java.sql.SQLException: Access denied for user ‘root’@‘node03’ (using password: YES) at com.mysql.jdbc.SQLError.createSQLException(SQLError.java:965) [root@node03 apache-hive-2.1.1-bin]# bLinux系统下对文件和字符串 进行加密的方法总结
为了安全考虑,通常会对一些字符或重要文件进行加密安全处理,下面对文件或字符串加解密方法做一总结,方便日常运维工作中使用。一、对文件进行加密/解密方法方法一:gzexe加密这种加密方式不是非常保险的方法,但是能够满足一般的加密用途,可以隐蔽脚本中的密码等信息。它是使用系统自带的Hive安装部署
文章目录 前言1. root用户下安装mysql2. 安装mysql2.1 下载并安装mysql官方的yum源2.2 安装mysql 3. 设置mysql3.1 mysql服务3.2 修改密码 2. Hive的安装部署1.1 先决条件1.2 准备安装包1.3 解压1.4 修改配置文件1.5 拷贝mysql驱动包1.6 配置Hive环境变量1.7 验证安装 总ZooKeeper部署
前面理论讨论的差不多了,今天开始安装部署一个ZooKeeper集群。 1、准备三个节点(测试环境使用虚拟机就行,而且方便按需调整资源)。 序号IP名称配置1192.168.59.101 节点名称:node01,myid:1 2192.168.59.102节点名称:node02,myid:23192.168.59.103节点名称:node03,myid:3HADOOP之环境搭建(二)
前提:四台机器都要有java环境、hadoop环境、node01: cd $HADOOP/etc/hadoop #NN角色 vi core-site.xml 不需要改 # 配置HDFS 副本数为2 nn目录 dn目录 secondary_namenode启动节点以及目录 vi hdfs-site.xml超详细大数据学习之Hadoop HA 高可用安装(二)
上一阶段的学习 超详细大数据学习之Hadoop HA 高可用安装(一) https://blog.csdn.net/qq_44500635/article/details/106796553 六、安装zookeeper 这里我们需要先下载好zookeeper在自己的电脑里,在node02,03,04家目录下创建software文件夹 mkdir software 用Xftp把zookeeper放在Hadoop高可用集群搭建及测试
** Hadoop高可用集群搭建(遇到的错误)及测试 ** 本文主要介绍的是hadoop的高可用集群搭建步骤,个人觉得还挺详细得哈哈哈哈哈哈还附有截图,希望可以给有需要的童鞋一点帮助。然后文章的最后也列举了本人在安装过程中所遇到的困难以及解决办法,希望可以给正在为错误焦头烂额的你一Hadoop HA高可用集群搭建详细过程(亲测四台有效)
hadoop集群HA高可用搭建 ❀❀❀❀❀搭建前的简单介绍❀❀❀❀❀ 主机配置环境如下表: Hadoop HA原理: 在一典型的HA集群中,每个NameNode是一台独立的服务器。在任一时刻,只有一个NameNode处于active状态,另一个处于standby状态。其中,active状态的NameNode负责所有的客户Hadoop集群的搭建准备
这里我们使用免费软件MobaXterm来搭建 1、首先分别将三台虚拟机开机,然后使用MobaXterm-Session-SSH来分别链接三台虚拟机 2、 在Remote host * 中输入我们之前创建虚拟机的IP地址(输入IP后点击OK),然后分别链接3台虚拟机 3、然实战 | 史上最详细Hadoop大数据集群搭建,不看后悔系列
文章目录1. 搭建环境1.1 实验环境1.2 架构模型1.3 前期准备2. 软件环境依赖部署2.1 jdk安装及配置2.2 ssh免密钥配置3. Hadoop及Zookeeper部署3.1 Hadoop安装及配置3.1.1 解压hadoop-2.6.5.tar.gz:3.1.2 修改配置文件/etc/profile:3.1.3 修改 hadoop-env.sh 和 mapred-env.Kubernetes 错误汇总(持续更新)
问题一、unable to fetch the kubeadm-config ConfigMap: failed to get config map: Unauthorized [root@k8s-store01 ~]# kubeadm join 10.0.0.31:6443 --token 1euadv.48cjve19biy33b9m --discovery-token-ca-cert-hash sha256:295acb22b65296410968d040cfbb326642d2e3b177Kubernetes 错误汇总(持续更新)
问题一、unable to fetch the kubeadm-config ConfigMap: failed to get config map: Unauthorized [root@k8s-store01 ~]# kubeadm join 10.0.0.31:6443 --token 1euadv.48cjve19biy33b9m --discovery-token-ca-cert-hash sha256:295acb22b65296410968d040cfbb326642d2e3b177hadoop学习笔记(九):mr2HA高可用环境搭建及处步使用
本文原创,如需转载,请注明原文链接和作者 现结点的配置情况 1、单节点的yarn管理的配置 需要配置mapread-site.xml Configure parameters as follows:etc/hadoop/mapred-site.xml: #mapread-site.xml<configuration> <property> <name>mapreduce.framework.name<第1节 IMPALA:7、impala的安装以及配置过程
6、制作本地yum源 镜像源是centos当中下载相关软件的地址,我们可以通过制作我们自己的镜像源指定我们去哪里下载impala的rpm包,这里我们使用httpd这个软件来作为服务端,启动httpd的服务来作为我们镜像源的下载地址 这里我们选用第三台机器作为镜像源的服务端 node03机器上执行以5 ,node03 克隆安装 ( 五分钟搞定 )
步骤,参考 node02hiveserver2启动成功但无法通过beeline连接
可能是配置的问题。 我将hive.metastore.uris从配置文件中注释掉之后解决了hiveserver2启动成功但无法通过beeline连接的问题。 [root@node03 conf]# vi hive-site.xml <property> <name>hive.metastore.warehouse.dir</name> <value>/user/hive_remkafka配置监控和消费者测试
概念 运维 配置 监控 生产者与消费者 流处理 分区partition 一定条件下,分区数越多,吞吐量越高。分区也是保证消息被顺序消费的基础,kafka只能保证一个分区内消息的有序性 副本 每个分区有一至多个副本(Replica),分区的副本分布在集群的不同代理上,提高可用性。分区的每个副本在