首页 > TAG信息列表 > Node01
本地DNS设置
设置本地DNS缓存 修改/etc/hosts文件 //立即生效 [root@YX-node01 group_vars]# cat /etc/hosts 127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4 ::1 localhost localhost.localdomain localhost6 localhost6.localdomain6 192.168.k8s升级
1.查看可升级的列表 yum list --showduplicates kubeadm --disableexcludes=kubernetes 2.验证升级计划 kubeadm version kubeadm upgrade plan 3.升级 yum install -y kubeadm-1.24.3-0 --disableexcludes=kubernetes kubeadm upgrade apply v1.24.3(输入yes) yum install -ypacemaker+corosync 实现 PG HA
目录环境 IP 规划创建子网申请两台虚拟机修改 /etc/hosts [ALL]永久关闭防火墙并禁止开机启动与Selinuxnode01node02通过 node01 与 node02 搭建 PG14.1 主从流复制环境安装集群软件[all]设置 pcsd 开机自动启动(可选)[all]集群认证与创建 [node01]创建集群配置脚本 [node01]替换(十六)Prometheus pushgateway的使用
由于网络问题或者安全问题,可能我们的数据无法直接暴露出一个entrypoint 给prometheus采集。 这个时候可能就需要一个pushgateway来作为中间者完成中转工作。 prometheus还是采用pull方式来采集pushgateway的数据,我们的采集端通过push方式把数据push给pushgateway,来完成数据的上报38 k8s-19.Ingress扩容缩容
1.3 Ingress扩容缩容 1.扩容 01.#获取指定的ingress名下的pod [root@k8s-master01 ingress-nginx]# kubectl get pod –n ingress –n ingress-nginx –owide 02.#获取所有node #kubectl get node 03.#node01扩容ingress [root@k8s-master01 ingress-nginx]# kubectl labe备份恢复工具介绍
备份恢复 备份恢复工具介绍 (1)** mongoexport/mongoimport 导出json类文本,只能针对collections/表 做导入导出 (2)***** mongodump/mongorestore #导出BSON类二进制 # 对MongoDB来说,物理和逻辑的区别: mongoexport/import json 文本 mongodump/mongorestore bson 二进制 备ssh长时间连接不上
一、情景描述 从一个节点node01跳到另一个节点node02,长时间连接不上。 二、解决方法 1.修改节点node02的配置文件/etc/ssh/sshd_config。#UseDNS yesUseDNS no #GSSAPIAuthentication noGSSAPIAuthentication yes 2.重启sshd服务 杀进程:ps -ef | grep sshd | grep -v grep | awk '|NO.Z.00014|——————————|CloudNative|——|KuberNetes&书签.V14|--------------------------------------------
[CloudNative:KuberNetes&书签.V14] [Applications.KuberNetes]报错处理四:### --- 报错现象:kubelet无法启动排查 [root@k8s-master01 ~]# systemctl status kubelet ●GlusterFS分布式存储
目录 glusterfs简介 glusterfs部署 glustefs分布式存储优化 glusterfs在企业中应用场景 参考文章地址 一、glusterfs简介 Glusterfs是一个开源的分布式文件系统,是Scale存储的核心,能够处理千数量级的客户端。是整合了许多存储块(server)通过Infiniband RDMA或者 Tcp/Ip方式互联的k8s node节点删除并重新加入
在工作中,由于各种各样的原因需要把现有的node节点删除,并且重新加入; k8s版本:v1.16.10 安装方式:二进制 删除node01节点: kubectl delete node node01 在node01节点上删除master节点批准其加入集群时,自动颁发的证书: #自动颁发的证书,在Node节点上的目录:/opt/kubernetes/ssl/ #删基于Hadoop3的HA集群搭建
集群规划 node01 node02 node03 NameNode NameNode NameNode ZKFC ZKFC ZKFC JournalNode JournalNode JournalNode DataNode DataNode DataNode ZK ZK ZK ResourceManager ResourceManager NodeManager NodeManager NodeManager 准备模板虚拟机 关闭防火Hadoop程序安装与配置
一.集群环境搭建 环境准备 (1) 服务器配置 IP 主机名 环境配置 安装 10.100.100.42 node01 关闭防火墙和selinux,host映射,时钟同步 JDK,NameNode,ResourceManager,Zookeeper 10.100.100.43 node02 关闭防火墙和selinux,host映射,时钟同步 JDK,DataNode,NodeManagek8s 二进制安装node节点重新加入集群
驱逐node节点上的pod kubectl drain node01 --delete-local-data 将该节点从集群中删除 kubectl delete node node01 删除加入集群时候自动申请的key [root@node01 kubernetes]# pwd /etc/kubernetes [root@node01 kubernetes]# tree . ├── cfg │ ├─常用对象操作:(4)
常用对象操作:(4) 1. Replication Controller与Replica Set 1.1 使用Replication Controller、Replica Set 管理Pod 前面我们的课程中学习了Pod的一些基本使用方法,而且前面我们都是直接来操作的Pod,假如我们现在有一个Pod正在提供线上的服务,我们来想想一下我们可能会遇到的一些场景:配置hbase环境
1,创建hbase的安装路径 [root@node01 ~]# mkdir staging [root@node01 ~]# cd staging 2,利用xftp上传hbase [root@node01 staging]# tar zxvf hbase-1.2.1-bin.tar.gz -C /usr——》解压hbase [root@node01 staging]# cd /usr/ [root@node01 usr]# mv hbase-1.2.1 hbase——HDFS的读写流程
hdfs的宏观写入流程: 1.首先就是客户端向NameNode发送写入数据的请求。 2.文件系统通过rpc调用NameNode的create的功能。与此同时NameNode会检查是否有这个地址或者说是有这个权限去创造这个文件。如果存在,则返回给客户端一个确认消息,表明-你可以写入数据了,并同python 云计算 基础架构服务 PXE
1.PXE安装一台服务器 域名(example.cn) 主机名: 个人姓名全拼 (比如:个人姓名全拼.example.cn) IP地址: 10.15.200.94 MAC地址: 00:0c:59:04:4d:b6 http端口号:8094 打开gw节点 配置dhcp文件 添加信息 配置正向解析文件 配置反向解析文件 重启服务 新建虚拟机Docker之分布式仓库Harbor部署
一 Harbor介绍 1.1 Harbor介绍 Harbor是一个用于存储和分发docker镜像的企业级Registry服务器,由VMware开源,其通过添加一些企业必需的功能特性,例如安全、标识和管理等,扩展了开源Docker Distrubution,作为一个企业级私有Registry服务器,Harbor提供了更好的性能和安全。提升了用户使docker修改、增加和删除已创建容器映射端口
在执行docker run可以指定端口映射,但是容器一旦生成,就没有一个命令可以直接修改,增加和删除映射端口。下面介绍一个可以修改,增加和删除已创建容器映射端口的方法。 解决办法: 1.保存镜像,再创建一个新的容器,在创建时指定新的端口映射。但是这种方法不推荐 2.修改容器配置文件 配置rabbitmq配置镜像队列
服务列表 ip hostname 192.168.56.100 master01 192.168.56.101 node01 以下2个节点都需要操作 curl -s https://packagecloud.io/install/repositories/rabbitmq/erlang/script.rpm.sh | sudo bash yum install -y erlang rpm --import https://packagecloud.Kubernetes收集pod的日志
背景环境: 开发频繁查看日志,登录服务器导出日志比较耗费时间,搭建一款轻量又简单的日志查询工具供开 发查询容器日志。 方案选型: (1)ELK(EFK)适用于日志体系比较大的场景,且比较消耗服务器资源。 (2)Loki---->轻量级(特点:简洁明了,安装部署简单)----->适用于当前环境 #1.安装helm 首先安装heJDK丨CentOS6.8 安装 JDK1.8
安装环境 - 系统环境:CentOS6.8 64bit - JDK版本:1.8.0_201 卸载OpenJDK -- 查看 [root@node01 ~]# rpm -qa | grep java tzdata-java-2016c-1.el6.noarch java-1.7.0-openjdk-1.7.0.99-2.6.5.1.el6.x86_64 java-1.6.0-openjdk-1.6.0.38-1.13.10.4.el6.x86_64 -- 卸载 [root@node01hive报错 Could not open client transport with JDBC Uri: jdbc:hive2://node01:10000/default:java.net.Con
先输入下面命令,确定metostore能不能启动 再确认9083端口有没有启动 再确认hive能不能进入shell 再输入命令hiveserver2 确认10000端口 最后输入两个命令,终于解决了! beeline !connect jdbc:hive2://node01:10000/default 原文链接:https://blog.chive开启远程连接
1、开启hdfs start-dfs.sh 2、在root下: 在root下: node01输入: /kkb/install/hive/bin/hive --service metastore 克隆node01输入: /kkb/install/hive/bin/hive --service hiveserver2 node03输入: /kkb/install/hive/bin/beeline ! connect jdbc:hive2://node01:10000hive部署实战-内嵌模式
参考:https://i.cnblogs.com/posts/edit 1、准备压缩包 下载hive-3.1.2(我用到的版本),传到node01上 在线下载连接:Index of /dist/hive/hive-3.1.2 (apache.org) 下面是网盘连接 链接:https://pan.baidu.com/s/1bIRXqaaWEyeiw-q34wOdxQ 提取码:i623 将安装包上传到node