首页 > TAG信息列表 > node02

pacemaker+corosync 实现 PG HA

目录环境 IP 规划创建子网申请两台虚拟机修改 /etc/hosts [ALL]永久关闭防火墙并禁止开机启动与Selinuxnode01node02通过 node01 与 node02 搭建 PG14.1 主从流复制环境安装集群软件[all]设置 pcsd 开机自动启动(可选)[all]集群认证与创建 [node01]创建集群配置脚本 [node01]替换

ssh长时间连接不上

一、情景描述 从一个节点node01跳到另一个节点node02,长时间连接不上。 二、解决方法 1.修改节点node02的配置文件/etc/ssh/sshd_config。#UseDNS yesUseDNS no #GSSAPIAuthentication noGSSAPIAuthentication yes 2.重启sshd服务 杀进程:ps -ef | grep sshd | grep -v grep | awk '

getfacl

getfacl 可查看设置的ACL权限 [root@node02 data]# getfacl /data/testgetfacl: Removing leading '/' from absolute path names# file: data/test# owner: user1# group: user1user::rwxgroup::r-xother::r-x [root@node02 data]# setfacl -m u:user2:rw /data/test[root@

setfacl

setfacl命令可以用来细分linux下的文件权限。 chmod命令可以把文件权限分为u,g,o三个组,而setfacl可以对每一个文件或目录设置更精确的文件权限。 换句话说,setfacl可以更精确的控制权限的分配。 比如:让某一个用户对某一个文件具有某种权限 这种独立于传统的u,g,o的rwx权限之外的

clickhouse集群搭建

clickhouse集群搭建 搭建前准备配置好防火墙以及搭建好zookeeper,这里就不做搭建,可自行查找攻略首先取消打开文件数限制,然后重启不然不生效 [root@node02 ~]# vim /etc/security/limits.conf * soft nofile 65536 * hard nofile 65536 * soft nproc 131072 * hard nproc 131

haproxy MMM WordPress

这样运行:  分步运行  ha  mmm  wordpress 第1步: 安装 keepalived haproxy [root@ansible ~]# ansible-playbook /etc/ansible/ha_layer4_roles.yml 结束后, 进行校验: http://10.15.200.116:8088/haproxy-status 全是红色 目前是正常状态 因为 MMM mysql 3306没有启动 第2

Shell执行脚本时——bash: jps: 未找到命令

原代码: #!/bin/bash for i in node01 node02 node03; do #statements echo "------------------$i----------------------" ssh $i "jps $@ | grep -v Jps" done  运行以上程序出现:bash: jps: 未找到命令。 解决办法:   方式一:在ssh到其他节点的时候source 一下配

基于Hadoop3的HA集群搭建

集群规划 node01 node02 node03 NameNode NameNode NameNode ZKFC ZKFC ZKFC JournalNode JournalNode JournalNode DataNode DataNode DataNode ZK ZK ZK ResourceManager ResourceManager NodeManager NodeManager NodeManager 准备模板虚拟机 关闭防火

python 云计算 基础架构服务 PXE

1.PXE安装一台服务器  域名(example.cn)  主机名: 个人姓名全拼 (比如:个人姓名全拼.example.cn)  IP地址: 10.15.200.94  MAC地址: 00:0c:59:04:4d:b6  http端口号:8094 打开gw节点 配置dhcp文件 添加信息 配置正向解析文件 配置反向解析文件 重启服务 新建虚拟机

Hadoop-HA模式的搭建(手把手教,超细)

参考的Hadoop官网 具有QJM的NameNode HA_Hadoop 中文网https://hadoop.org.cn/docs/hadoop-project-dist/hadoop-hdfs/HDFSHighAvailabilityWithQJM.html从我完全分布式过来的同学,现在已经有了四台搭建了完全分布式的四台虚拟机 如果没有看过,请参照下文搭建!我们接下来的HA(高可

记一次K8s排错实战

记一次K8s排错实战 这是我参与更文挑战的第3天,活动详情查看: 更文挑战 转载https://juejin.cn/post/6969571897659015205 一 背景 收到测试环境集群告警,登陆K8s集群进行排查。 二 故障定位 2.1 查看pod 查看kube-system node2节点calico pod异常 查看详细信息,查看node2节点没

shell实现jumpserver

#!/usr/bin/bash #这个是linux的捕捉信息,这句话的意思是有这几个捕捉信号了就什么都不做 trap "" HUP INT # host server master=172.20.0.21 node01=172.20.0.7 node02=172.20.0.13 node03=172.20.0.8 node04=172.20.0.15 node05=172.20.0.16 node06=172.20.0.14 ceph01=172.20

k8s学习笔记,问题处理【二进制部署的node节点IP被占用,重新分配IP后如何加入集群】

二进制部署的k8s集群,当时计算节点node02在重启后,IP被其他部门的同事抢用,问了网管,他也不清楚,没办法,只有重新分配一个IP,把计算节点重新加回集群 1、停用node节点的kubelet服务 service kubelet status service kubelet stop 2、在master节点删除node [root@k8s-master01 ~]# kubec

kafka

zkCli.sh   ls / 记住zk的根目录下内容             ls或者get  /kafka/cluster/id 查看zk下的kafuka     controller   ls /kafka/brokers/ kafka目录下 config查看配置:server.properties broker.id=0        listeners端口号   log.dirs=/var/kafka_data z

node02: Warning: Permanently added ‘node02,192.168.139.129‘ (ECDSA) to the list of known hosts.

删除know_hosts文件,删除.ssh文件夹 重新生成.ssh,并且重新启动hadoop

Keepalived部署

Keepalived部署 1.安装 yum install keepalived -y 2.配置 vi /etc/keepalived/keepalived.conf ! Configuration File for keepalived global_defs { router_id k8singress #标识信息,随便取 } vrrp_instance VI_1 { state MASTER #角色,node01为MASTER,node02为

Kubernetes集群容器引擎切换

本文介绍如何将Kubernetes群集中的容器引擎从docker切换为containerd 官方文档:https://kubernetes.io/zh/docs/setup/production-environment/container-runtimes/#containerd 环境 OS: CentOS 7.8 Container runtime: Docker CE 19.03.9 Kubernetes: v1.20 1、查看Kubernete

写好Shell脚本那些不得不知道的细节

本文为博主原创文章,转载需获取作者授权。 想写好Shell脚本,有很多细节不得不知道,细节的不注意会给脚本调试带来很多麻烦,甚至导致运行的结果天差地别,下面总结了我实际工作中遇到的18大细节,分享给大家。 1. Shell四则运算 在我们日常的shell编程中,经常需要进行数值的运算,而She

Web集群案例实战 -- Keepalived 实现 web 服务高可用

Keepalived 实现 web 服务高可用 前言 前言 本环境是基于 Centos 7.8 系统构建 Keepalived 学习环境 具体构建,请参考 Keepalived 环境部署 环境准备 rolehostipkeepalive-versionhttpd-versionMASTERnode01192.168.5.11keepalived-2.0.12httpd-2.4.6BACKUPnode02192.168.

Nginx 运行状态中报错 Can‘t open PID file /var/run/nginx.pid (yet?) after start: No such...ctory 解决办法

一、出现问题的原因 Nginx自身Bug问题,导致Nginx服务优化后出现“Can’t open PID file /var/run/nginx.pid (yet?) after start: No such…ctory”报错 二、解决办法 [root@node02 ~]# mkdir -p /etc/systemd/system/nginx.service.d [root@node02 ~]# vim /etc/systemd/sys

docker二进制安装部署

1.下载docker二进制安装包 下载地址>> https://download.docker.com/linux/static/stable/x86_64/ 2. 解压安装包 [root@k8s-node02 ~]# tar zxf docker-19.03.9.tgz 3. 复制二进制文件到/usr/bin目录下 [root@k8s-node02 ~]# cp docker/* /usr/bin 4. 编写docker启动脚

ZooKeeper部署

  前面理论讨论的差不多了,今天开始安装部署一个ZooKeeper集群。           1、准备三个节点(测试环境使用虚拟机就行,而且方便按需调整资源)。 序号IP名称配置1192.168.59.101 节点名称:node01,myid:1 2192.168.59.102节点名称:node02,myid:23192.168.59.103节点名称:node03,myid:3

Linux学习笔记

Linux学习笔记 作者:Grey 原文地址: 语雀 博客园 Linux的安装 说明:本安装说明是基于Windows10 下VMware安装Linux, 环境 VMware-workstation-full-15.5.2-15785246 CentOS-6.10-x86_64-minimal.iso 其他版本的安装可作为参考 安装步骤 打开VMware, 点击创建新的虚拟机,在新建虚拟机向导

HADOOP之环境搭建(二)

前提:四台机器都要有java环境、hadoop环境、node01: cd $HADOOP/etc/hadoop      #NN角色 vi core-site.xml 不需要改      # 配置HDFS 副本数为2 nn目录 dn目录 secondary_namenode启动节点以及目录 vi hdfs-site.xml

ClickHouse集群搭建(二)

重叠泪痕缄锦字,人生只有情难死。 分布式集群安装 在上一章我们已经完成ClickHouse分布式集群安装,也创建本地表和分布式表进行了测试,但是,假如停掉一个节点会发生神马情况? node03上kill掉clickhouse-server进程 [root@node03 ~]# ps -ef | grep clickhouse clickho+ 2233 1