首页 > TAG信息列表 > master1

Job控制器

  Job控制器用于调配pod对象运行一次性任务,容器中的进程在正常运行结束后不会对其进行重启,而是将pod对象置于“Completed”(完成)状态。若容器中的进程因错误而终止,则需要依配置确定重启与否,未运行完成的pod因其所在的节点故障而意外终止后会被重新调度。   实践中,有的作业任务

K8S最小调度单元Pod概述

注:k8s集群节点信息如下: [root@k8s-master1 ~]# kubectl get nodes NAME STATUS ROLES AGE VERSION k8s-master1 Ready control-plane,master 26d v1.20.6 k8s-node1 Ready worker 26d v1.20.6 k8s-node2 R

kubeadm安装生产环境多master节点k8s高可用集群

 环境准备 三台虚拟机(所有节点做好host解析) cat /etc/hosts 127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4 ::1 localhost localhost.localdomain localhost6 localhost6.localdomain6 10.0.0.128 k8s-node 10.0.0.129 k8s-master1 10.0.0.130

K8S User Account 创建授权

  # 本文主要介绍自建证书的方式创建user account 以及生成用户的token 绑定到Service Account上 查看dashboard权限 # 基于openssl 生产用户相关证书 1、生成用户的key文件 [root@master1 chen]# openssl genrsa -out chen.key 2048 Generating RSA private key, 2048 bit long

基于dashboard理解k8s的RBAC授权

# 概念 Servic Account(服务账号):是指由Kubernetes API管理的账号,用于为Pod之中的服务进程在访问Kubernetes API时提供身份标识。Service Account通常绑定于特定的名称空间,由API Server创建,或者通过API调用手动创建。 User Account(用户账号):独立于Kubernetes之外的其他服务管理用户

Kubernetes集群部署-二进制方式

一、服务器环境准备 服务器规划 IP地址 节点角色 CPU Memory Hostname 192.168.10.81 master ≥2 ≥2G k8s-master1 192.168.10.82 master ≥2 ≥2G k8s-master2 192.168.10.83 master ≥2 ≥2G k8s-master3 192.168.10.84 worker ≥2 ≥2G k8s-node1 192.168.10.85

k8s-1.19.16 二进制安装

master: [root@k8s-master1 ~]# cat /etc/hosts 127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4 ::1 localhost localhost.localdomain localhost6 localhost6.localdomain6 127.0.0.1 k8s-master1 master1 10.10.22.20 k8s-mast

Kubernetes集群使用Volumes实现宿主机与容器内部文件、目录共享

本文通过编写关于运行nginx pod的yaml文件介绍两种文件共享的方式 [root@master1 ~]# vim nginx.yaml --- apiVersion: v1 kind: Pod metadata: name: nginx namespace: test labels: app: nginx spec: containers: - name: nginx image: nginx:1.20 image

Kubernetes创建namespaces

两种创建方式 第一种使用命令行创建: 1 查看现有命名空间 [root@master1 prometheus]# kubectl get ns NAME STATUS AGE default Active 29d dev Active 9d kube-node-lease Active 29d kube-public

kubekey 部署内置 haproxy k8s 高可用集群

内置 haproxy 高可用架构: 1、下载脚本 [root@master1 ~]# curl -sfL https://get-kk.kubesphere.io | VERSION=v2.0.0 sh - 如果访问 Github 和 Googleapis 受限先执行以下命令再执行上面的命令 export KKZONE=cn 2、给脚本赋予执行权限 [root@master1 ~]# chmod +x kk 3、创

13.Configmap配置管理

1.Configmap 是什么 Configmap 是 k8s 中的资源对象,用于保存非机密性的配置的,数据可以用 key/value 键值对的形式保存,也可通过文件的形式保存。 2.Configmap 能解决哪些问题 我们在部署服务的时候,每个服务都有自己的配置文件,如果一台服务器上部署多个服务:nginx、tomcat、apache 等

k8s集群-master和node节点添加与删除、kubenetes之master节点升级、高可用

master1 192.168.181.110 4C  4G master2 192.168.181.111 4C  4G master3 192.168.181.112 4C  4G node1 192.168.181.130 4C  4G node2 192.168.181.131 4C  4G node3 192.168.181.132 4C  4G etcd1 192.168.181.140 2C  2G etcd2 192.168.181.141 2C

部署keepalive+lvs多master节点高可用

最低配置2核 2G 192.168.1.11 master1 192.168.1.12 master2 192.168.1.13 master3 192.168.1.20 node1 一、初始化实验环境,各个节点操作 1、修改主机名,配置hosts文件,修改yum源,防火墙,selinux,时间同步,swap [root@master1 ~]# hostnamectl set-hostname master1 [root@master1

Linux下 虚拟串口的生成(程序)

将python的内容改为如下: 一、先新建一个文档,内容如下 #! /usr/bin/env python #coding=utf-8 import pty import os import select def mkpty(): # master1, slave = pty.openpty() slaveName1 = os.ttyname(slave) master2, slave = pty.openpty() slav

详细记录一次stampstime字段引起pxc集群脑裂

事故回顾 运维执行导入sql,导入后收到master2和master3节点宕机的报警; 检查集群状态发现master1进入初始化模式,无法读写;master2和master3已经下线; 处理方法 分别进入3个master节点,发现master2和master3两个节点已经退出; master1节点可以进入,使用命令show global status like "wsrep

Linux - K8S - Secret

#Secret - 加密时,最好不要加上换行避免出现其他问题 [14:33:21 root@master1 storage]#cat 19-storage-nginx-secret.yaml apiVersion: v1 kind: Secret metadata: name: nginx-secret type: kubernetes.io/basic-auth data: username: YWRtaW4= password: cGFzc3dvcmQ= [1

Linux - K8S - 集群清空,升级以及加载网络从fannel到calico,从iptables到ipvs

# 由于之前已经安装集群1.22.0,所以先清空集群,注意要一个一个机器清空,不要批量清空,以免出现不可知的错误 # 从node节点开始清空 # 清空node2节点 [21:01:29 root@node2 ~]#kubeadm reset [reset] WARNING: Changes made to this host by 'kubeadm init' or 'kubeadm join' will

【kubernetes】k8s集群高可用部署安装和概念详细说明【含离线部署】,客户端连接haproxy访问高可用流程

文章目录 说明高可用原理K8S多master节点架构图测试环境说明 部署高可用安装包准备【可选】高可用架构说明配置haproxy说明【必看】安装haproxy编辑配置文件 配置etcd安装etcd编辑配置文件 master和work配置【集群配置】环境配置【master和work都做】安装docker-ce【master

coredns状态为pending和部署calico报错Init:0/3或Init:RunContainerError

文章目录 说明coredns报错状态和原因说明calico部署报错原因及处理报错部署说明报错Init:0/3说明及处理报错Init:RunContainerError 部署正常显示内容,coredns状态正常了 说明 算是记录一个坑吧,tm的,折磨我好久了。各种查系统日至,百度,最后是找以前的环境对比出来的,日至报错

【kubernetes】k8s使用客户端连接haproxy访问高可用集群流程详细说明【使用kubeconfig连接haproxy】【kubeconfig配置全部流程】

文章目录 master高可用部署流程客户端连接haproxy访问高可用集群环境确认与准备【必看】客户端连接happroxy说明kubeconfig配置【master上操作】客户端测试说明测试 更好的部署master高可用的方式 master高可用部署流程 去这篇博客,内容过多,需要6台虚拟机,有条件的建议跟

centos7集群ssh免密

测试机器有 master1 master2 master3 node1 node2 node3 每台机器设置主机名 hostname servername nmcli general hostname servername systemctl restart systemd-hostnamed 每台机器必须设置域名解析 所有节点执行 ssh-keygen -t rsa 然后一路回车, 就会在各个节点生成公钥和

ceph存储应用--owncloud

项目框架 节点规划 节点名字ipcephowncloud192.168.64.128xxxxmaster1192.168.64.150mon,mgr,mdsmaster2 192.168.64.151osdmaster3192.168.64.152osd 部署环境准备 所有节点更改hosts文件,关闭防火墙,关闭selinux,时间同步,添加ceph源和docker源,这个就不演示了,搭建过k8s集群必做

Question 0 | Instructions -- CKA Simulator Kubernetes 1.22

Pre Setup Once you've gained access to your terminal it might be wise to spend ~1 minute to setup your environment. You could set these: alias k=kubectl # will already be pre-configured export do="--dry-run=client -o yam

K8S 污点及容忍

K8S  污点及容忍 查看节点的污点  k describe node master1 | grep -i taints    污点包含 <key> = <value> :<effect>   查看一个系统pod的容忍度: k describe po kube-proxy-hbb2w -n kube-system       给生产节点加污点:  k taint node master1 node-type=productio

Mysql搭建双主模式

已有环境master节点和slave节点,再准备一个master2节点和之前的master节点配置相同,采用双主单写模式(具体准备工作配置参照之前文章) 1,修改master1和master2配置 增加两项配置,注意server_id两个不能相同 启动mysql 二,登陆mysql,进行双主配置 在master2上执行show master stat