首页 > TAG信息列表 > kube

k8s驱逐篇(4)-kube-scheduler抢占调度驱逐

介绍kube-scheduler抢占调度驱逐之前,先简单的介绍下kube-scheduler组件; kube-scheduler简介 kube-scheduler组件是kubernetes中的核心组件之一,主要负责pod资源对象的调度工作,具体来说,kube-scheduler组件负责根据调度算法(包括预选算法和优选算法)将未调度的pod调度到合适的最优的nod

在easzlab部署的k8s集群安装kube-prometheus+rook-ceph

一、k8s集群环境搭建      请参考:https://www.cnblogs.com/cyh00001/p/16520847.html 二、部署rook-ceph集群 2.1、环境需求: easzlab-k8s-ceph-01 172.16.88.163 4vcpu 8G 3*100G easzlab-k8s-ceph-02 172.16.88.164 4vcpu 8G 3*100G easzlab-k8s-ceph-03 172.1

Kubernetes学习笔记(二十二):Authentication 身份认证

kubectl create serviceaccount sa1 kubectl get serviceaccount 验证方式kube-apiserver: Static Password File Static Token File Certificates Identity Services,第三方身份验证协议,如LDAP、Kerberos等 Static Password File : user-details.csv : password,username,userid(,

散记

service 提供相同服务的一组pod可以抽象成一个service, 固定IP - 对外提供服务的统一入口,每个service都有一个虚拟IP地址(VIP, clusterIP)和端口号供客户端访问。由于Pod重建等原因导致的pod ip地址变化, service始终保持对外ip端口不变 负载分发策略有两种: RoundRobin(轮询), Ses

Failed to list *v1.CronJob: the server could not find the requested resource

基础环境 kubectl version Client Version: version.Info{Major:"1", Minor:"20", GitVersion:"v1.20.7", GitCommit:"132a687512d7fb058d0f5890f07d4121b3f0a2e2", GitTreeState:"clean", BuildDate:"2021-05-12T12:40:0

安装openebs报错

报错: [root@k8s-node1 k8s]# helm install --namespace openebs --name openebs stable/openebs --version 1.5.0Error: release openebs failed: namespaces "openebs" is forbidden: User "system:serviceaccount:kube-system:tiller" cannot get resour

8、kubernetes组件——CoreDns

kubernetes组件——CoreDns 在Kubernetes集群推荐使用Service Name作为服务的访问地址,因此需要一个Kubernetes集群范围的DNS服务实现从Service Name到Cluster Ip的解析,这就是Kubernetes基于DNS的服务发现功能。 从Kubernetes 1.11开始,可使用CoreDNS作为Kubernetes的DNS插件进入GA

k8s 1.2之k8s安装和搭建集群

1.实验,一台master主机和两台work主机搭建k8s集群 三台机器都需要开启虚拟化,master主机的内存和cpu数多点 master至少2核数,node节点至少1核数   以下操作是三台机器都需要操作相同步骤   分别在三台服务器 ssh-keygen ssh-copy-id work1 ssh-copy-id master 去/root/.ssh目录下有

K8s-helm2部署Dashboard

使用Helm部署 dashboard dashboard.yaml: #为了方便测试,先将已经有的dashboard镜像上传到我个人的镜像仓库,以下模板就可以基于我的仓库进行下载即可 image: repository: chenxiyanglinux/dashboard tag: v1.10.1 ingress: enabled: true hosts: - dashboard.cmft.com

kubernetes RBAC

RBAC 基于角色(Role)的访问控制(RBAC)是一种基于组织中用户的角色来调节控制对计算机或网络资源的访问的方法。 RBAC 鉴权机制使用 rbac.authorization.k8s.io API 组来驱动鉴权决定, 允许你通过 Kubernetes API 动态配置策略 要启用 RBAC,在启动 API 服务器时将 --authorization-mode

K8s 面试题

  1、k8s核心组件包括如下 K8s Master 组件   kube-apiserver :K8s 集群访问入口,此接口封装了增删改查功能,提供给外部客户端和内部组件调用(将维护的数据持久化到etcd)。   kube-scheduler(调度器) :负责集群的资源调度。例如,创建新Pod时,为Pod选择一个运行的节点。   kube-cont

k8s 各组件功能

kube-apiserver Kubernetes API server 提供了k8s各类资源对象的增删改查及watch等HTTP Rest接口,这些对象包括pods、services、replication controllers等,API Server 为REST操作提供服务,并为集群的共享状态提供前端,所有其他组件都通过该前端进行交互。 RESTful API:是RSET风格的网

k8s的部署

一、k8s的二进制部署 1.环境准备: IP                               节点 172.16.10.1         k8s-master01 172.16.10.3         k8s-master02 172.16.10.10       k8s-node01 172.16.10.20       k8s-node02 172.16.10.11           m

K8S-kubeadm安装

K8S-kubeadmin快速安装K8S集群 1.IP规划 节点 IP 组件 MASTER01(4C/6G,cpu核心数大于2) 192.168.80.20 docker、kubeadm、kubelet、kubectl、flannel node01(2C/2G) 192.168.80.30 docker、kubeadm、kubelet、kubectl、flannel node02(2C/2G) 192.168.80.35 docker、kubeadm

k8s+crio+podman搭建集群

前言 在传统的k8s集群中,我们都是使用docker engine做为底层的容器管理软件的,而docker engine因为不是k8s亲生的解决方案,所以实际使用中会有更多的分层。之前我们也讲过,k8s为了调用docker engine,专门写了一个dockershim做为CRI,而在1.20版本的时候,k8s就宣布停止更新dockershim了,也就

二进制安装多master节点的k8s集群(2)

1.环境准备 k8s集群角色 IP 主机名 安装的组件 控制节点 192.168.1.10 master apiserver、controller-manager、scheduler、etcd、docker、keepalived、nginx 控制节点 192.168.1.11 pod1 apiserver、controller-manager、scheduler、etcd、docker、keepalived、nginx

Service详解

Service 的概念 Kubernetes Service 定义了这样一种抽象:一个 Pod 的逻辑分组,一种可以访问它们的策略 —— 通常称为微服务。 这一组 Pod 能够被 Service 访问到,通常是通过 Label Selector             Service能够提供负载均衡的能力,但是在使用上有以下限制: 只提供 4 层

十八、Service的应用

Service 的应用 ClusterIP ​clusterIP 主要在每个 node 节点使用 ipvs,将发向 clusterIP 对应端口的数据,转发到 kube-proxy 中。然后 kube-proxy 自己内部实现有负载均衡的方法,并可以查询到这个 service 下对应 pod 的地址和端口,进而把数据转发给对应的 pod 的地址和端口。 为了

1.k8s相关概念和术语

Master: 1.Kubenets里的集群控制节点,基本上 Kubernetes的所有控制命令都要发给它,它负责具体的执行过程。 2. Master通常占据一个独立的服务器,如果master宕机,那么集群内容器应用的管理都将失败 关键进程 - kube-apiserver: HTTP Rest接口的关键进程,Kubernetes里所有资源的

K8S v1.20 及以上版本 StorageClass 创建 PVC 不成功解决

故障描述: PVC 显示创建不成功:kubectl get pvc -n efk 显示 Pending,这是由于版本太高导致的。k8sv1.20 以上版本默认禁止使用 selfLink。(selfLink:通过 API 访问资源自身的 URL,例如一个 Pod 的 link 可能是 /api/v1/namespaces/ns36aa8455/pods/sc-cluster-test-1-6bc58d44d6-r8hld

二、K8s集群安装

1)kubeadm kubeadm是官方社区推出的一个用于快速部署kuberneters集群的工具。这个工具能通过两条指令完成一个kuberneters集群的部署 创建一个master节点 $ kuberneters init 将一个node节点加入到当前集群中 $ kubeadm join <Master节点的IP和端口> 2)前置要求 一台或多台机器,

kubeadm安装多master节点的k8s集群(1)

一、环境准备 k8s集群角色 IP 主机名 安装的相关组件 控制节点 192.168.1.10 master apiserver、controller-manager、scheduler、kubelet、etcd、docker、kube-proxy、keepalived、nginx、calico 控制节点 192.168.1.11 pod1 apiserver、controller-manager、scheduler、k

Kubernetes(k8s)部署Promehteus(kube-prometheus&kube-prometheus-stack)监控

目录一、概述1)metrics-server简介2)Prometheus简介3)Prometheus Operator4)metrics-server&Promehteus对比&特性5)Prometheus Operator VS kube-prometheus二、安装kube-prometheus1)安装git2)下载kube-prometheus2)修改镜像源3)修改类型为NodePort1、修改prometheus的service2、修改grafa

rancher自定义集群master组件被删除

第一步.备份etcd目录 备份/var/lib/etcd/目录 cp /var/lib/etcd /var/lib/etcd.bak 第二部.点击编辑集群,在master原节点执行生成的命令,添加主机页面添加3个master主机,和node主机 等待master组件启动 第二步.创建注册命令 获取到以下执行命令 curl --insecure -sfL https://172

rancher无法连接k8s自定义集群

1,rancher2.5无法连接k8s自定义集群 误删自定义k8s集群cattle-cluster-agent,cattle-node-agent组件,或者错误更新rancher证书导致无法连接k8s的问题恢复 第一步.创建注册命令 获取到以下执行命令 curl --insecure -sfL https://172.30.1.159:8443/v3/import/5qk4w2lvgpvl2rtd7tc