首页 > TAG信息列表 > master01
Prometheus二进制监控
1.安装prometheus 访问ip:9090 # 下载安装包 [root@master01 ~]# wegt https://github.com/prometheus/prometheus/releases/download/v2.37.0/prometheus-2.37.0.linux-amd64.tar.gz # 解压并改名 [root@master01 ~]# tar -zxvf prometheus-2.37.0.linux-amd64.tar.gz -C /usr/loSecret
Secret 存在意义 Secret 解决了密码、token、密钥等敏感数据的配置问题,而不需要把这些敏感数据暴露到镜像或者 Pod Spec中。Secret 可以以 Volume 或者环境变量的方式使用 Secret 有三种类型: Service Account :用来访问 Kubernetes API,由 Kubernetes 自动创建,并且会自动报错“Internal error occurred: failed calling webhook "validate.nginx.ingress.kubernetes.io":
报错: 解决方案: 输入这条命令 [root@k8s-master01 ingress]# kubectl delete -A ValidatingWebhookConfiguration ingress-nginx-admissionvalidatingwebhookconfiguration.admissionregistration.k8s.io "ingress-nginx-admission" deleted[root@k8s-master01 iConfigMap
configMap 描述信息 ConfigMap是一种API对象,用来将非加密数据保存到键值对中。可以用作环境变量、命令行参数或者存储卷中的配置文件。 ConfigMap可以将环境变量配置信息和容器镜像解耦,便于应用配置的修改。如果需要存储加密信息时可以使用Secret对象。 ConfigMap 功能在 KuberService详解
Service 的概念 Kubernetes Service 定义了这样一种抽象:一个 Pod 的逻辑分组,一种可以访问它们的策略 —— 通常称为微服务。 这一组 Pod 能够被 Service 访问到,通常是通过 Label Selector Service能够提供负载均衡的能力,但是在使用上有以下限制: 只提供 4 层38 k8s-19.1.5创建多域名 Ingress
1.5创建多域名 Ingress 实例:创建一个多域名ingress 1. 拷贝[root@k8s-master01 ~]# cp ingress.yaml ngress-mulDomain.yaml 2. 复制了yaml中一份host… path内容 3. 修改相关参数: 01. host名称 foo2.bar.com 02. serviceName: nginx-svc-external 4. 更新ingress-mulD38 k8s-18.service
1.1 创建一个Service 01.//创建nginx-svc.yml文件 [root@k8s-master01 ~]# vim nginx-svc.yml //yml文件内容: apiVersion: v1 kind: Service metadata: labels: app: nginx-svc name: nginx-svc spec: ports: - name: http # Service端口的名称 port: 80 # Se容器编排系统K8s之节点污点和pod容忍度
尊重原创版权: https://www.gewuweb.com/hot/15334.html 容器编排系统K8s之节点污点和pod容忍度 今天我们来聊一下k8s上的节点污点和pod容忍度相关话题; 节点污点是什么呢? 节点污点有点类似节点上的标签或注解信息,它们都是用来描述对应节点的元数据信息;污点定义的格式和标签、注解38 k8s-16DaemonSet:守护进程集
DaemonSet:守护进程集,缩写为ds,在所有节点或者是匹配的节点上都部署一个Pod。使用DaemonSet的场景:✥ 运行集群存储的daemon,比如ceph或者glusterd✥ 节点的CNI网络插件,calico✥ 节点日志的收集:fluentd或者是filebeat✥ 节点的监控:node exporter✥ 服务暴露:部署一个ingress nginx 01.38 k8s-Deployment 20220505
Deployment Deployment概念:用于部署无状态的服务,这个最常用的控制器。一般用于管理维护企业内部无状态的微服务,比如configserver、zuul、springboot。他可以管理多个副本的Pod实现无缝迁移、自动扩容缩容、自动灾难恢复、一键回滚等功能。 1. 创建一个Deployment 01.#deploymentkubeadm 集群安装后状态
[root@k8s-master01 ~]# kubectl get pods --all-namespaces NAMESPACE NAME READY STATUS RESTARTS AGE kube-system calico-kube-controllers-56fcbf9d6b-f8tfh 1/1 Running 0 39m kube-syst|NO.Z.00168|——————————|CloudNative|——|KuberNetes&服务发布.V19|------------------------------------------
[CloudNative:KuberNetes&服务发布.V19] [Applications.KuberNetes][|DevOps|k8s|服务发布|什么是HPA|自动扩缩容HPA实践|]一、自动扩缩容HPA实践### --- 创建deployment,添加内存|NO.Z.00124|——————————|CloudNative|——|KuberNetes&基础标签.V07|------------------------------------------
[CloudNative:KuberNetes&基础标签.V07] [Applications.KuberNetes][|DevOps|k8s基础|yaml文件详解|yaml实验示例|使用yaml部署容器|]一、使用yaml文件部署容器### --- 使用yaml创|NO.Z.00127|——————————|CloudNative|——|KuberNetes&基础标签.V10|------------------------------------------
[CloudNative:KuberNetes&基础标签.V10] [Applications.KuberNetes][|DevOps|k8s基础|零宕机Pod三种探针|StartuProbe|Liveness和Readiness|Pod退出流程|PreStop的使用|]一、判断p|NO.Z.00126|——————————|CloudNative|——|KuberNetes&基础标签.V09|------------------------------------------
[CloudNative:KuberNetes&基础标签.V09] [Applications.KuberNetes][|DevOps|k8s基础|零宕机Pod三种探针|StartuProbe|Liveness和Readiness|Pod退出流程|PreStop的使用|]一、为什|NO.Z.00036|——————————|^^ 部署 ^^|——|KuberNetes&二进制部署.V14|5台Server|---------------------------------
[CloudNative:KuberNetes&二进制部署.V14] [Applications.KuberNetes][|DevOps|k8s|**5节点**|二进制1.20|kubernetes组件|calico|]一、部署calico### --- calico组件说明 ~~~ # c|NO.Z.00035|——————————|^^ 部署 ^^|——|KuberNetes&二进制部署.V13|5台Server|---------------------------------
[CloudNative:KuberNetes&二进制部署.V13] [Applications.KuberNetes][|DevOps|k8s|**5节点**|二进制1.20|kubernetes-node组件配置|——|kubelet|kube-proxy|]一、kube-proxy配置### -部署Tekton
https://tekton.dev https://tekton.dev/docs/getting-started/ 环境要求 ◼ Tekton Pipelines 0.11.0及以上的版本,需要运行于Kubernetes v1.15以上的集群中; ◼ 集群上要启用了RBAC鉴权插件; ◼ 拥有管理员权限(绑定到了clusterrole/cluster-admin)的用户; 部署Tekton Pipkubernetes配置后端存储 rook-ceph
一 Rook概述 1.1 Ceph简介 Ceph是一种高度可扩展的分布式存储解决方案,提供对象、文件和块存储。在每个存储节点上,将找到Ceph存储对象的文件系统和Ceph OSD(对象存储守护程序)进程。在Ceph集群上,还存在Ceph MON(监控)守护程序,它们确保Ceph集群保持高可用性。 更多Ceph介绍参考:https://wk8s高可用集群9集群的可用性验证
1查看集群中所有namespace里的容器。发现都是running状态 [root@k8s-master01 ~]#kubectl get pod --all-namespaces 2查看监控数据 [root@k8s-master01 ~]#kubectl top pod -n kube-system 3检查跨网是否可以访问pod [root@k8s-master01 ~]#kubectl get pod --all-namespacek8s高可用集群8Dashboard部署
1安装 [root@k8s-master01 ~]#cd /root/k8s-ha-install/dashboard/ [root@k8s-master01 ~/k8s-ha-install/dashboard]#kubectl create -f . 2谷歌浏览器访问前的设置 在谷歌浏览器启动文件中加入启动参数,用于解决无法访问Dashboard的问题,操作步骤: 右击谷歌浏览器--选择属性--k8s高可用集群4集群初始化
Master01初始化 1集群初始化之前一行要先重启一下containerd,由于没用重启这个报错整整折腾了我一天,报错内容如下: [root@k8s-master01 ~]#kubeadm config images pull --config /root/new.yaml fail to pull "registry.cn-hangzhou.aliyuncs.com/google_containers/kube-apiserver服务管理组件-Serving
Knative工作模式 service route RevisionX configuration IngressGateway(Envoy) 收发流量 Revision** k8s-Service Avtivator(0) SKS Deploument Pod(Envoy Queue container) 拉取指标到 Autoscaler HPA Route** Ingress(Istio) VirtualService SK8s dashboard安装
一、在 master 节点操作由于 K8s 版本不同,具体去这里查看对应的版本 https://github.com/kubernetes/dashboard/releases 如果使用 wget 命令无法下载,可以使用迅雷下载好上传到 K8s-Master 节点上 [root@k8s-master01 ~]# wget https://raw.githubusercontent.com/kubernetes/dashk8s控制器详解
目录 Replication Controller和ReplicaSet 无状态服务Deployment概念 Deployment的创建 Deployment的更新 Deployment的回滚 Deployment扩容和缩容 Deployment更新暂停和恢复 Deployment更新注意事项 有状态应用管理StatefulSet概念 创建一个StatefulSet应用