首页 > TAG信息列表 > kubia

k8s暴露集群内和集群外服务的方法

集群内服务   一般 pod 都是根据 service 资源来进行集群内的暴露,因为 k8s 在 pod 启动前就已经给调度节点上的 pod 分配好 ip 地址了,因此我们并不能提前知道提供服务的 pod 的 ip 地址。那么 service 服务提供的功能就是,使用者根本无需关心后端提供服务 pod 的数量,以及各自对应

k8s 存储配置,需要深入请自行看文档

1、本机测试环境,测试普通的pv,pvc apiVersion: v1 kind: PersistentVolume metadata: name: mongodb-pv spec: capacity: storage: 1Gi accessModes: - ReadWriteOnce - ReadOnlyMany persistentVolumeReclaimPolicy: Retain hostPath: path: /tmp/mon

资源控制器

四、资源控制器 pod分为两种类型: 自主式pod:如果pod退出,不会被重新创建 控制器管理的pod:如果pod退出,资源控制器会注意到缺少了pod并重建替代pod,以维持设定的pod副本数目 在第三章中创建的pod都是自主式pod。下面介绍控制器管理的pod,控制器有很多类型: ReplicationController 和 R

minikube metrics-server HPA 自动扩缩容错误

minikube metrics-server pod 错误 启动 minikube addons enable metrics-server 之后查看 metrics-server pod 会有如下错误 Failed to pull image "k8s.gcr.io/metrics-server-amd64:v0.5.2": rpc error: code = Unknown desc = Error response from daemon: Get https://k8s.gc

Kubernetes

目录 安装kubernetes集群 准备第一台虚拟机 设置虚拟机cpu 上传离线安装文件 准备离线安装环境 导入镜像 准备三台服务器 从第一台虚拟机克隆两台虚拟机 在master上继续配置安装环境 配置集群服务器的ip 一键安装k8s集群 设置kubectl命令别名 验证安装 初步尝试 kubernetes 使用

kubernetes——发现pod并与之通信

介绍服务 kubernetes中服务是一种为一组相同功能的pod提供一个单一不变的接入点的资源。可以将一组提供相同服务的pod给定一个不变的接入资源。 创建服务 服务的后端可以不止有一个pod,服务连接所有的后端指定的pod,服务对后端的pod是负载均衡的。 服务是如何区分哪些pod属于服

4.6 安排Job定期运行或在将来运行一次

前提条件 0.0 环境准备 0.1 安装docker 0.2 安装k8s 创建一个CronJob 创建kubia-cron-job.yaml(注:此处需要指定jobTemplate,kind为CronJob,此处配置每分钟执行一次,最小单位是分钟) apiVersion: batch/v1beta1 kind: CronJob metadata: name: kubia-cron-job spec: sc

Docker 映像的平台(linux/amd64)与检测主机平台(linux/arm64/v8)不匹配

 发生在mac电脑的docker环境上; 一、异常 yanzhen@yanzhendeMacBook-Pro test-js % docker run --name kubia-container -p 7979:8080 -d kubia -r linux-arm64 WARNING: The requested image's platform (linux/amd64) does not match the detected host platform (linux/arm

Kubernetes实战(第二版)--第五章 在Pods中运行应用程序

本章涵盖了 理解如何以及何时对容器进行分组 通过从YAML文件创建Pod对象来运行应用程序 与应用程序通信,查看它的日志,探索它的环境 添加一个sidecar容器来扩展pod的主容器 通过在pod启动时运行初始化容器命令来初始化pods 让我用一个图表来刷新您的记忆,它显示了您在第3章中创建的

Kubernetes 实战——升级应用(Deployment)

一、更新运行在 Pod 内的应用程序 1. 修改 Pod 模板 将导致应用程序在一定时间内不可用 2. 修改 Service 的 Pod 选择器 需要同时运行两倍的 Pod 3. 滚动升级 应用程序需支持两个版本同时对外提供服务 旧版本 ReplicationController 缩容,同时新版本扩容 通过新旧 ReplicationCo

deployment:声明式的升级应用

9.1.使用RC实现滚动升级 #kubectl rolling-update kubia-v1 kubia-v2 --image=luksa/kubia:v2   使用kubia-v2版本应用来替换运行着kubia-v1的RC,将新的复制控制器命名为kubia-v2,并使用luksa/kubia:v2最为镜像。   升级完成后使kubectl describe rc kubia-v2查看升级后的

Deployment

apiVersion: apps/v1 kind: Deployment metadata: name: kubia spec: replicas: 3 template: metadata: name: kubia labels: app: kubia spec: containers: - image: luksa/kubia:v1 name: nodejs selector: ma

Kubernetes之Ingress

  在Service篇里面介绍了像集群外部的客户端公开服务的两种方法,还有另一种方法---创建Ingress资源。   定义Ingress (名词)-进入或进入的行为;进入的权利;进入的手段或地点;入口。   接下来解释为什么需要另一种方式从外部访问Kubernetes服务。   为什么需要Ingress   —

Kubernetes 实战 —— 04. 副本机制和其他控制器:部署托管的 pod

保持 pod 健康 P84 只要 pod 调度到某个节点,该节点上的 Kubelet 就会运行 pod 的容器,从此只要该 pod 存在,就会保持运行。如果容器的主进程奔溃, Kubelet 就会自动重启容器;如果应用程序奔溃, Kubelet 就会自动重启应用程序。 P84 应用程序也可能因为无限循环或死锁等情况而停止响应。

Kubernetes 实战 —— 02. 开始使用 Kubernetes 和 Docker

创建、运行及共享容器镜像 P23 运行容器 P24 运行 P24 可以运行 Docker 客户端可执行文件来执行各种 Docker 命令。例如:可以试着从 Docker Hub 的公共镜像仓库拉取、运行镜像。 Docker Hub 中有许多随时可用的常见镜像,其中就包括 busybox ,可以用来运行简单的命令,例如: echo "H

k8s 存活探针LivenessProbe

为什么需要存活探针 如果没有探针,k8s无法知道应用是否还活着,只要进程还在运行,k8s则认为容器是健康的。 k8s容器探测机制 http get 对容器的ip地址(指定的端口和路径)执行http get请求 如果探测器收到响应,并且响应码是2xx, 3xx,则认为探测成功。如果服务器没有响应或者返回错误响应

K8S 之 为POD创建基于HTTP的存活探针

Kubernets有以下三种探测容器的机制 1、HTTP GET 探针对容器的IP地址(你指定的端口和路径)执行HTTP GET请求。如果探测器收到响应,并且响应状态码不代表错误(换句话说,如果HTTP响应状态码是2XX或3XX),则认为探测成功。如果服务器返回错误响应状态码或者根本没有响应,那么探测就被认为是失败

K8S 之 POD标签的应用

一、创建POD时指定相应标签 apiVersion: v1 kind: Pod metadata: name: kubia-manual namespace: test labels: app: web_html #定义了app标签为:web_html env: prod #定义了env标签为:prod spec: containers: - name: kubia ima

第三章 副本机制和其他控制器

1.保持pod健康 1.存活探针 kubernetes 可以通过存活探针(liveness probe)检查容器是否还在运行。可以为pod中的容器单独制定存活探针,如果探测失败,kubernetes 将定期执行探针并重新启动容器,同时kubernetes还支持就绪探针,它们使用两种不同的场景 kubernetes有一下三种探测器的机制

k8s 初识pod (二)

kubernetes中调用pod到哪个节点上是无关紧要的,但由于实际情况,每台node的硬件环境不一致,所以某些情况要求将不同pod调到指定节点上运行。也可以通过label实现。 kubectl label node node-id gpu=true 将pod调用到此节点只需要在yaml中描述到 apiVersion: v1kind: podmetadata:

k8s 学习笔记

常用的kubectl命令   kubectl run kubia --image=luksa/kubia --port=8080 --generator=run/v1   --image 指定镜像 --port 是告诉kubernetes 应用监听8080端口 --generator 通常不会用到,它让kubernetes创建一个replicationController . 一般不带这个参数 ,创建的是depoly资源,dep

k8s学习笔记--deployment:声明式的升级应用

9.1.使用RC实现滚动升级 #kubectl rolling-update kubia-v1 kubia-v2 --image=luksa/kubia:v2   使用kubia-v2版本应用来替换运行着kubia-v1的RC,将新的复制控制器命名为kubia-v2,并使用luksa/kubia:v2最为镜像。   升级完成后使kubectl describe rc kubia-v2查看升级后的状

k8s学习笔记

九.deployment:声明式的升级应用 9.1.使用RC实现滚动升级 #kubectl rolling-update kubia-v1 kubia-v2 --image=luksa/kubia:v2   使用kubia-v2版本应用来替换运行着kubia-v1的RC,将新的复制控制器命名为kubia-v2,并使用luksa/kubia:v2最为镜像。   升级完成后使kubectl descr

k8s 之 Service 详解(一)

service用途:     service 为后端pod提供一组负载均衡代理 创建服务:     kubectl expose  #快速创建服务 yaml创建服务:     apiVersion: v1     kind: Service     metadata:         name: kubia     spec:          ports:          -

Docker,Linux,Kubernetes,postgres常用的命令行(持续更新)

Linux   1 Docker docker build -t "swr:6666/Project/***-***-**:v10.10.10" .  当前目录下根据dockerfile文件创建镜像 docker save -o Project.tar swr:6666/Project/***-***-**:v10.10.10  保存镜像Project,命名为Project.tar  chmod 775 Project.tar.tar   修改Projec