其他分享
首页 > 其他分享> > 记一次K8s排错实战

记一次K8s排错实战

作者:互联网

记一次K8s排错实战

这是我参与更文挑战的第3天,活动详情查看: 更文挑战

转载https://juejin.cn/post/6969571897659015205

一 背景

收到测试环境集群告警,登陆K8s集群进行排查。

二 故障定位

2.1 查看pod

查看kube-system node2节点calico pod异常

2.2 查看存储

三 操作

3.1 ceph修复

目前查看到ceph集群异常,可能导致node2节点cgroup泄露异常,进行手动修复ceph集群。

数据的不一致性(inconsistent)指对象的大小不正确、恢复结束后某副本出现了对象丢失的情况。数据的不一致性会导致清理失败(scrub error)。
CEPH在存储的过程中,由于特殊原因,可能遇到对象信息大小和物理磁盘上实际大小数据不一致的情况,这也会导致清理失败。
复制代码

由图可知,pg编号1.7c 存在问题,进行修复。

ceph pg repair 1.7c
复制代码

3.2 进行pod修复

对异常pod进行删除,由于有控制器,会重新拉起最新的pod

查看pod还是和之前一样,分析可能由于ceph异常,导致node2节点cgroup泄露,网上检索重新编译

  1. Google一番后发现与github.com/rootsongjc/… 这个同学的问题基本一致。 存在的可能有,

查看系统内核却是低版本

3.3 故障再次定位

最后,因为在启动容器的时候runc的逻辑会默认打开容器的kmem accounting,导致3.10内核可能的泄漏问题

在此需要对no space left的服务器进行 reboot重启,即可解决问题,出现问题的可能为段时间内删除大量的pod所致。

初步思路,可以在今后的集群管理汇总,对服务器进行维修,通过删除节点,并对节点进行reboot处理

3.4 对node2节点进行维护

3.4.1 标记node2为不可调度

kubectl cordon node02
复制代码

3.4.2 驱逐node2节点上的pod

kubectl drain node02 --delete-local-data --ignore-daemonsets --force
复制代码

目前查看基本node2的pod均已剔除完毕

此时与默认迁移不同的是,pod会先重建再终止,此时的服务中断时间=重建时间+服务启动时间+readiness探针检测正常时间,必须等到1/1 Running服务才会正常。因此在单副本时迁移时,服务终端是不可避免的。

3.4.3 对node02进行重启

重启后node02已经修复完成。

对node02进行恢复

kubectl uncordon node02
复制代码

四 反思

标签:实战,node02,node2,查看,排错,ceph,集群,pod,K8s
来源: https://www.cnblogs.com/cheyunhua/p/15036993.html