Linux | Ceph | Ubuntu 中部署 Ceph 集群
作者:互联网
Ceph 部署 : 手动
注意事项
- 操作系统 ubuntu 20.4
1. 配置 Ceph APT源
echo deb http://mirrors.aliyun.com/ubuntu/ bionic main restricted universe multiverse
2. 添加 APT 源 Key
wget -q -O- 'https://mirrors.tuna.tsinghua.edu.cn/ceph/keys/release.asc' | sudo apt-key add -
3.更新源并且安装 ceph-deploy
sudo apt-get update
sudo apt-get install ceph-deploy -y
4. 配置host文件 (所有节点执行)
cat /etc/hosts
192.168.1.101 controller1
192.168.1.102 controller2
192.168.1.103 controller3
5. 配置各个节点互信 (所有节点执行)
ssh-keygen
6. 赋值 Key 到各个节点 (所有节点执行)
ssh-copy-id controller1
ssh-copy-id controller2
ssh-copy-id controller3
7. 安装Cephadm(所有节点)
apt-get install cephadm
8. 安装 Ceph
8.1 步骤1: 创建配置文件目录
- (重建时需要删除改目录内的文件)
mkdir -p /etc/ceph
8.2 引导集群(创建第一个 mon
节点)
cephadm bootstrap \
--mon-ip 10.2.32.187 \
--initial-dashboard-user admin \
--initial-dashboard-password Troila12
# cephadm bootstrap \
# --mon-ip 第一个节点IP \
# --initial-dashboard-user 用户名 \
# --initial-dashboard-password 密码
8.3 安装Ceph 工具
cephadm add-repo --release octopus
cephadm install ceph-common
8.4 部署 mon 节点
- 步骤1: 禁止自动监视器部署
ceph orch apply mon --unmanaged
- 步骤2: 增加节点到集群
ceph orch host add {node1}
ceph orch host add {node2}
ceph orch host add {node3}
# 示例
ceph orch host add controller1
ceph orch host add controller2
ceph orch host add controller3
- 步骤3:标记 mon 节点
ceph orch host label add {node1} mon
ceph orch host label add {node2} mon
ceph orch host label add {node3} mon
# 查看标记结果 正常如下:
HOST ADDR LABELS STATUS
controller1 controller1 mon
controller2 controller2 mon
controller3 controller3 mon
- 步骤4:配置cephadm 根据标签部署监视器
ceph orch apply mon label:mon
- 步骤5:确保将监视器应用于这三台主机
ceph orch apply mon "{node1},{node2},{node3}"
# 示例--注意:controller 之间不能有空格
ceph orch apply mon "controller1,controller2,controller3"
8.5 部署 osd 节点
步骤一: 增加节点到集群
ceph orch host add {node2}
ceph orch host add {node3}
# 示例
ceph orch host add controller1
ceph orch host add controller2
步骤二:标记 osd 节点
ceph orch host add {node1} osd
ceph orch host add {node2} osd
# 示例
ceph orch host add controller1 osd
ceph orch host add controller2 osd
步骤三:查看标记结果
ceph orch host ls
# 正常结果如下:
HOST ADDR LABELS STATUS
controller1 controller1 mon
controller2 controller2 osd mon
controller3 controller3 osd mon
8.6 查看存储节点上所有设备
ceph orch device ls
注意事项:
- Ceph拒绝在不可用的设备上配置OSD,满足以下所有条件,则认为存储设备可用:
- 设备必须没有分区。
- 设备不得具有任何LVM状态。
- 不得安装设备。
- 该设备不得包含文件系统。
- 该设备不得包含Ceph BlueStore OSD。
- 设备必须大于5 GB。
8.7 部署 OSD
ceph orch daemon add osd {node1}:/dev/sdb
ceph orch daemon add osd {node2}:/dev/sdb
ceph orch daemon add osd {node3}:/dev/sdb
ceph orch daemon add osd {node1}:/dev/sdc
ceph orch daemon add osd {node2}:/dev/sdc
ceph orch daemon add osd {node3}:/dev/sdc
ceph orch daemon add osd {node1}:/dev/sdd
ceph orch daemon add osd {node2}:/dev/sdd
ceph orch daemon add osd {node3}:/dev/sdd
Ceph 相关操作
查看 ceph 状态
ceph -s
# 正常如下:
cluster:
id: f2024656-3082-11ec-a2b1-1d2be083b36b
health: HEALTH_OK ###### HEALTH_OK 是正常状态
services:
mon: 3 daemons, quorum controller1,controller3,controller2 (age 3h)
mgr: controller1.fkiash(active, since 3h), standbys: controller2.znlcmv
osd: 9 osds: 9 up (since 49m), 9 in (since 49m)
data:
pools: 1 pools, 1 pgs
objects: 0 objects, 0 B
usage: 9.1 GiB used, 891 GiB / 900 GiB avail
pgs: 1 active+clean
查看 ceph pool
ceph osd lspools
参考文章
标签:ceph,Ubuntu,host,Ceph,add,mon,orch,Linux,osd 来源: https://www.cnblogs.com/FutureHolmes/p/15424559.html