其他分享
首页 > 其他分享> > 2021SC@SDUSC 山大智云6.分析ceph的结构

2021SC@SDUSC 山大智云6.分析ceph的结构

作者:互联网

因为后面项目的配置要用到ceph系统,所以在此分析结构

Ceph在一个统一的系统中提供对象、块和文件存储。

这是每个存储功能的特性
在这里插入图片描述

ceph具有高可靠、管理简单,并且是开源软件。

ceph的结构

在这里插入图片描述

如上图所示,对象存储功能基于RADOSGW实现,块存储基于RBD实现,文件存储基于CEPHFS实现。LIEBRADOS提供了C,C++,Java,Python访问RADOS的支持。同时,存储的底层为RADOS,提供由自愈、自管理、智能存储节点组成的可靠、自治的分布式对象存储。

Ceph存储集群由多种类型的守护进程组成:

·Ceph Monitor:维护集群映射的主副本。Ceph监视器集群可以确保监视器守护进程发生故障时的高可用性。存储集群客户端从Ceph Monitor检索集群映射的副本。

·Ceph OSD Daemon会检查自己的状态和其他OSD的状态,并向监视器报告。

·Ceph Manager充当监视、编排和插件模块的端点。

·Ceph Metadata Server:当使用cephFs提供文件服务时,Ceph元数据服务器(Ceph Metadata Server)负责管理文件元数据。
数据的存储

在这里插入图片描述

OSD把扁平的命名空间内把所有数据存储为对象。对象包含一个标识符,二进制数据,以及由名字/值对组成的元数据
在这里插入图片描述

伸缩性和高可用性

Ceph 消除了集中网关,允许客户端直接和 Ceph OSD 守护进程通讯。 Ceph OSD 守护进程自动在其它 Ceph 节点上创建对象副本来确保数据安全和高可用性;为保证高可用性,监视器也实现了集群化。为消除中心节点, Ceph 使用了 CRUSH 算法。

CRUSH:Ceph 客户端和 OSD 守护进程都用 CRUSH 算法来计算对象的位置信息。CRUSH 的数据管理机制更好,它很干脆地把工作分配给集群内的所有客户端和 OSD 来处理,因此具有极大的伸缩性。 CRUSH 用智能数据复制确保弹性,更能适应超大规模存储。
集群运行图
1.Monitor map:包含集群的 fsid 、位置、名字、地址和端口,也包括当前版本、创建时间、最近修改时间。
2.OSD map:包含集群 fsid 、创建时间、最近修改时间、存储池列表、副本数量、归置组数量、 OSD 列表及其状态
3.PG map:包含归置组版本、其时间戳、最新的 OSD 运行图版本、占满率、以及各归置组详情,像归置组 ID 、 up set 、 acting set 、 PG 状态(如 active+clean ),和各存储池的数据使用情况统计。
4.CRUSH Map:包含存储设备列表、故障域树状结构(如设备、主机、机架、行、房间、等等)、和存储数据时如何利用此树状结构的规则。
5.MDS Map:包含当前 MDS 图的版本、创建时间、最近修改时间,还包含了存储元数据的存储池、元数据服务器列表、还有哪些元数据服务器是 up 且 in 的。

本周因为时间紧张,就看到这里,下周再继续分析。

标签:Ceph,存储,2021SC,山大智云,ceph,集群,CRUSH,数据,OSD
来源: https://blog.csdn.net/curiouity/article/details/121190762