首页 > TAG信息列表 > CRUSH
rpm 安装ceph
环境准备 1、在运行 Ceph 守护进程的节点上创建一个普通用户,ceph-deploy 会在节点安装软件包,所以你创建的用户需要无密码 sudo 权限。如果使用root可以忽略。为赋予用户所有权限,把下列加入 /etc/sudoers.d/ceph echo "ceph ALL = (root) NOPASSWD:ALL" | tee /etc/sudoers.d/cep这是一个雨天在公园里遇见的crush。
下午五点,我戴着耳机,享受寥寥无人的幽静。空气潮湿,还有点闷热,太阳稍稍露出些光。 我特意绕道平时不常走的小径,随手拍几张滴水的松针,或者神似江南的斑驳的院墙,不知不觉走了大半个园子。 空地上是锻炼的老大爷,跑来跑去的小孩子,前面凭空出现一个他。 一身黑色,看起来平ceph-crush map区分ssd和hdd资源池
环境 3块SSD 6块HDD # ceph -s cluster: id: b4c125fd-60ab-41ce-b51c-88833089a3ad health: HEALTH_OK services: mon: 3 daemons, quorum node1,node2,node3 (age 47m) mgr: node1(active, since 56m), standbys: node2, node3 osd: 9 osds:不讲CRUSH的Ceph教程是不完整的
前面我们提到了Ceph是一个支持统一存储架构的分布式存储服务。简单介绍了Ceph的基本概念和基础架构包含的组件,其中最重要的就是底层的RADOS和它的两类守护进程OSD and Monitor。上篇文章我们还挖了一个坑,我们提到了CRUSH。 是的,我们这篇教程就是一篇不完整的Ceph教材,因为我们讲CRCeph 数据放置概述
Ceph 在 RADOS 集群中动态存储、复制和重新平衡数据对象。由于许多不同的用户在无数 OSD 上出于不同目的将对象存储在不同的池中,因此 Ceph 操作需要一些数据放置规划。Ceph 中主要的数据放置规划概念包括: Pools(池): Ceph 将数据存储在池中,池是用于存储对象的逻辑组。池管理归置组Ceph 调整crush map
1、前言 本文章适用于ceph n版 2、示例 1、创建新的replicated ####命令模板###### ceph osd crush rule create-replicated <rule-name> <root> <failure-domain> <class> ###################示例##### ceph osd crush rule create-replicated ssd-rule dCeph学习笔记(2)- CRUSH数据分布算法
前言: 分布式存储系统需要让数据均匀的分布在集群中的物理设备上,同时在新设备加入,旧设备退出之后让数据重新达到平衡状态尤为重要。新设备加入后,数据要从不同的老设备中迁移过来。老设备退出后,数据迁移分摊到其他设备。将文件、块设备等数据分片,经过哈希,然后写入不同的设ceph Crush map
Crush map CRUSH map采用树状结构,最小叶子节点就是真实物理磁盘称为device,中间节点称为bucket,每个bucket可以是device集合,也可以是低一级的bucket集合,最上面还有一个root节点,代表集群的入口 CRUSH hierarchy(层次结构):树型结构目录,决定故障域的范围(11个层级) CRUSH ruCeph Pool&PG&CRUSH 设置
当用户在 Ceph 存储集群中创建 POOL ,并为 POOL PG 时,如果用户 未指定具体的参数值,则 Ceph 使用配置文件中的默认值来创建 POOL 和设置 PG 数目。 通常情况下,建议用户根据实际情况在配置文件中自定义 POOL 的对象副本数目 osd pool default size osd pool default min size )ceph crush进阶
ceph 集群中由mon服务器维护的5中运行图 monitor负责监控整个集群的监控状态,以及维护集群成员关系状态、对等节点的状态,和集群的配置信息等。Ceph monitor通过维护cluster map的主复制来实现这些功能。 1,monitor map: 它包含监视节点端到端的信息,包括Ceph集群ID、monitor节点名分布式存储Ceph(九) ceph集群crush进阶使用
九 ceph集群crush进阶使用 9.1 ceph集群运行图 ceph集群中由mon服务器维护的五种运行图: Monitor map #监视器运行图; OSD map #OSD运行图; PG map #PG运行图; Crush map (Controllers replication under scalable hashing) # 可控的、可复制的、可伸缩的一致性hash算法,crush运行图,一键三联糖果粉碎723. Candy Crush
This question is about implementing a basic elimination algorithm for Candy Crush. Given an m x n integer array board representing the grid of candy where board[i][j] represents the type of candy. A value of board[i][j] == 0 represents that the cell i2021SC@SDUSC 山大智云6.分析ceph的结构
因为后面项目的配置要用到ceph系统,所以在此分析结构 Ceph在一个统一的系统中提供对象、块和文件存储。 这是每个存储功能的特性 ceph具有高可靠、管理简单,并且是开源软件。 ceph的结构 如上图所示,对象存储功能基于RADOSGW实现,块存储基于RBD实现,文件存储基于CEPHFS实现。LIE2021.10.11
“关山难越,谁悲失路之人?萍水相逢,尽是他乡之客。怀帝阍而不见,奉宣室以何年?”——王勃《滕王阁序》 时隔两年,我又陷入到狂热的crush中。 刘瑜:”当crush来临的时候,放纵它,但无需试图抓住它,把它的头强行按到爱情的粮草当中去。你迷恋这份幻想,但也停留在这份幻想。你看着手中的那根火柴,一、Ceph的工作原理
1、什么是Ceph Ceph是⼀种为优秀的性能、可靠性和可扩展性⽽设计的统⼀的、分布式的存储系统。 可同时提供三种接⼝: Object:也称为基于对象的存储,其中的文件被拆分成多个部分并散布在多个存储服务器,在对象存储中,数据会被分解为称为“对象”的离散单元,并保存在单个存储库中,而不是Ceph rbd的寻址(rbd块文件的下载)
1. Ceph rbd 与 rgw的寻址(rbd块/对象存储文件的下载) 1.1. 索引的存储1.2. rbd 的寻址1.3. 小笔记1.4. rgw的寻址1.5. 数据恢复思路 1.5.1. 场景1.5.2. 思路 1. Ceph rbd 与 rgw的寻址(rbd块/对象存储文件的下载) 1.1. 索引的存储 ceph的索引都存储在omap中 rbd – 每个rbceph运维
osd的扩容和换盘 横向扩容(扩容节点) 扩展mds: 需要将扩容的节点上安装ceph所需要的包,然后将节点加入到集群中,在新节点安装ceph,ceph版本必须与原集群版本一致 yum -y install ceph rpm -qa | egrep -i “ceph|rados|rbd” ceph -v 管理节点复制配置文件和密钥到新增节点 [rooCEPH 中移除或替换一个损坏的OSD
1. 使用 ceph osd tree 查看 , 2. 开始尝试将 osd.3 替换掉,将osd 设置为down。 先将osd.3 设置为 down 状态,下面命令必须在osd.3 所在的主机上执行。 systemctl stop ceph-osd@3.service 3. 执行 Ceph osd out osd.3 这样 reweight 设置为0CRUSH数据分布算法
placement rule Cluster Map反映了存储系统层级的物理拓扑结构,placement Rules决定了了一个PG的对象副本如何选择的规则,通过这些自己设定的规则,用户可以设定副本在集群中的分布,其定义格式如下: rule <rulename> { ruleset <ruleset> type [replicated|erasu激动人心!Ceph新长支持稳定版本Luminous(12.x.x)有那些新功能
通用功能:目前,Ceph拥有一个操作简单,基于Web的内置仪表板,用于监控群集状态。(Ceph Dashboard具体可以参阅Ceph官网中文文档:Ceph luminous 新功能之内置dashboard)RADOS:BlueStore:ceph-osd的新后端存储BlueStore已经稳定,是新创建的OSD的默认设置。 BlueStore通过直接管理物理HDD或SSD而ceph Crush map
Crush map CRUSH map采用树状结构,最小叶子节点就是真实物理磁盘称为device,中间节点称为bucket,每个bucket可以是device集合,也可以是低一级的bucket集合,最上面还有一个root节点,代表集群的入口 CRUSH hierarchy(层次结构):树型结构目录,决定故障域的范围(11个层级)CRUSH rule(规则):CRUSHceph 运维操作-CRUSH MAP
1. 介绍CRUSH 算法通过计算数据存储位置来确定如何存储和检索。 CRUSH 授权 Ceph 客户端直接连接 OSD , 而非通过一个中央服务器或代理。数据存储、检索算法的使用,使 Ceph 避免了单点故障、性能瓶颈、和伸缩的物理限制。CRUSH 需要一张集群的 Map,且使用 CRUSH Map 把数据伪随机地、ceph 运维操作-OSD
1.说明1.1介绍OSD全称Object Storage Device,也就是负责响应客户端请求返回具体数据的进程。一个Ceph集群一般都有很多个OSD。2. 常用操作2.1 查看osd状态$ ceph osd stat 5 osds: 5 up, 5 in状态说明:集群内(in)集群外(out)活着且在运行(up)挂了且不再运行(down)说明:如果OSDceph更换硬盘操作步骤
ceph换盘1、手动删除osd,下面以osd1为例停止服务 # systemctl stop ceph-osd@1 从crush map中移除osd # ceph osd out osd.1 # ceph osd crush remove osd1 删除认证信息 # ceph auth del osd.1 删除osd # ceph osd rm 1 2、更换硬盘略 3、添加osd(在ceph-deploy节点的ceph安装Ceph删除OSD和Host的正确方法
Ceph删除OSD和Host的正确方法 1. 删除OSD (以删除osd.6为例) 查看Ceph osd相关信息 ceph -s # 查看Ceph集群状态,确保为HEALTH_OK ceph osd tree # 查看OSD信息(osd标号、osd权重) ceph osd dump | grep ^osd # 查看OSD信息 降osd权重为0 先降低osd权重为0,让该osd上的数据自动