首页 > TAG信息列表 > Crush

rpm 安装ceph

环境准备 1、在运行 Ceph 守护进程的节点上创建一个普通用户,ceph-deploy 会在节点安装软件包,所以你创建的用户需要无密码 sudo 权限。如果使用root可以忽略。为赋予用户所有权限,把下列加入 /etc/sudoers.d/ceph echo "ceph ALL = (root) NOPASSWD:ALL" | tee /etc/sudoers.d/cep

这是一个雨天在公园里遇见的crush。

      下午五点,我戴着耳机,享受寥寥无人的幽静。空气潮湿,还有点闷热,太阳稍稍露出些光。 我特意绕道平时不常走的小径,随手拍几张滴水的松针,或者神似江南的斑驳的院墙,不知不觉走了大半个园子。     空地上是锻炼的老大爷,跑来跑去的小孩子,前面凭空出现一个他。 一身黑色,看起来平

ceph-crush map区分ssd和hdd资源池

环境 3块SSD 6块HDD # ceph -s cluster: id: b4c125fd-60ab-41ce-b51c-88833089a3ad health: HEALTH_OK services: mon: 3 daemons, quorum node1,node2,node3 (age 47m) mgr: node1(active, since 56m), standbys: node2, node3 osd: 9 osds:

不讲CRUSH的Ceph教程是不完整的

前面我们提到了Ceph是一个支持统一存储架构的分布式存储服务。简单介绍了Ceph的基本概念和基础架构包含的组件,其中最重要的就是底层的RADOS和它的两类守护进程OSD and Monitor。上篇文章我们还挖了一个坑,我们提到了CRUSH。 是的,我们这篇教程就是一篇不完整的Ceph教材,因为我们讲CR

Ceph 数据放置概述

Ceph 在 RADOS 集群中动态存储、复制和重新平衡数据对象。由于许多不同的用户在无数 OSD 上出于不同目的将对象存储在不同的池中,因此 Ceph 操作需要一些数据放置规划。Ceph 中主要的数据放置规划概念包括: Pools(池): Ceph 将数据存储在池中,池是用于存储对象的逻辑组。池管理归置组

Ceph 调整crush map

    1、前言   本文章适用于ceph n版     2、示例   1、创建新的replicated   ####命令模板###### ceph osd crush rule create-replicated <rule-name> <root> <failure-domain> <class> ###################示例##### ceph osd crush rule create-replicated ssd-rule d

Ceph学习笔记(2)- CRUSH数据分布算法

    前言: ​ 分布式存储系统需要让数据均匀的分布在集群中的物理设备上,同时在新设备加入,旧设备退出之后让数据重新达到平衡状态尤为重要。新设备加入后,数据要从不同的老设备中迁移过来。老设备退出后,数据迁移分摊到其他设备。将文件、块设备等数据分片,经过哈希,然后写入不同的设

ceph Crush map

    Crush map CRUSH map采用树状结构,最小叶子节点就是真实物理磁盘称为device,中间节点称为bucket,每个bucket可以是device集合,也可以是低一级的bucket集合,最上面还有一个root节点,代表集群的入口 CRUSH hierarchy(层次结构):树型结构目录,决定故障域的范围(11个层级) CRUSH ru

Ceph Pool&PG&CRUSH 设置

    当用户在 Ceph 存储集群中创建 POOL ,并为 POOL PG 时,如果用户 未指定具体的参数值,则 Ceph 使用配置文件中的默认值来创建 POOL 和设置 PG 数目。 通常情况下,建议用户根据实际情况在配置文件中自定义 POOL 的对象副本数目 osd pool default size osd pool default min size )

ceph crush进阶

ceph 集群中由mon服务器维护的5中运行图  monitor负责监控整个集群的监控状态,以及维护集群成员关系状态、对等节点的状态,和集群的配置信息等。Ceph monitor通过维护cluster map的主复制来实现这些功能。 1,monitor map: 它包含监视节点端到端的信息,包括Ceph集群ID、monitor节点名

分布式存储Ceph(九) ceph集群crush进阶使用

九 ceph集群crush进阶使用 9.1 ceph集群运行图 ceph集群中由mon服务器维护的五种运行图: Monitor map #监视器运行图; OSD map #OSD运行图; PG map #PG运行图; Crush map (Controllers replication under scalable hashing) # 可控的、可复制的、可伸缩的一致性hash算法,crush运行图,

一键三联糖果粉碎723. Candy Crush

This question is about implementing a basic elimination algorithm for Candy Crush. Given an m x n integer array board representing the grid of candy where board[i][j] represents the type of candy. A value of board[i][j] == 0 represents that the cell i

2021SC@SDUSC 山大智云6.分析ceph的结构

因为后面项目的配置要用到ceph系统,所以在此分析结构 Ceph在一个统一的系统中提供对象、块和文件存储。 这是每个存储功能的特性 ceph具有高可靠、管理简单,并且是开源软件。 ceph的结构 如上图所示,对象存储功能基于RADOSGW实现,块存储基于RBD实现,文件存储基于CEPHFS实现。LIE

2021.10.11

“关山难越,谁悲失路之人?萍水相逢,尽是他乡之客。怀帝阍而不见,奉宣室以何年?”——王勃《滕王阁序》 时隔两年,我又陷入到狂热的crush中。 刘瑜:”当crush来临的时候,放纵它,但无需试图抓住它,把它的头强行按到爱情的粮草当中去。你迷恋这份幻想,但也停留在这份幻想。你看着手中的那根火柴,

一、Ceph的工作原理

1、什么是Ceph Ceph是⼀种为优秀的性能、可靠性和可扩展性⽽设计的统⼀的、分布式的存储系统。 可同时提供三种接⼝: Object:也称为基于对象的存储,其中的文件被拆分成多个部分并散布在多个存储服务器,在对象存储中,数据会被分解为称为“对象”的离散单元,并保存在单个存储库中,而不是

Ceph rbd的寻址(rbd块文件的下载)

1. Ceph rbd 与 rgw的寻址(rbd块/对象存储文件的下载) 1.1. 索引的存储1.2. rbd 的寻址1.3. 小笔记1.4. rgw的寻址1.5. 数据恢复思路 1.5.1. 场景1.5.2. 思路 1. Ceph rbd 与 rgw的寻址(rbd块/对象存储文件的下载) 1.1. 索引的存储 ceph的索引都存储在omap中 rbd – 每个rb

ceph运维

osd的扩容和换盘 横向扩容(扩容节点) 扩展mds: 需要将扩容的节点上安装ceph所需要的包,然后将节点加入到集群中,在新节点安装ceph,ceph版本必须与原集群版本一致 yum -y install ceph rpm -qa | egrep -i “ceph|rados|rbd” ceph -v 管理节点复制配置文件和密钥到新增节点 [roo

CEPH 中移除或替换一个损坏的OSD

1. 使用 ceph osd tree 查看 ,   2. 开始尝试将 osd.3  替换掉,将osd 设置为down。     先将osd.3 设置为 down 状态,下面命令必须在osd.3 所在的主机上执行。     systemctl stop ceph-osd@3.service          3. 执行 Ceph osd out osd.3  这样 reweight 设置为0

CRUSH数据分布算法

        placement rule  Cluster Map反映了存储系统层级的物理拓扑结构,placement Rules决定了了一个PG的对象副本如何选择的规则,通过这些自己设定的规则,用户可以设定副本在集群中的分布,其定义格式如下: rule <rulename> { ruleset <ruleset> type [replicated|erasu

激动人心!Ceph新长支持稳定版本Luminous(12.x.x)有那些新功能

通用功能:目前,Ceph拥有一个操作简单,基于Web的内置仪表板,用于监控群集状态。(Ceph Dashboard具体可以参阅Ceph官网中文文档:Ceph luminous 新功能之内置dashboard)RADOS:BlueStore:ceph-osd的新后端存储BlueStore已经稳定,是新创建的OSD的默认设置。 BlueStore通过直接管理物理HDD或SSD而

ceph Crush map

Crush map CRUSH map采用树状结构,最小叶子节点就是真实物理磁盘称为device,中间节点称为bucket,每个bucket可以是device集合,也可以是低一级的bucket集合,最上面还有一个root节点,代表集群的入口 CRUSH hierarchy(层次结构):树型结构目录,决定故障域的范围(11个层级)CRUSH rule(规则):CRUSH

ceph 运维操作-CRUSH MAP

1. 介绍CRUSH 算法通过计算数据存储位置来确定如何存储和检索。 CRUSH 授权 Ceph 客户端直接连接 OSD , 而非通过一个中央服务器或代理。数据存储、检索算法的使用,使 Ceph 避免了单点故障、性能瓶颈、和伸缩的物理限制。CRUSH 需要一张集群的 Map,且使用 CRUSH Map 把数据伪随机地、

ceph 运维操作-OSD

1.说明1.1介绍OSD全称Object Storage Device,也就是负责响应客户端请求返回具体数据的进程。一个Ceph集群一般都有很多个OSD。2. 常用操作2.1 查看osd状态$ ceph osd stat 5 osds: 5 up, 5 in状态说明:集群内(in)集群外(out)活着且在运行(up)挂了且不再运行(down)说明:如果OSD

ceph更换硬盘操作步骤

ceph换盘1、手动删除osd,下面以osd1为例停止服务 # systemctl stop ceph-osd@1 从crush map中移除osd # ceph osd out osd.1 # ceph osd crush remove osd1   删除认证信息 # ceph auth del osd.1 删除osd # ceph osd rm 1 2、更换硬盘略 3、添加osd(在ceph-deploy节点的ceph安装

Ceph删除OSD和Host的正确方法

Ceph删除OSD和Host的正确方法 1. 删除OSD (以删除osd.6为例) 查看Ceph osd相关信息 ceph -s # 查看Ceph集群状态,确保为HEALTH_OK ceph osd tree # 查看OSD信息(osd标号、osd权重) ceph osd dump | grep ^osd # 查看OSD信息 降osd权重为0 先降低osd权重为0,让该osd上的数据自动