首页 > TAG信息列表 > bluestore

Ceph 存储集群配置之存储设备

有两个 Ceph 守护进程在设备上存储数据: Ceph OSD(或对象存储守护进程)是 Ceph 中大部分数据的存储位置。一般来说,每个 OSD 都由单个存储设备支持,例如传统硬盘 (HDD) 或固态硬盘 (SSD)。OSD 也可以由设备组合支持,例如用于大多数数据的 HDD 和用于某些元数据的 SSD(或 SSD 的分区)。集

Ceph集群osd热插拔后飘盘无法启动问题--bluestore

问题说明 ​ Ceph集群环境(OSD类型为bluestore)中进行热插拔OSD磁盘的测试场景,有时会出现热插拔磁盘盘符漂移导致OSD服务无法正常启动,因而OSD无法上线的情况。 问题分析 ​ 查看无法上线的OSD目录发现wal、db分区的软连接建立的盘符还是之前的,所以导致OSD无法启动。 (使用lvs

ceph bluestore 写操作源码分析(上)

    参考资料 1. ceph bluestore 写操作源码分析(上) 2. ceph bluestore中的磁盘空间管理

ceph(luminous)-Bluestore,更换ssd和wal位置(不改变大小)_pyrl的博客-程序员秘密

简介 随着业务的增长,osd中数据很多,如果db或者wal设备需要更换,删除osd并且新建osd会引发大量迁移。 本文主要介绍需要更换db或者wal设备时(可能由于需要更换其他速度更快的ssd;可能时这个db的部分分区损坏,但是db或者wal分区完好,所以需要更换),如何只更换db或者wal设备,减少数据迁移(不

BlueStore checksum机制

BlueStore checksum机制1.checksum的计算2.checksum的验证 BlueStore 磁盘静默数据损坏分析 fsck过程中发现磁盘数据静默错误 clone操作 read操作 write操作 Gc操作 实际场景1.腾讯场景问题确认2.rbd mirror3.rbd export import4.集群扩容 BlueStore checksum机制 Bluestore的che

ceph bluefs

                                                           一场由 mon_osd_full_ratio参数引发的辛酸史!! 【背       景】 :   在ceph 12.2.XXX集群中把mon_osd_full_ratio设置为99%以后,当磁盘空间使用率达到此报停水位后,集群并没有报停,而

[ Ceph ] 分布式存储系统 Ceph 后端存储引擎说明

前言 在知乎看到一篇介绍 Ceph 后端存储引擎的文章 【分布式存储系统Ceph的后端系统引擎研究】分析的非常到位,对理解Ceph 后端存储引擎有非常大的帮助。本篇主要围绕这篇文章来学习,并写出自己想理解和补充说明。 Ceph是一个可靠的、自治的、可扩展的分布式存储系统,它支持文件系统

Ceph 十年演进的经验教训 —— 磁盘文件系统并不适合作为分布式存储后端

十年来之不易的经验教训总结成了17页的论文(除去参考文献有13页),完整的 PDF 可以从这里下载。这篇论文可以大大的节省你研究的时间,同时也是一个分布式存储系统研究非常好的例子。在这个例子中,我们明确整个分布式存储系统是基于操作系统原生的文件系统之上。而由于种种的问题,Ceph

bluestore处理非chunk对齐小写时的模式说明

文章目录第一部分:原理介绍 第一部分:原理介绍 环境介绍: EC模式 2+1 dd if=/dev/zero of=file bs=6k count=10 oflag=direct 6k IO拆分成3k到每个osd上,补齐到bdev_size(4k)后执行write 1、第一次写 new Blob(Blob1), 从磁盘中alloc blob(blob1 大小为min_alloc_size 64k) 3k的