首页 > TAG信息列表 > bluestore
Ceph 存储集群配置之存储设备
有两个 Ceph 守护进程在设备上存储数据: Ceph OSD(或对象存储守护进程)是 Ceph 中大部分数据的存储位置。一般来说,每个 OSD 都由单个存储设备支持,例如传统硬盘 (HDD) 或固态硬盘 (SSD)。OSD 也可以由设备组合支持,例如用于大多数数据的 HDD 和用于某些元数据的 SSD(或 SSD 的分区)。集Ceph集群osd热插拔后飘盘无法启动问题--bluestore
问题说明 Ceph集群环境(OSD类型为bluestore)中进行热插拔OSD磁盘的测试场景,有时会出现热插拔磁盘盘符漂移导致OSD服务无法正常启动,因而OSD无法上线的情况。 问题分析 查看无法上线的OSD目录发现wal、db分区的软连接建立的盘符还是之前的,所以导致OSD无法启动。 (使用lvsceph bluestore 写操作源码分析(上)
参考资料 1. ceph bluestore 写操作源码分析(上) 2. ceph bluestore中的磁盘空间管理ceph(luminous)-Bluestore,更换ssd和wal位置(不改变大小)_pyrl的博客-程序员秘密
简介 随着业务的增长,osd中数据很多,如果db或者wal设备需要更换,删除osd并且新建osd会引发大量迁移。 本文主要介绍需要更换db或者wal设备时(可能由于需要更换其他速度更快的ssd;可能时这个db的部分分区损坏,但是db或者wal分区完好,所以需要更换),如何只更换db或者wal设备,减少数据迁移(不BlueStore checksum机制
BlueStore checksum机制1.checksum的计算2.checksum的验证 BlueStore 磁盘静默数据损坏分析 fsck过程中发现磁盘数据静默错误 clone操作 read操作 write操作 Gc操作 实际场景1.腾讯场景问题确认2.rbd mirror3.rbd export import4.集群扩容 BlueStore checksum机制 Bluestore的checeph bluefs
一场由 mon_osd_full_ratio参数引发的辛酸史!! 【背 景】 : 在ceph 12.2.XXX集群中把mon_osd_full_ratio设置为99%以后,当磁盘空间使用率达到此报停水位后,集群并没有报停,而[ Ceph ] 分布式存储系统 Ceph 后端存储引擎说明
前言 在知乎看到一篇介绍 Ceph 后端存储引擎的文章 【分布式存储系统Ceph的后端系统引擎研究】分析的非常到位,对理解Ceph 后端存储引擎有非常大的帮助。本篇主要围绕这篇文章来学习,并写出自己想理解和补充说明。 Ceph是一个可靠的、自治的、可扩展的分布式存储系统,它支持文件系统Ceph 十年演进的经验教训 —— 磁盘文件系统并不适合作为分布式存储后端
十年来之不易的经验教训总结成了17页的论文(除去参考文献有13页),完整的 PDF 可以从这里下载。这篇论文可以大大的节省你研究的时间,同时也是一个分布式存储系统研究非常好的例子。在这个例子中,我们明确整个分布式存储系统是基于操作系统原生的文件系统之上。而由于种种的问题,Cephbluestore处理非chunk对齐小写时的模式说明
文章目录第一部分:原理介绍 第一部分:原理介绍 环境介绍: EC模式 2+1 dd if=/dev/zero of=file bs=6k count=10 oflag=direct 6k IO拆分成3k到每个osd上,补齐到bdev_size(4k)后执行write 1、第一次写 new Blob(Blob1), 从磁盘中alloc blob(blob1 大小为min_alloc_size 64k) 3k的