首页 > TAG信息列表 > 1.00000

ceph 009 管理定义crushmap 故障域

管理和自定义crushmap 定义pg到osd的映射关系 通过crush算法使三副本映射到理想的主机或者机架 更改故障域提高可靠性 pg到osd映射由crush实现 下载时需要将对象从osd搜索到,组成文件,那么对象多了就会效率变低,那么从pg组里面搜索。提高效率 对象放在pg要通过hash算法 95个pg / 10

CRUSHMAP详解

  CRUSH的全称是Controlled Replication Under Scalable Hashing,是ceph数据存储的分布式选择算法,也是ceph存储引擎的核心。 ceph的客户端在往集群里读写数据时,动态计算数据的存储位置。这样ceph就无需维护一个叫metadata的东西,从而提高性能。 ceph分布式存储有关键的3R: Replicat

修改crushmap实验

    CRUSH的全称是Controlled Replication Under Scalable Hashing,是ceph数据存储的分布式选择算法,也是ceph存储引擎的核心。 ceph的客户端在往集群里读写数据时,动态计算数据的存储位置。这样ceph就无需维护一个叫metadata的东西,从而提高性能。 ceph分布式存储有关键的3R: Repli

Ceph集群osd热插拔后飘盘无法启动问题--bluestore

问题说明 ​ Ceph集群环境(OSD类型为bluestore)中进行热插拔OSD磁盘的测试场景,有时会出现热插拔磁盘盘符漂移导致OSD服务无法正常启动,因而OSD无法上线的情况。 问题分析 ​ 查看无法上线的OSD目录发现wal、db分区的软连接建立的盘符还是之前的,所以导致OSD无法启动。 (使用lvs

Ceph-OSD基本操作

1 介绍 ​ OSD是ceph集群中的一个角色,全称为Object Storage Device,负责响应客户端请求返回具体数据的进程,一个ceph集群中一般有多个OSD。 ​ 本文章主要讲的是一些关于OSD的基本操作命令。 2 常用操作 2.1 查看OSD状态 $ ceph osd stat 3 osds: 3 up, 3 in 状态说明: ● 集群内

分布式存储Ceph(九) ceph集群crush进阶使用

九 ceph集群crush进阶使用 9.1 ceph集群运行图 ceph集群中由mon服务器维护的五种运行图: Monitor map #监视器运行图; OSD map #OSD运行图; PG map #PG运行图; Crush map (Controllers replication under scalable hashing) # 可控的、可复制的、可伸缩的一致性hash算法,crush运行图,

Python实现点与点、点与线的批量近邻匹配(TransBigData)

近邻匹配 Python的TransBigData包提供了点与点、点与线的近邻匹配算法,下面的案例展示如何用TransBigData包进行点与点、点与线的近邻匹配。该方法使用的是KDTree算法,可查看wiki:https://en.wikipedia.org/wiki/K-d_tree,算法复杂度为o(log(n)) 点与点匹配(DataFrame与DataFrame) 导

Ceph之osd扩容和换盘

目录一、osd扩容1.1 osd横向扩容(scale out)1.2 osd纵向扩容(scale up)1.2.1 清理磁盘数据1.2.2 加入新的osd1.2.3 确认ods已扩容1.3 ceph osd数据重新分布1.3.1 临时关闭rebalance1.3.2 开启rebalance二、osd缩容2.1 剔除osd节点 一、osd扩容 1.1 osd横向扩容(scale out) 简单理解,横向

ceph 运维操作-OSD

1.说明1.1介绍OSD全称Object Storage Device,也就是负责响应客户端请求返回具体数据的进程。一个Ceph集群一般都有很多个OSD。2. 常用操作2.1 查看osd状态$ ceph osd stat 5 osds: 5 up, 5 in状态说明:集群内(in)集群外(out)活着且在运行(up)挂了且不再运行(down)说明:如果OSD

openstack高可用集群21-高性能云硬盘与SSD云硬盘的实现

本例子ceph N版本采用的是bluestore,而不是filestore. 生产环境有ssd可以直接认到并自动创建ssd class, 修改前集群拓扑: # ceph osd tree ID  CLASS WEIGHT   TYPE NAME                      STATUS REWEIGHT PRI-AFF -40       58.21582 root

ceph 纵向扩容 nautilus版本

零 修订记录 序号 修订内容 修订时间 1 新增 2021/2/6 一 摘要 前文linux 基于三台物理机安装ceph nautilus 介绍了 ceph 在centos 7.6 上的安装。 ceph nautilus 横向扩容 介绍了ceph 横向扩容,本文在此两篇基础上 在介绍纵向扩容 二 环境信息 主机名 状态 IP 磁盘

LeetCode 399. 除法求值

题目描述 给出方程式 A / B = k, 其中 A 和 B 均为用字符串表示的变量, k 是一个浮点型数字。根据已知方程式求解问题,并返回计算结果。如果结果不存在,则返回 -1.0。 输入总是有效的。你可以假设除法运算中不会出现除数为 0 的情况,且不存在任何矛盾的结果。 示例1: 输入:equation

ceph手动安装

本文主要讲述在无外网条件下安装ceph存储集群的过程。具体的安装环境如下: [root@ceph001-node1 /]# lsb_release -a LSB Version: :core-4.1-amd64:core-4.1-noarch Distributor ID: CentOS Description: CentOS Linux release 7.1.1503 (Core) Release: 7.1.1503 C

SUSE Ceph 增加节点、减少节点、 删除OSD磁盘等操作 - Storage6

 一、测试环境描述 之前我们已快速部署好一套Ceph集群(3节点),现要测试在现有集群中在线方式增加节点 如下表中可以看到增加节点node004具体配置 主机名 Public网络 管理网络 集群网络 说明 admin 192.168.2.39 172.200.50.39 --- 管理节点 node001

(7)ceph 2 pgs inconsistent故障

[root@node141 ~]# ceph health detailHEALTH_ERR 2 scrub errors; Possible data damage: 2 pgs inconsistentOSD_SCRUB_ERRORS 2 scrub errorsPG_DAMAGED Possible data damage: 2 pgs inconsistentpg 3.3e is active+clean+inconsistent, acting [11,17,4]pg 3.42 is activ

(6)ceph集群osd down 故障处理

(1)查看集群状态,发现2个osd 状态为down [root@node140 /]# ceph -s cluster: id: 58a12719-a5ed-4f95-b312-6efd6e34e558 health: HEALTH_ERR noout flag(s) set 2 osds down 1 scrub errors Possible data damage:

ceph命令拷屏

  常用命令ceph dfceph featuresceph fs lsceph fs statusceph fsidceph healthceph -sceph statusceph mgr module lsceph mgr module enable dashboardceph mgr servicesceph mon feature lsceph node lsceph osd crush rule lsceph osd crush rule dumpceph osd df treeceph os

kubernetes 集群机器重启后磁盘盘符变化

1.[root@pserver78 ~]# kubectl -n rook-ceph exec -it rook-ceph-tools-c95b8496b-g4stp -- ceph osd tree ID CLASS WEIGHT TYPE NAME STATUS REWEIGHT PRI-AFF -1 2.43996 root default -4 0.48799 host pserver109

【线性回归】生产应用中使用线性回归进行实际操练

前提:本文中使用的算法是在《【线性回归】多元线性回归函数在Octave中的实现(二)》中进行描述。 命题: 根据生产环境的中的用户功能使用情况,来推断接下来的用户使用量。 使用数据如下: x = 1 2 3 4 5 6 7 8 9 10 11 12 13 14