首页 > TAG信息列表 > rbd
nomad-rbd扩容脚本
#!/bin/bash ## rbd-expand.sh # 获取单位 unit=`echo $2 | tr -d "[0-9]"` # 获取数字 number=`echo $2 | tr -cd "[0-9]"` [[ $unit =~ G ]] && VSIZE=`echo $number*1024 | bc` [[ $unit =~ T ]] && VSIZE=`echo $number*1024*1024 | bck8s对接Ceph实现持久化存储(16)
一、Ceph简介 官网:https://ceph.com/en/ https://docs.ceph.com/en/latest/start/intro/ ceph 是一种开源的分布式的存储系统 包含以下几种存储类型: 块存储(rbd),对象存储(RADOS Fateway),文件系统(cephfs) 块存储(rbd): 块是一个字节序列(例如,512 字节的数据块)。 基于块rbd创建快照
k8s pvc扩容
#查看是否支持扩容 $ kubectl get sc ** -o yaml ··· allowVolumeExpansion: true #拥有该字段表示允许动态扩容 ··· #找到需要扩容的pvc $ kubectl get pvc NAME STATUS VOLUME CAPACITY ACCESS MODES STORAGECLASS AGk8s 使用ceph
Ceph 块存储客户端通过内核模块或librbd库与 Ceph 集群通信。 块存储 与k8s https://docs.ceph.com/en/latest/rbd/rbd-kubernetes/ 试验步骤 创建存储池 ceph osd pool create kubernetes 32 32 为存储池开启rbd功能 ceph osd pool application enable kubernetes rbd 初始化CEPHADM 操作之客户端密钥环和配置
Cephadm 可以将ceph.conf文件和客户端密钥环文件的副本分发到主机。通常最好将配置和密钥环的副本存储在 client.admin 用于通过 CLI 管理集群的任何主机上。默认情况下,cephadm 对任何具有 _admin 标签的节点(通常包括引导主机)执行此操作。 当客户端密钥环被置于管理之下时,cephadm一文了解如何源码编译Rainbond基础组件
Rainbond 主要由以下三个项目组成,参考官网详细 技术架构 业务端 Rainbond-UI 和 Rainbond-Console 合起来构成了业务层。业务层是前后端分离模式。UI是业务层的前端代码,Console是业务层的后端代码。 Rainbond-UI https://github.com/goodrain/rainbond-ui Rainbond-Console htt一文了解如何源码编译Rainbond基础组件
Rainbond 主要由以下三个项目组成,参考官网详细 技术架构 业务端 Rainbond-UI https://github.com/goodrain/rainbond-ui Rainbond-Console https://github.com/goodrain/rainbond-console Rainbond-UI 和 Rainbond-Console 合起来构成了业务层。业务层是前后端分离模式。UI在Mac上运行Rainbond,10分钟快速安装
前言 以往安装部署 Rainbond 的方式都无法绕过 Kubernetes 集群的搭建,无论是作为开发环境还是用于生产交付,部署的过程都非常依赖于服务器或云主机。这在体验 Rainbond 云原生应用管理平台的过程中设置了较高的门槛。然而对于个人开发者而言,准备一台服务器甚至多台服务器,才可OpenStack使用Ceph存储,Ceph到底做了什么?
1 背景知识 1.1 Ceph简介 Ceph是当前非常流行的开源分布式存储系统,具有高扩展性、高性能、高可靠性等优点,同时提供块存储服务(rbd)、对象存储服务(rgw)以及文件系统存储服务(cephfs)。目前也是OpenStack的主流后端存储,和OpenStack亲如兄弟,为OpenStack提供统一共享存储服安装ceph (快速) 步骤三: Ceph 客户端
大多数 Ceph 用户不会直接往 Ceph 存储集群里存储对象,他们通常会使用 Ceph 块设备、 Ceph 文件系统、或 Ceph 对象存储这三大功能中的一个或多个。 前提条件 先完成存储集群快速入门 ,并确保 Ceph 存储集群处于 active + clean 状态,这样才能使用 Ceph 块设备。 Ceph 块设备也叫 RBk8s集成ceph(StorageClass方式)
ceph 集群创建存储池 ceph osd pool create k8s 128 128 获取 key $ ceph auth get-key client.admin | base64 QVFEMjVxVmhiVUNJRHhBQUxwdmVHbUdNTWtXZjB6VXovbWlBY3c9PQ== k8s 集群节点安装 ceph-common,版本需和 ceph 集群一致 rpm -ivh http://download.ceph.com/rpm-lceph块存储场景
1、创建rbd使用的存储池。admin节点需要安装ceph才能使用该命令,如果没有,也可以切换到ceph-node1节点去操作。[cephfsd@ceph-admin ceph]$ ceph osd pool create rbd_data 64 64 pool 'rbd_data' created [cephfsd@ceph-admin ceph]$ rbd pool init rbd_data [cephfsd@ceph-admin c5.3 Ceph存储使用
5.3 Ceph存储使用 在ceph-deploy节点上操作 1 RBD 块存储 (1) RBD介绍RBD即RADOS Block Device的简称,RBD块存储是最稳定且最常用的存储类型。RBD块设备类似磁盘可以被挂载。RBD块设备具有快照、多副本、克隆和一致性等特性,数据以条带化的方式存储在Ceph集群的多个OSD中。如下是对C存储和ceph
存储 DAS(直连存储)ide 线、satu线、sas线 NAS(网络附加存储)Samba、nfs、ftp SAN(存储区域网络)iscsi SDS(软件定义分布式存储网络ceph、glusterfs) 块存储:没格式化的叫块存储 文件存储:格式话的叫文件存储 ceph: 1.ceph是一个分布式文件系统 2.具有高可用、高扩Ceph学习全过程 基于N版
Ceph学习全过程 1.安装ceph 1.1 ceph概述 ceph monitor 客户端从monitor进程获取整个集群得信息,一般确保是奇数个就好,所以要确保它得高可用性。 osd进程 存储数据得地方,osd会定期把状态上报给monitor,monitor也会定期检测osd。 monitor map 记录集群得状况 osd map 对象得副本ceph块存储rbd常用操作
pool状态: ceph df # 查看当前存储的统计信息 ceph osd lspools #查看当前的存储池列表 rbd ls pool-name #查看存储池pool-name中的image列表 rbd info pool-name/image1 #查看image1的详细信息 有关块存储的操作(ceph节点操作): rbd snap create pool-name/image1@image1_snCeph集群里Rbd、Cephfs以及高可用性部署
什么是Ceph FS ? Ceph FS 即 ceph filesystem,可以实现文件系统共享功能,客户端通过 ceph 协议挂载并使用ceph 集群作为数据存储服务器。 Ceph FS 需要运行 Meta Data Services(MDS)服务,其守护进程为 ceph-mds,ceph-mds 进程管理与 cephFS 上存储的文件相关的元数据,并协调对 cephCeph rbd的寻址(rbd块文件的下载)
1. Ceph rbd 与 rgw的寻址(rbd块/对象存储文件的下载) 1.1. 索引的存储1.2. rbd 的寻址1.3. 小笔记1.4. rgw的寻址1.5. 数据恢复思路 1.5.1. 场景1.5.2. 思路 1. Ceph rbd 与 rgw的寻址(rbd块/对象存储文件的下载) 1.1. 索引的存储 ceph的索引都存储在omap中 rbd – 每个rbOpenStack集成Ceph
1. 版本说明2. 前期准备 2.1. 创建keyring2.2. 创建pool2.3. 安装依赖包 3. glance 对接 3.1. glance-api.conf 4. 对接nova 4.1. libvirt配置4.2. nova conf配置 5. 对接cinder 5.1. /etc/cinder/cinder.conf5.2. virsh secret(所有计算节点)5.3. 配置cinder type 6. 测试 6Redis持久化策略
Redis持久化策略 RDB 原理 RDB是redis默认的持久化策略,当redis的“写操作”达到指定次数,且距离上一次持久化达到指定间隔时间,就会将redis内存中的数据生成数据快照,保存到指定的rbd文件中 默认触发条件 900 1 (解释:当操作次数达到一次,900s就会进行一次持久化) 300 10 60 10000Ceph 与 PV/PVC 集成
ceph osd lspools rbd create -p kubernetes --image-feature layering demo-1.img --size 5G rbd -p kubernetes ls mkdir -p /data/pv_pvc cd /data/pv_pvc # 创建 pv.yaml vi pv.yaml apiVersion: v1 kind: PersistentVolume metadata: name: rbd-demo spec: accessCeph put 操作与 Volumes 结合使用
Ceph put 操作 ceph osd pool create mypool 32 32 rados put day.jpg /usr/share/backgrounds/day.jpg -p mypool rados ls -p mypool ceph osd map mypool day.jpg Ceph 与 Volumes 结合使用 mkdir /data/volumes -p cd /data/volumes ceph osd pool create kubernetes 8 cCeph-1
CephFS: 就是当一个文件系统使用 radowgw: 是一个http的api接口 存储池 3种客户端: radowgw , rbd , CephFSCeph RBD块存储 快照创建和克隆
快照其实和虚拟机的快照是一样的,只不过是用一些命令实现的 创建快照 0、创建rbd使用的pool [root@cephnode01 ~]# rbd create --size 10240 image02 rbd: error opening default pool 'rbd' Ensure that the default pool has been created or specify an alternate pool name.