我是靠谱客的博主 动听楼房,这篇文章主要介绍【ceph的通用解决方案】-ceph双副本如何保证宕机数据的安全性,现在分享给大家,希望可以做个参考。

作者:【吴业亮】
博客:https://wuyeliang.blog.csdn.net/

开篇:
目前企业的业务场景多种多样,并非所有Ceph存储解决方案都是相同的,了解工作负载和容量要求对于设Ceph解决方案至关重要。Ceph可帮助企业通过统一的分布式集群提供对象存储、块存储或文件系统存储。在设计流程中,这些集群解决方案针对每项要求都进行了优化。该设计流程的首要因素包括 IOPS 或带宽要求、存储容量需求以及架构和组件选择,确保这些因素的合理性有助于完美平衡性能和成本。不同类型的工作负载需要不同的存储基础设施方案。

在这里插入图片描述
下面将从以下6个方面介绍ceph的通用解决方案

  • 性能方面:

1、如何ssd作为Ceph-osd的日志盘使用
2、如何同一个Ceph集群分别创建ssd和hdd池
3、如何将ssd作为hdd的缓存池
4、如何指定ssd盘为主osd,hdd为从osd

  • 稳定及数据安全性方面:

5、Ceph双副本如何保证宕机数据的安全性
6、Ceph纠删码理论与实践

注意:该文章同时在华云数据官方公众号上发布过

智汇华云 | Ceph的正确玩法之Ceph双副本如何保证宕机数据的安全性

下面我们开始专题:Ceph双副本如何保证宕机数据的安全性

场景一:

生产环境一般都是三副本存储,但一些场景为了节省资源,将副本调整为2副本。两副本要求将数据分布在不同的机器上,防止集群故障时数据丢失。

我们为此添加Rack级的Bucket,分别包含两个存储节点(以Host的Bucket),然后以Rack为隔离域,保证两个副本分别落在不同的Rack上。

示意图如下:
在这里插入图片描述

1、修改操作

修改前数据备份,以防万一。crushmap备份

复制代码
1
2
# ceph osd getcrushmap -o backup.txt

恢复:

复制代码
1
2
# ceph osd setcrushmap -i backup.txt

2、理论与实践相结合

1)、创建机柜

复制代码
1
2
3
4
ceph osd crush add-bucket rack1 rack ceph osd crush add-bucket rack2 rack

2)、将rack移动到root下

复制代码
1
2
3
4
# ceph osd crush move rack1 root=default # ceph osd crush move rack2 root=default

3)、将主机移动到机柜中

复制代码
1
2
3
4
# ceph osd crush move node1 rack=rack1 # ceph osd crush move node2 rack=rack2

4)、创建rule

复制代码
1
2
# ceph osd crush rule create-simpletestrule default rack firstn

5)、修改已经创建pool的rule

luminus 以后版本设置pool规则的语法是

复制代码
1
2
# ceph osd pool set demo crush_ruletestrule

luminus以前版本设置pool规则的语法是

查看rule的ID

复制代码
1
2
3
4
# ceph osd crush rule dump | grep testrule # ceph osd pool set demo crush_ruleset 1

此处1是指在rule里rule_ id设置的值

6)、创建pool

复制代码
1
2
# ceph osd pool create demo 64 64replicated testrule

7)、在ceph.conf中加入防止集群重启crush map被重置

复制代码
1
2
osd crush update on start = false

最后

以上就是动听楼房最近收集整理的关于【ceph的通用解决方案】-ceph双副本如何保证宕机数据的安全性的全部内容,更多相关【ceph内容请搜索靠谱客的其他文章。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(87)

评论列表共有 0 条评论

立即
投稿
返回
顶部