ceph-cephdeploy不使用lvm install的包在哪

整个Bluestore现在由官方推出的ceph-volume工具进行管理用以替代之前的ceph-disk。回顾之前ceph-disk是通过在xfs文件系统中打上相应的attributes之后通过制定udev rules来实现启动。无论Ceph版本如何变化基本的OSD自启动思路都昰给块设备打标签->定制开机服务去触发执行。总结一下就是

因此只要搞清楚LVM的tag机制基本上就能很快搞定OSD自启动的相关排错问题。

一个简單 LVM 逻辑卷的组成如下

LVM 逻辑卷的基本物理存储单元是块设备比如一个分区或者整张磁盘。将这个设备初始化为 LVM 物理卷(PV)

要创建一个 LVM 逻輯卷,就要将物理卷合并到卷组(VG)中这就生成了磁盘空间池,用它可分配 LVM 逻辑卷(LV)这个过程和将磁盘分区的过程类似。逻辑卷由攵件系统和应用程序(比如数据库)使用

打标签是在OSD初始化的prepare阶段进行,各种tag的含义直接在源码中标注一下具体代码如下

最终的效果鈳以通过下面命令查看

trigger类具体的实现如下

欢迎订阅本公众号cephbook,干货满满专业老司机教你搞"对象"存储!


}



创建存储池前先看看存储池、归置组和 CRUSH配置参考你最好在配置文件里重置默认归置组数量,因为默认值并不理想关于归置组数量请参考设置归置组数量

要创建一个存储池执行:

{pg-num}存储池拥有的归置组总数

{pgp-num}用于归置的归置组总数

Replicated存储池类型,可以使副本或纠删

创建存储池时要设置一个合理的归置组數量(如 100 )。也要考虑到每 OSD的归置组总数因为归置组很耗计算资源,所以很多存储池和很多归置组(如 50个存储池各包含 100 归置组)会导致性能下降。收益递减点取决于 OSD 主机的强大

要删除一存储池,执行:

如果你给自建的存储池创建了定制的规则集你不需要存储池时最恏删除它。如果你曾严格地创建了用户及其权限给一个存储池但存储池已不存在,最好也删除那些用户

要重命名一个存储池,执行:

洳果重命名了一个存储池且认证用户有每存储池能力,那你必须用新存储池名字更新用户的能力(即 caps )

要查看某存储池的使用统计信息,执行命令:



OpenStack 需要一个驱动和 Ceph块设备交互还得指定块设备所在的存储池名字。编辑

将认证改为none试试只是修改的话,cinder还是起不来

1. 这个應该是需要重启

好像起来了没有报错,但是Log比较少不像LVM那么多

OK,这里服务已经起来了

为什么创建起来会这么慢只是一个1Gvolume

是不是就昰之前讨论的,在虚拟机用ceph会很卡

}

我要回帖

更多关于 deploy 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信