国际域名注册证书企业网站优化设计应该把什么放在首位
news/
2025/9/23 4:35:36/
文章来源:
国际域名注册证书,企业网站优化设计应该把什么放在首位,网站设计 培训,给一个网站RBD 方式的 工作 流程#xff1a;
1、客户端创建一个pool#xff0c;并指定pg数量#xff0c;创建 rbd 设备并map 到文件系统#xff1b; 2、用户写入数据#xff0c;ceph进行对数据切块#xff0c;每个块的大小默认为 4M#xff0c;每个 块名字是 object序号#xff…RBD 方式的 工作 流程
1、客户端创建一个pool并指定pg数量创建 rbd 设备并map 到文件系统 2、用户写入数据ceph进行对数据切块每个块的大小默认为 4M每个 块名字是 object序号 3、将每个object通过pg进行 副本位置的分配 4、pg 根据 crush算法 会寻找 3个osd把这object分别保存在这3个osd上 存储 5、osd实际把硬盘格式化为xfs文件系统object存储在这个文件系统就相 当于存储了一个文件rbd0.object1.file。
直接开始实验
继续上一篇文章ceph分布式集群部署好之后开始使用ceph的rbd块存储 现在查看上个文章刚创建好的ceph分布式集群
[rootserver153 ~]# ceph -scluster:id: e86b8687-5af1-4c9e-a816-c1b0c0855349health: HEALTH_OKservices:mon: 3 daemons, quorum server153,server154,server155 (age 5h)mgr: server153(active, since 23h), standbys: server154, server155osd: 6 osds: 6 up (since 23h), 6 in (since 23h)data:pools: 0 pools, 0 pgsobjects: 0 objects, 0 Busage: 6.0 GiB used, 114 GiB / 120 GiB availpgs: 然后我们现在将这个分布式集群用起来先创建一个存储池
[rootserver153 ceph-cluster]# ceph osd pool create rbd-pool 256 256
pool rbd-pool created
查看我们创建的pool存储池的详细信息以及副本数
[rootserver153 ceph-cluster]# ceph osd pool ls
rbd-pool
[rootserver153 ceph-cluster]# ceph osd pool ls detail
pool 1 rbd-pool replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 256 pgp_num 256 autoscale_mode warn last_change 28 flags hashpspool stripe_width 0
[rootserver153 ceph-cluster]# ceph osd pool get rbd-pool size
size: 3将这个存储池指定用于rbd类型的存储
[rootserver153 ceph-cluster]# ceph osd pool application enable rbd-pool rbd
enabled application rbd on pool rbd-pool
然后在这个存储池里创建一个10G的块设备
[rootserver153 ceph-cluster]# rbd create --size 10240 rbd-pool/block1
[rootserver153 ceph-cluster]# rbd ls rbd-pool
block1
查看这个block1块设备的详细情况
[rootserver153 ceph-cluster]# rbd info rbd-pool/block1
rbd image block1:size 10 GiB in 2560 objectsorder 22 (4 MiB objects)snapshot_count: 0id: 117cfcb49bc4block_name_prefix: rbd_data.117cfcb49bc4format: 2features: layering, exclusive-lock, object-map, fast-diff, deep-flattenop_features: flags: create_timestamp: Sat Nov 25 19:54:09 2023access_timestamp: Sat Nov 25 19:54:09 2023modify_timestamp: Sat Nov 25 19:54:09 2023
比如155节点的磁盘快满了我们在155节点上使用这个block1块设备来扩大磁盘存储 先查看155节点的磁盘情况
lsblk然后映射块设备到本地不过得先禁用掉些高级高级功能不然就会出现如下报错
[rootserver155 ~]# rbd map rbd-pool/block1
rbd: sysfs write failed
RBD image feature set mismatch. You can disable features unsupported by the kernel with rbd feature disable rbd-pool/block1 object-map fast-diff deep-flatten.
In some cases useful info is found in syslog - try dmesg | tail.
rbd: map failed: (6) No such device or address
[rootserver155 ~]# rbd feature disable rbd-pool/block1 object-map fast-diff deep-flatten
[rootserver155 ~]# rbd map rbd-pool/block1
/dev/rbd0
[rootserver155 ~]#查看我们155节点磁盘的情况 而且看sdb和sdc都是lvm的rbd0也是lvm的想必大家看到这已经明白了 没错底层用的就是lvm所以它能随意扩展使用很灵活 磁盘都已经有了怎么用相信大家都知道了 正常格式化然后挂载就可以了
[rootserver155 ~]# mkfs.xfs /dev/rbd0
Discarding blocks...Done.
meta-data/dev/rbd0 isize512 agcount16, agsize163840 blks sectsz512 attr2, projid32bit1 crc1 finobt0, sparse0
data bsize4096 blocks2621440, imaxpct25 sunit1024 swidth1024 blks
naming version 2 bsize4096 ascii-ci0 ftype1
log internal log bsize4096 blocks2560, version2 sectsz512 sunit8 blks, lazy-count1
realtime none extsz4096 blocks0, rtextents0
[rootserver155 ~]# mount /dev/rbd /mnt/
mount: /dev/rbd is not a block device
[rootserver155 ~]# mount /dev0/rbd /mnt/
mount: special device /dev0/rbd does not exist
[rootserver155 ~]# mount /dev/rbd0 /mnt/ 可以看到我们的磁盘已经挂载完毕 ceph分布式存储的rbd块存储使用方法就是这样了 希望对大家有帮助
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/911369.shtml
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!