日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 人文社科 > 生活经验 >内容正文

生活经验

ceph osd 相关命令

發布時間:2023/11/27 生活经验 36 豆豆
生活随笔 收集整理的這篇文章主要介紹了 ceph osd 相关命令 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

混合osd的部署

先部署所有的ssd

在/etc/ceph.conf中最后添加ssd做osd的block大小如下:

比如部署中有兩個ssd,則添加

[osd.0]

bluestore_block_size = xxxx

[osd.1]

bluestore_block_size = xxx

如上的size大小計算如下,如ssd容量為800G,默認分給hdd的db,wal分別為20G,10G,則:
bluestore_block_size = (800 - 120 - 800*2%) * 1024*1024*1024

  • ssd的分區劃分

    sgdisk -n 1:+2G:+sizeG /dev/sdb //該size為以上(800 - 120)的容量
    sgdisk -n 2:0:+20G /dev/sdb #db 
    sgdisk -n 4:0:+10G /dev/sdb #wal
    
  • 修改分區權限

    for i in {1..3};do chmod 660 /dev/sdb$i;chown ceph:ceph /dev/sdb$i;done

  • 激活第一個sdd

    ceph-disk -v prepare /dev/sdb1
    ceph-disk -v activate /dev/sdb1
    
部署hdd

將db,wal分區放置在ssd上

ceph-disk -v prepare /dev/sdc --block.db /dev/sdb2 --block.wal /dev/sdb4
ceph-disk -v activate /dev/sdc1

手動劃分分區需要修改udev規則,來讓設備重啟或者插拔盤觸發udev規則之后讓分區的typecode產生修改并且修改設備用戶所屬為ceph以及設備文件權限,防止重啟后查找不到udev規則,從而使用默認uuid來分配設備文件的屬性導致重啟之后osd無法起來。此時需要手動更改如下:

只針對SSD

  1. sgdisk --typecode=1:4fbd7e29-9d25-41b8-afd0-062c0ceff05d -- /dev/sdbblock分區
  2. sgdisk --typecode=2:30cd0809-c2b2-499c-8879-2d6b78529876 -- /dev/sdbdb分
  3. sgdisk --typecode=4:5ce17fce-4087-4169-b7ff-056cc58473f9 -- /dev/sdbwal分區

查看指定磁盤udev相關的uuid

blkid -o udev -p /dev/sdc1

普通OSD的部署

  • 創建rule規則并修改osd 的type

    ceph osd crush rule create-simple rule_rep deafult osd

    ceph osd pool create rep_pool 128 128 rule_rep

  • 移除規則下的osd

    ceph osd crush rm osd.id

  • 從某個節點上移除osd

    ceph osd crush rm osd.id $node

  • 設置size 和min_size

    ceph osd pool set pool_name size xx
    ceph osd pool set pool_name min_size xx
    

當OSD被踢出集群但是掛載點還在,為osd添加id驗證

  1. 加回認證
    ceph auth add osd.12 osd 'allow *' mon 'allow rwx' mgr 'allow profile osd' -i /var/lib/ceph/osd/ceph-12/keyring

  2. 添加到host中,如果兩個host都有的話需要添加兩次

    ceph osd crush add osd.15 3.61327 root=hdd_bucket host=host6

  3. 設置osd設備屬性

    ceph osd crush set-device-class ssd osd.${num}

測試OSD壓力

ceph tell osd.id bench

Mark osd 為down

ceph -m $mon:6789 osd down$id

OSD重構速度

ceph tell osd.* injectargs '--osd_recovery_sleep=2'

總結

以上是生活随笔為你收集整理的ceph osd 相关命令的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。