国产xxxx99真实实拍_久久不雅视频_高清韩国a级特黄毛片_嗯老师别我我受不了了小说

資訊專欄INFORMATION COLUMN

CEPH 14.2添加和刪除OSD

IT那活兒 / 1770人閱讀
CEPH 14.2添加和刪除OSD

點擊上方“IT那活兒”公眾號,關注后了解更多內容,不管IT什么活兒,干就完了!!!

Ceph OSD Daemon將數據寫入磁盤和日志。因此,需要為 OSD 提供一個磁盤和日志分區的路徑(即,這是最常見的配置,也可以根據自己的需要配置系統)。


準備工作

1.1 列出磁盤
要列出節點上的磁盤,執行以下命令:
ceph-deploy disk list {node-name [node-name]...}
1.2 ZAP磁盤
要對磁盤進行 zap(刪除其分區表)以準備與Ceph一起使用,執行以下命令(這將刪除所有數據):
ceph-deploy disk zap {osd-server-name} {disk-name}

ceph-deploy disk zap osdserver1 /dev/sdb

ceph-deploy disk zap osdserver1 /dev/sdb /dev/sdc /dev/sdd
1.3 創建 OSD
創建集群、安裝 Ceph 包并收集密鑰后,可以創建OSD并將它們部署到 OSD 節點。
ceph-deploy osd create --data {data-disk} {node-name}
例如:
ceph-deploy osd create --data /dev/ssd osd-server1
當在單個節點上運行多個 Ceph OSD Daemon并與每個 OSD Daemon共享一個分區日志時,應該將整個節點視為 CRUSH 目的的最小故障域,因為如果 SSD 發生故障,所有日志的 Ceph OSD Daemon它也會失敗。
1.4 列出 OSD
要列出部署在節點上的 OSD,執行以下命令:
ceph-deploy osd list {node-name}


刪除osd

2.1 停掉對應osd進程

sudo systemctl stop ceph-osd@0

2.2 踢出集群
sudo ceph osd out 0
2.3 從CRUSH中刪除
已將osd.0移出crush map.
sudo ceph osd crush remove osd.0
2.4 從集群中將osd移除
1)刪除秘鑰信息
sudo ceph auth del osd.0
2)刪除在集群中的信息
sudo ceph osd rm 0
2.5 取消掛載
umount /var/lib/ceph/osd/ceph-0
但是盤還在。
2.6 對磁盤進行格式化并刪除目錄
sudo ceph-volume lvm zap /dev/sdb --destroy


恢復/添加回osd

3.1 --osd-id 標記回原來的ID
sudo ceph-volume --cluster ceph lvm create --bluestore --data /dev/sdb --osd-id 0
報錯,由于14版本ceph-volume工具有BUG,需要修改ceph-volume源碼:
The osd ID 0 is already in use or does not exist.
1)修改ceph-volume源碼
vi /usr/lib/python2.7/site-packages/ceph_volume/util/prepare.py
尋找 def osd_id_available。
2)添加一個判斷邏輯
not osd or
3)此時就可創建osd
sudo ceph-volume --cluster ceph lvm create --bluestore --data /dev/sdb --osd-id 0
3.2 添加osd成功



本文作者:王思強(上海新炬王翦團隊)

本文來源:“IT那活兒”公眾號

文章版權歸作者所有,未經允許請勿轉載,若此文章存在違規行為,您可以聯系管理員刪除。

轉載請注明本文地址:http://m.specialneedsforspecialkids.com/yun/129224.html

相關文章

  • Ceph v12.2 Luminous基于ubuntu16.04集群部署

    摘要:第一次接觸集群,感謝官方的指導文檔和許多網友提供的教程,糊糊涂涂算是把集群部署起來了。應該為每個運行的機器添加一個,否則集群處于狀態。至此的集群搭建算是完成了,下一步會進行塊設備的搭建。參考分布式存儲部署手冊如何在中安裝存儲集群部署版 第一次接觸ceph集群,感謝官方的指導文檔和許多網友提供的教程,糊糊涂涂算是把集群部署起來了。由于Luminous12.2剛發布不久,部署起來跟舊版本還...

    MiracleWong 評論0 收藏0
  • 詳解Ceph的殺手級技術CRUSH

    摘要:下圖是的代碼段,我喜歡叫它攪拌攪拌再攪拌得出一個隨機數如果看到這里你已經被攪暈了,那讓我再簡單梳理下選擇一個時做的事情給出一個,作為的輸入。,,得出一個隨機數重點是隨機數,不是。對于所有的用他們的權重乘以每個對應的隨機數,得到乘積。前言前文回顧:《開源社區的明星項目—Ceph談》、《史上最全的Ceph構件及組件分析》、關于Ceph主題,這一節將詳細介紹Ceph ?CRUSH。Ceph CRU...

    newtrek 評論0 收藏0
  • 跟我學 K8S--運維: helm 安裝 ceph 到 kubernetes 集群

    摘要:參考官方文檔進行操作本文假設環境正常運行,并且已經安裝。只能以單副本運行部署運行命令來安裝等待一段時間執行完成后,通過如下命令確定集群是否成功運行檢查的狀態檢查集群狀態至此,集群部署完成。 參考 ceph 官方文檔進行操作: http://docs.ceph.com/docs/mas... 本文假設kubernetes 環境正常運行,并且 host 已經安裝 helm client。 ...

    marser 評論0 收藏0
  • Ceph v12.2 Luminous 塊存儲(RBD)搭建

    摘要:還是上篇文章說的,搭建塊存儲之前,先把官方的文檔看一遍,保證獲益匪淺。傳送門官方文檔注意塊存儲最好不要安裝在節點,可以安裝在節點節點或其他節點。在版本,在創建集群時,不會自動創建默認的池。參考塊存儲之相關命令 還是上篇文章說的,搭建塊存儲之前,先把官方的文檔看一遍,保證獲益匪淺。傳送門:Ceph官方文檔 注意:(1) rbd塊存儲最好不要安裝在osd節點,可以安裝在mon節點、adm...

    fancyLuo 評論0 收藏0
  • 史上最全的Ceph構件及組件分析

    摘要:層確保數據一致性和可靠性。元數據服務器,跟蹤文件層次結構并存儲只供使用的元數據。這些文件系統擴展屬性能夠為守護進程提供內部對象的狀態快照元數據和等信息這有助于數據管理。啟迪云-高級開發工程師 ?侯玉彬前言前文回顧:《開源社區的明星項目—Ceph談》上一次簡單的介紹Ceph的過去和未來的發展。這一節將詳細介紹Ceph的構件以及組件。Ceph存儲架構Ceph 存儲集群由幾個不同的daemon組成...

    oujie 評論0 收藏0

發表評論

0條評論

IT那活兒

|高級講師

TA的文章

閱讀更多
最新活動
閱讀需要支付1元查看
<