ceph設定檔講解
來源:互聯網
上載者:User
[global]
fsid = dd68ab00-9133-4165-8746-ac660da24886
auth cluster required = cephx
auth service required = cephx
auth client required = cephx
osd journal size = 4096
osd pool default size = 3
osd pool default min size = 1
osd pool default pg num = 512
osd pool default pgp num = 512
osd crush chooseleaf type = 1
public network = 186.22.122.0/22
cluster network = 186.22.142.0/22
#檔案隊列的最大位元組數(預設值為100MB,obs必須設為250MB,否則可能造成osd啟動頻繁失敗)
filestore queue max bytes = 250000000
#檔案儲存體隊列的最大運算元(預設值為50,obs使用預設值)
# filestore queue max ops = 100
#檔案操作的最大並發線程數(預設值為1,obs應該設為2)
filestore op threads = 2
#檔案寫磁碟的時間間隔(預設值為5,obs應該設為3,提高寫磁碟的頻率可以減少每次寫盤產生的io數,減小block的幾率)
filestore max sync interval = 3
#xfs檔案系統寫磁碟的開始時間設定(預設為500,小檔案儲存體物件導向儲存應該設定為15,當io數累積到一定數量後開始寫盤,數字越高出現block的幾率越高,但是數字過低會降低叢集的iops)
filestore_wbthrottle_xfs_ios_start_flusher = 15
#osd修複的最大線程數(預設值為1,小檔案儲存體物件導向儲存應該設為1,修複線程越多,對叢集的正常服務提供影響越大)
osd_recovery_threads = 1
#osd修複操作的優先順序(預設為10,小檔案儲存體物件導向儲存應該設為1)
osd_recovery_op_priority = 1
#osd一次可以接受的修複請求(預設為15,小檔案儲存體物件導向儲存應該設為5,一次接收的修複請求越多,對叢集正常服務的提供影像就越大)
osd_recovery_max_active = 5
#一個OSD啟動並執行最大的backfill運算元(預設值為10,小檔案儲存體物件導向儲存應該設定為1,運算元越多,對叢集的正常服務提供影響越大)
osd_max_backfills = 1
osd crush update on start = false
#是否開啟leveldb的壓縮功能(預設值為true,小檔案儲存體物件導向儲存應該為false,設為false後可以提高osd的響應速度)
leveldb_compression=false
[mon]
mon sync trim timeout = 15
mon sync timeout = 10
mon osd full ratio = .95
mon osd nearfull ration = .90
mon osd down out interval = 300
mon osd report timeout = 300
mon osd min down reporters = 2
mon osd min down reports = 4
debug paxos = 0/5