ceph配置文件讲解

[global]
  fsid = dd68ab00-9133-4165-8746-ac660da24886
  auth cluster required = cephx
  auth service required = cephx
  auth client required = cephx
  osd journal size = 4096
  osd pool default size = 3
  osd pool default min size = 1
  osd pool default pg num = 512
  osd pool default pgp num = 512
  osd crush chooseleaf type = 1
  public network = 186.22.122.0/22
  cluster network = 186.22.142.0/22

#文件队列的最大字节数(缺省值为100MB,obs必须设为250MB,否则可能造成osd启动频繁失败)
  filestore queue max bytes = 250000000
#文件存储队列的最大操作数(缺省值为50,obs使用缺省值)
# filestore queue max ops = 100
#文件操作的最大并发线程数(缺省值为1,obs应该设为2)
  filestore op threads = 2
#文件写磁盘的时间间隔(缺省值为5,obs应该设为3,提高写磁盘的频率可以减少每次写盘产生的io数,减小block的几率)
  filestore max sync interval = 3
#xfs文件系统写磁盘的开始时间设置(缺省为500,小文件存储面向对象存储应该设置为15,当io数累积到一定数量后开始写盘,数字越高出现block的几率越高,但是数字过低会降低集群的iops)
  filestore_wbthrottle_xfs_ios_start_flusher = 15
#osd修复的最大线程数(缺省值为1,小文件存储面向对象存储应该设为1,修复线程越多,对集群的正常服务提供影响越大)
  osd_recovery_threads = 1
#osd修复操作的优先级(缺省为10,小文件存储面向对象存储应该设为1)
  osd_recovery_op_priority = 1
#osd一次可以接受的修复请求(缺省为15,小文件存储面向对象存储应该设为5,一次接收的修复请求越多,对集群正常服务的提供影像就越大)
  osd_recovery_max_active = 5
#一个OSD运行的最大的backfill操作数(缺省值为10,小文件存储面向对象存储应该设定为1,操作数越多,对集群的正常服务提供影响越大)
  osd_max_backfills = 1
  osd crush update on start = false
#是否开启leveldb的压缩功能(缺省值为true,小文件存储面向对象存储应该为false,设为false后可以提高osd的响应速度)
  leveldb_compression=false

[mon]
  mon sync trim timeout = 15
  mon sync timeout  = 10
  mon osd full ratio = .95
  mon osd nearfull ration = .90
  mon osd down out interval = 300
  mon osd report timeout = 300
  mon osd min down reporters = 2
  mon osd min down reports = 4
  debug paxos = 0/5

你可能感兴趣的:(ceph)