General usage:  
 ============== 
 usage: ceph [-h] [-c CEPHCONF] [-i INPUT_FILE] [-o OUTPUT_FILE] 
             [--id CLIENT_ID] [--name CLIENT_NAME] [--cluster CLUSTER] 
             [--admin-daemon ADMIN_SOCKET] [--admin-socket ADMIN_SOCKET_NOPE] 
             [-s] [-w] [--watch-debug] [--watch-info] [--watch-sec] 
             [--watch-warn] [--watch-error] [--version] [--verbose] [--concise] 
             [-f {json,json-pretty,xml,xml-pretty,plain}] 
             [--connect-timeout CLUSTER_TIMEOUT] 
 
 
 Ceph administration tool 
 
 
 optional arguments: 
   -h, --help            request mon help 
   -c CEPHCONF, --conf CEPHCONF 
                         ceph configuration file 
   -i INPUT_FILE, --in-file INPUT_FILE 
                         input file 
   -o OUTPUT_FILE, --out-file OUTPUT_FILE 
                         output file 
   --id CLIENT_ID, --user CLIENT_ID 
                         client id for authentication 
   --name CLIENT_NAME, -n CLIENT_NAME 
                         client name for authentication 
   --cluster CLUSTER     cluster name 
   --admin-daemon ADMIN_SOCKET 
                         submit admin-socket commands ("help" for help 
   --admin-socket ADMIN_SOCKET_NOPE 
                         you probably mean --admin-daemon 
   -s, --status          show cluster status 
   -w, --watch           watch live cluster changes 
   --watch-debug         watch debug events 
   --watch-info          watch info events 
   --watch-sec           watch security events 
   --watch-warn          watch warn events 
   --watch-error         watch error events 
   --version, -v         display version 
   --verbose             make verbose 
   --concise             make less verbose 
   -f {json,json-pretty,xml,xml-pretty,plain}, --format {json,json-pretty,xml,xml-pretty,plain} 
   --connect-timeout CLUSTER_TIMEOUT 
                         set a timeout for connecting to the cluster 
 
 
 Monitor commands:  
 ================= 
 [Contacting monitor, timeout after 5 seconds] 
 auth add  { [...]}   add auth info for  from input  
                                           file, or random key if no input given, 
                                           and/or any caps specified in the  
                                           command 
 auth caps   [...]    update caps for  from caps  
                                           specified in the command 
 auth del                         delete all caps for  
 auth export {}                   write keyring for requested entity, or  
                                           master keyring if none given 
 auth get                         write keyring file with requested key 
 auth get-key                     display requested key 
 auth get-or-create  {      add auth info for  from input  
  [...]}                             file, or random key if no input given, 
                                           and/or any caps specified in the  
                                           command 
 auth get-or-create-key  {  get, or add, key for  from  
  [...]}                             system/caps pairs specified in the  
                                           command.  If key already exists, any  
                                           given caps must match the existing  
                                           caps for that key. 
 auth import                              auth import: read keyring file from -i  
                                            
 auth list                                list authentication state 
 auth print-key                   display requested key 
 auth print_key                   display requested key 
 compact                                  cause compaction of monitor's leveldb  
                                           storage 
 config-key del                      delete  
 config-key exists                   check for 's existence 
 config-key get                      get  
 config-key list                          list keys 
 config-key put  {}             put , value  
 df {detail}                              show cluster free space stats 
 fsid                                     show cluster FSID/UUID 
 health {detail}                          show cluster health 
 heap dump|start_profiler|stop_profiler|  show heap usage info (available only  
  release|stats                            if compiled with tcmalloc) 
 injectargs  [...]                                
 log  [...]             log supplied text to the monitor log 
 mds add_data_pool                  add data pool  
 mds cluster_down                         take MDS cluster down 
 mds cluster_up                           bring MDS cluster up 
 mds compat rm_compat            remove compatible feature 
 mds compat rm_incompat          remove incompatible feature 
 mds compat show                          show mds compatibility settings 
 mds deactivate                      stop mds 
 mds dump {}                     dump info, optionally from epoch 
 mds fail                            force mds to status failed 
 mds getmap {}                   get MDS map, optionally from epoch 
 mds newfs   {--yes-i-  make new filesystom using pools  
  really-mean-it}                           and  
 mds remove_data_pool               remove data pool  
 mds rm          remove nonactive mds 
 mds rmfailed                    remove failed mds 
 mds set max_mds|max_file_size|allow_new_ set mds parameter  to  
  snaps|inline_data  {}      
 mds set_max_mds                 set max MDS index 
 mds set_state        set mds state of  to  
 mds setmap                      set mds map; must supply correct epoch  
                                           number 
 mds stat                                 show MDS status 
 mds stop                            stop mds 
 mds tell   [...]        send command to particular mds 
 mon add             add new monitor named  at  
 mon dump {}                     dump formatted monmap (optionally from  
                                           epoch) 
 mon getmap {}                   get monmap 
 mon remove                         remove monitor named  
 mon stat                                 summarize monitor status 
 mon_status                               report status of monitors 
 osd blacklist add|rm         add (optionally until  seconds  
  {}                          from now) or remove  from  
                                           blacklist 
 osd blacklist ls                         show blacklisted clients 
 osd create {}                      create new osd (with optional UUID) 
 osd crush add       add or update crushmap position and  
    [...]         weight for  with  and  
                                           location  
 osd crush add-bucket         add no-parent (probably root) crush  
                                           bucket  of type  
 osd crush create-or-move    [..  for   at/to location  
  .]                                        
 osd crush dump                           dump crush map 
 osd crush link   [...] link existing entry for  under  
                                           location  
 osd crush move   [...] move existing entry for  to  
                                           location  
 osd crush remove  {}     remove  from crush map ( 
                                           everywhere, or just at ) 
 osd crush reweight    change 's weight to  in  
                                           crush map 
 osd crush rm  {}         remove  from crush map ( 
                                           everywhere, or just at ) 
 osd crush rule create-erasure      create crush rule  for erasure  
  {}                              coded pool created with  ( 
                                           default default) 
 osd crush rule create-simple       create crush rule  to start from  
    {firstn|indep}             , replicate across buckets of  
                                           type , using a choose mode of  
                                            (default firstn; indep  
                                           best for erasure pools) 
 osd crush rule dump {}             dump crush rule  (default all) 
 osd crush rule list                      list crush rules 
 osd crush rule ls                        list crush rules 
 osd crush rule rm                  remove crush rule  
 osd crush set                            set crush map from input file 
 osd crush set       update crushmap position and weight  
    [...]         for  to  with location  
                                            
 osd crush show-tunables                  show current crush tunables 
 osd crush tunables legacy|argonaut|      set crush tunables values to  
  bobtail|firefly|optimal|default          
 osd crush unlink  {}     unlink  from crush map ( 
                                           everywhere, or just at ) 
 osd deep-scrub                      initiate deep scrub on osd  
 osd down  [...]                set osd(s)  [...] down 
 osd dump {}                     print summary of OSD map 
 osd erasure-code-profile get       get erasure code profile  
 osd erasure-code-profile ls              list all erasure code profiles 
 osd erasure-code-profile rm        remove erasure code profile  
 osd erasure-code-profile set       create erasure code profile   
  { [...]}               with [ ...] pairs. Add a  
                                           --force at the end to override an  
                                           existing profile (VERY DANGEROUS) 
 osd find                        find osd  in the CRUSH map and  
                                           show its location 
 osd getcrushmap {}              get CRUSH map 
 osd getmap {}                   get OSD map 
 osd getmaxosd                            show largest OSD id 
 osd in  [...]                  set osd(s)  [...] in 
 osd lost  {--yes-i-really-mean- mark osd as permanently lost. THIS  
  it}                                      DESTROYS DATA IF NO MORE REPLICAS  
                                           EXIST, BE CAREFUL 
 osd ls {}                       show all OSD ids 
 osd lspools {}                      list pools 
 osd map            find pg for  in  
 osd metadata                    fetch metadata for osd  
 osd out  [...]                 set osd(s)  [...] out 
 osd pause                                pause osd 
 osd perf                                 print dump of OSD perf summary stats 
 osd pg-temp  { [...]}      set pg_temp mapping pgid:[ [... 
                                           ]] (developers only) 
 osd pool create       create pool 
  {} {replicated|erasure}         
  {} {}     
 osd pool delete  {}  delete pool 
  {--yes-i-really-really-mean-it}          
 osd pool get  size|min_size|   get pool parameter  
  crash_replay_interval|pg_num|pgp_num|    
  crush_ruleset|hit_set_type|hit_set_      
  period|hit_set_count|hit_set_fpp|auid|   
  target_max_objects|target_max_bytes|     
  cache_target_dirty_ratio|cache_target_   
  full_ratio|cache_min_flush_age|cache_    
  min_evict_age|erasure_code_profile       
 osd pool get-quota             obtain object or byte limits for pool 
 osd pool mksnap          make snapshot  in  
 osd pool rename      rename  to  
 osd pool rmsnap          remove snapshot  from  
 osd pool set  size|min_size|   set pool parameter  to  
  crash_replay_interval|pg_num|pgp_num|    
  crush_ruleset|hashpspool|hit_set_type|   
  hit_set_period|hit_set_count|hit_set_    
  fpp|debug_fake_ec_pool|target_max_       
  bytes|target_max_objects|cache_target_   
  dirty_ratio|cache_target_full_ratio|     
  cache_min_flush_age|cache_min_evict_     
  age|auid  {--yes-i-really-mean-it}  
 osd pool set-quota  max_       set object or byte limit on pool 
  objects|max_bytes                   
 osd pool stats {}                  obtain stats from all pools, or from  
                                           specified pool 
 osd primary-affinity                        <= 1.0 
 osd primary-temp               set primary_temp mapping pgid:|-1 ( 
                                           developers only) 
 osd repair                          initiate repair on osd  
 osd reweight    reweight osd to 0.0 <  < 1.0 
 osd reweight-by-utilization {}                                      percentage-for-consideration, default  
                                           120] 
 osd rm  [...]                  remove osd(s)  [...] in 
 osd scrub                           initiate scrub on osd  
 osd set pause|noup|nodown|noout|noin|    set  
  nobackfill|norecover|noscrub|nodeep-     
  scrub|notieragent                        
 osd setcrushmap                          set crush map from input file 
 osd setmaxosd                   set new maximum osd value 
 osd stat                                 print summary of OSD map 
 osd thrash                      thrash OSDs for  
 osd tier add   {--   add the tier  (the second  
  force-nonempty}                          one) to base pool  (the first  
                                           one) 
 osd tier add-cache             add a cache  (the second one) 
                        of size  to existing pool  
                                            (the first one) 
 osd tier cache-mode  none|     specify the caching mode for cache  
  writeback|forward|readonly               tier  
 osd tier remove      remove the tier  (the second  
                                           one) from base pool  (the first  
                                           one) 
 osd tier remove-overlay        remove the overlay pool for base pool  
                                            
 osd tier set-overlay           set the overlay pool for base pool  
                                  to be  
 osd tree {}                     print OSD tree 
 osd unpause                              unpause osd 
 osd unset pause|noup|nodown|noout|noin|  unset  
  nobackfill|norecover|noscrub|nodeep-     
  scrub|notieragent                        
 pg debug unfound_objects_exist|degraded_ show debug info about pgs 
  pgs_exist                                
 pg deep-scrub                      start deep-scrub on  
 pg dump {all|summary|sum|delta|pools|    show human-readable versions of pg map  
  osds|pgs|pgs_brief [all|summary|sum|     (only 'all' valid with plain) 
  delta|pools|osds|pgs|pgs_brief...]}      
 pg dump_json {all|summary|sum|pools|     show human-readable version of pg map  
  osds|pgs [all|summary|sum|pools|osds|    in json only 
  pgs...]}                                 
 pg dump_pools_json                       show pg pools info in json only 
 pg dump_stuck {inactive|unclean|stale    show information about stuck pgs 
  [inactive|unclean|stale...]} {}     
 pg force_create_pg                 force creation of pg  
 pg getmap                                get binary pg map to -o/stdout 
 pg map                             show mapping of pg to osds 
 pg repair                          start repair on  
 pg scrub                           start scrub on  
 pg send_pg_creates                       trigger pg creates to be issued 
 pg set_full_ratio        set ratio at which pgs are considered  
                                           full 
 pg set_nearfull_ratio    set ratio at which pgs are considered  
                                           nearly full 
 pg stat                                  show placement group status. 
 quorum enter|exit                        enter or exit quorum 
 quorum_status                            report status of monitor quorum 
 report { [...]}              report full status of cluster,  
                                           optional title tag strings 
 scrub                                    scrub the monitor stores 
 status                                   show cluster status 
 sync force {--yes-i-really-mean-it} {--  force sync of and clear monitor store 
  i-know-what-i-am-doing}                  
 tell   [...] send a command to a specific daemon 
  

                            
                        
                    
                    
                    

你可能感兴趣的:(command,ceph,ceph)