E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
crushmap
crushmap
磁盘智能分组
目录简介配置crushclass1.创建ssdclass2.创建基于ssd的classrule3.创建基于ssd_rule规则的存储池4.测试基于ssd的池简介ceph从L版本开始新增了个功能叫crushclass,又被称之为磁盘智能分组。因为这个功能就是根据磁盘类型自动进行属性关联,然后进行分类减少了很多的人为操作。在这个功能之前,如果我们需要对ssd和hdd进行分组的时候,需要大量的修改cru
breezey
·
2019-06-25 00:00
Ceph优化系列(一):Ceph架构及性能优化
转载:Ceph架构及性能优化对分布式存储系统的优化离不开以下几点:1.硬件层面硬件规划SSD选择BIOS设置2.软件层面LinuxOSCephConfigurationsPGNumber调整
CRUSHMap
亚历山大的陀螺
·
2019-05-23 17:22
Ceph
ceph更换硬盘操作步骤
作者:【吴业亮】博客:https://wuyeliang.blog.csdn.net/ceph换盘1、手动删除osd,下面以osd1为例停止服务#systemctlstopceph-osd@1从
crushmap
Yeliang Wu
·
2019-04-11 16:53
云存储
CrushMap
介绍
CRUSH需要一张集群的Map,且使用
CRUSHMap
把数据伪随机地、尽量平均地分布到整个集群的OSD里。
CRUSHMap
包含OSD列表、把设备汇聚为物理位置的“桶”列表、和指示CR
John_Lu08
·
2019-03-14 13:27
Ceph
CrushMap
ceph
osd
tree
Ceph
CEPH OSD 的添加删除
如果集群已经在运行,可以在运行时添加或删除OSD增加OSD要增加一个OSD,要依次创建数据目录、把硬盘挂载到数据目录、把OSD加入集群、然后把它加入
CRUSHMap
。1、创建OSD。
junior1206
·
2018-12-19 20:07
openstack
ceph
【ceph】术语
会为每个组件维护映射信息,包括OSDmap、MONmap、PGmap和
CRUSHmap
。所有集群节点都想MON节点汇报状态信息,并分享它们状态中的任何变化,通过Paxos算法保持数据的一致性。MO
小醉90s
·
2018-12-10 11:10
ceph
crushmap
choose规则分析
1.PlacementRules1.1模拟代码tack(a)choosechoosefirstn{num}type{bucket-type}chooseleaffirstn{num}type{bucket-type}if{num}==0,choosepool-num-replicasbuckets(allavailable).if{num}>0&&
Lucien_168
·
2018-11-13 14:08
ceph存储扩容(新盘新建存储池)
1、换上新盘后先使用命令做raid2、ceph创建新存储池(注:需要在存储安装完成后操作)2.1修改/etc/ceph/ceph查看是否关闭自动生成
crushmap
若已经关闭,则无需其他操作;若没有关闭
GreatRiver王
·
2018-11-13 12:18
ceph运维
ceph crush class
无需手动修改
crushmap
,极大的减少了人为的操作。以前的操作有多麻烦可以看看:cephcrushmapceph中的每个osd设备都可以选择一个
凌云靖宇
·
2018-10-23 21:31
ceph
CEPH的基本概念及通过Ceph-Deploy快速部署CEPH集群
**Monitor**:Ceph监视器,主要用于集群健康状态维护,提供策略,包含MonitorMap,OSDMap,PGma和
CRUSHMAP
**MSD**:CpehMetadataServer,主要保存
Insane_linux
·
2018-09-20 20:16
CEPH
Ceph-Deploy
操作系统
Ceph性能优化总结
通过对公开资料的分析进行总结,对分布式存储系统的优化离不开以下几点:1.硬件层面硬件规划SSD选择BIOS设置2.软件层面LinuxOSCephConfigurationsPGNumber调整
CRUSHMap
一眼隔世
·
2018-07-05 20:11
ceph
手动编辑Ceph的CRUSH Map
参考文献:http://docs.ceph.com/docs/master/rados/operations/crush-map-edits/原来,在一个Ceph集群的
CRUSHMap
中,hosts都叫做
执假以为真
·
2018-06-13 20:11
存储
Ceph
存储
修改
crushmap
实现ssd sata混合部署的
#begincrushmaptunablechoose_local_tries0tunablechoose_local_fallback_tries0tunablechoose_total_tries50tunablechooseleaf_descend_once1tunablechooseleaf_vary_r1tunablestraw_calc_version1#devicesdevice0o
oscube
·
2018-06-04 14:09
Ceph 学习——CRUSH算法及源码分析(一)
CRUSH算法解决了PG副本如何分布在集群OSD上的问题,本文先介绍CRUSH算法基本原理和相关的数据结构,主要是
CRUSHmap
中的内容如bucket、placementrule等,以及他们的源码初探
SEU_PAN
·
2017-11-29 20:29
Ceph源码分析
Ceph 入门——内部构件
对象CRUSH1CRUSH查找2CRUSH层级结构3恢复和再平衡4编辑
CRUSHmap
5定制集群布局PG归置组1PG数计算2PG与PGP3PGpeeringup集合和acting集合Ceph池1POOL
SEU_PAN
·
2017-11-28 20:41
读书笔记
ceph浅析
Ceph 入门——内部构件
对象CRUSH1CRUSH查找2CRUSH层级结构3恢复和再平衡4编辑
CRUSHmap
5定制集群布局PG归置组1PG数计算2PG与PGP3PGpeeringup集合和acting集合Ceph池1POOL
SEU_PAN
·
2017-11-28 20:41
读书笔记
ceph浅析
Ceph
Crushmap
新特性:class
下面是cephversion12.2.1luminous安装后,查看
crushmap
文件的结果:[root@osdnode1~]#catcrushmapdump-decompiled#begincrushmaptunablechoose_local_tries0tunablechoose_local_fallback_tries0tunablechoose_total_tries50tunable
hanwenshan123
·
2017-11-17 13:21
技术分享
osd 节点替换
从
crushmap
中删除操作调整osd的crushweightcephosdcrushreweightosd.00.1说明:这个地方如果想慢慢的调整就分几次将crush的weight减低到0,这个过程实际上是让数据不分布在这个节点上
吴景峰
·
2017-10-19 10:50
替换
Ceph
ceph
crushmap
此map为我生成环境故障域为rackrackrack-05{id-26#donotchangeunnecessarily#weight78.336algstrawhash0#rjenkins1itemsjz-ceph-p-online-17weight19.584itemsjz-ceph-p-online-18weight19.584itemsjz-ceph-p-online-19weight19
吴景峰
·
2017-09-27 12:32
map
crush
Ceph
Ceph 12.2.0 实践osd 智能分组功能
以前我们需要对ssd和hdd进行分组的时候,需要大量的修改
crushmap
,然后绑定不同的存储池到不同的crush树上面,现在这个逻辑简化了很多。
fW_190
·
2017-09-21 16:37
ceph
ceph
ceph学习笔记之七 数据平衡
数据迁移触发流程:1、当新加入一个OSD时,会改变系统的
CRUSHMap
,从而引起对象映射过程中的变化;2、PG到OSD的映射关系发生了变化,从而引发数据的迁移。
zhutianss
·
2017-07-31 15:08
恢复
ceph
SDS
SDS
Ceph架构及性能优化
对分布式存储系统的优化离不开以下几点:1.硬件层面硬件规划SSD选择BIOS设置2.软件层面LinuxOSCephConfigurationsPGNumber调整
CRUSHMap
其他因素硬件层面1、CPUceph-osd
Jacken_yang
·
2016-06-20 21:02
分布
架构优化
ceph
存储虚拟化
Ceph更改Crush map及Monitor IP
mapcrushtool-dmap_old-omap_old.txt转化成可编辑格式crushtool-cmap_new.txt-omap_new还原为mapcephosdsetcrushmap-imap_new将map导入ceph更改
Crushmap
Jacken_yang
·
2016-06-19 12:14
存储
分布式
ceph
存储虚拟化
Ceph CRUSH算法分析
structcrush_bucket{ __s32 id; //bucket的ID号,
crushmap
中所有bucket的编号都是负数 __u16 type; //bucket
linuxhunter
·
2016-03-17 11:00
list
tree
ceph
crush
straw
uniform
straw2
Ceph集群在系统扩容时触发rebalance的机制分析
当集群中有新的存储节点加入后,整个Ceph集群中的OSDs节点数目就会发生变化(即:OSDMap发生变化),
CRUSHMap
也会发生变化(比如:新加入一个机柜到Ceph集群)。
linuxhunter
·
2016-03-15 15:00
ceph
recovery
rebalance
crushmap
backfill
osdmap
CRUSH map 定制实例解析
定制
CRUSHmap
:直接修改配置**当我们使用ceph-deploy部署ceph时,它为我们的配置文件生成一个默认的
CRUSHmap
,默认的
CRUSHmap
在测试和沙箱环境下是够用的;但在一个大型的生产环境中
heivy
·
2016-01-27 10:20
ceph
ceph crush 策略配置
所以需要修改crushrules.1.获取
crushmap
二进制文件# ceph osd getcrushmap -o a.map2.将二进制文件转成
安静美男子
·
2015-08-26 17:00
rules
ceph
crush
ceph自定义types
获取当前的crushmapceph osd getcrushmap -o
crushmap
crushtool -d
crushmap
-o
crushmap
.txt编辑
crushmap
.txt,添加typehostgroup
757781091
·
2015-08-20 14:36
ceph
crush
ceph自定义types
获取当前的crushmapceph osd getcrushmap -o crushmapcrushtool -d
crushmap
-o
crushmap
.txt编辑
crushmap
.txt,添加typehostgroup
757781091
·
2015-08-20 14:36
ceph
crush
ceph
ceph自定义types
获取当前的crushmapceph osd getcrushmap -o
crushmap
crushtool -d
crushmap
-o
crushmap
.txt编辑
crushmap
.txt,添加typehostgroup
757781091
·
2015-08-20 14:36
ceph
crush
Ceph 定制crush map
定制化
crushmap
简单实验首先,查看原始osd目录树[root@bgw-os-node151~]#cephosdtree#id weight typename up/downreweight-
linuxblind
·
2015-06-02 16:28
map
ceph
cruash
Ceph 定制crush map
定制化
crushmap
简单实验首先,查看原始osd目录树[root@bgw-os-node151~]#cephosdtree#idweighttypenameup/downreweight-13.24rootdefault
linuxblind
·
2015-06-02 16:28
ceph
cruash
map
大数据和云计算
Openstack-Cinder multi backend
Openstack-Cindermultibackend补充内容:1.修改
crushmap
有两种方式:在线修改和离线修改2.为了保险起见一般都是采用离线修改,也就是导出来修改3.导出默认的
crushmap
san_gh
·
2015-01-28 17:48
openstack
multi
cinder
Backend
OpenStack 系列之Cinder multi backend
OpenStack-Cindermultibackend补充内容:1.修改
crushmap
有两种方式:在线修改和离线修改2.为了保险起见一般都是采用离线修改,也就是导出来修改3.导出默认的
crushmap
Devin
·
2015-01-28 17:48
multi
openstack
cinder
OpenStack
crushmap
使用说明
Thisarticleintroducesasimpleusecaseforstorageproviders.Forsomereasonssomecustomerswouldliketopaymoreforafaststoragesolutionandotherwouldprefertopaylessforareasonnablestoragesolution.I.UsecaseRoughlysa
惊浪
·
2014-11-21 14:00
ceph
crushmap
ceph
crushmap
实验环境中修改后的
crushmap
如下:#begincrushmap tunablechoose_local_tries0 tunablechoose_local_fallback_tries0 tunablechoose_total_tries50
壬癸甲乙
·
2014-08-13 14:00
上一页
1
2
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他