E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
ceph存储
Ceph存储
使用RBD(Rados块设备)
使用RBD(Rados块设备)查看存储池[root@node1~]#cephosdlspools可以查看到0号镜像池,名字为rbd创建名为demo-img的镜像大小为10GB[root@node1~]#rbdcreatedemo-img--image-featurelayering--size10G[root@node1~]#rbdlist[root@node1~]#rbdinfodemo-img
乐于技术分享
·
2020-06-28 23:11
ceph存储
性能测试
环境信息主机:3台osd:每台6个ceph版本:L测试工具:fio存储网卡:万兆单块磁盘性能随机读写:fio--filename=./test-iodepth=64-ioengine=libaio-direct=1-rw=randread-bs=4k-size=2G-numjobs=64-runtime=100-group_reporting-name=test-rand-readread:IOP
weixin_35664258
·
2020-06-28 19:53
2个Kubernetes使用同一个
Ceph存储
达到Kubernetes间持久化数据迁移
2个Kubernetes使用同一个
Ceph存储
达到Kubernetes间持久化数据迁移[TOC]当前最新Kubernetes稳定版为1.14。
weixin_34292924
·
2020-06-28 16:39
ceph分布式存储实战(5)——
ceph存储
配置(RBD镜像日常管理)
12345678910111213141516171819202122232425262728293031323334353637383940414243444546474849505152535455565758596061626364656667686970717273747576777879808182838485868788899091929394959697989910010110210
weixin_34284188
·
2020-06-28 16:06
ceph分布式存储实战(4)——
ceph存储
配置(映射RBD镜像到客户端)
12345678910111213141516171819202122232425262728293031323334353637383940414243444546474849505152535455565758596061626364656667686970717273747576777879808182838485868788899091929394959697989910010110210
weixin_34265814
·
2020-06-28 15:15
ceph - crushmap 扩容记录
扩容的部署过程最后一步,需要对cephcrushmap进行重定义容量计算新加入3台存储节点,每个存储节点具有10个OSD节点,每个OSD对应4TB空间,即共增加3*10*4TB=120TB由于一直都有业务在
ceph
weixin_34221073
·
2020-06-28 14:02
ceph存储
之查找对象
对象存储(而非块存储):要把对象存入ceph集群,客户端必须做到:1、指定对象名2、指定存储池Ceph客户端检出最新集群运行图,客户端用CRUSH算法动态地计算出如何把对象映射到归置组、然后计算如何把归置组分配到OSD。要定位对象,只需要对象名和存储池名字即可。例如:cephosdmap{poolname}{object-name}练习:定位某个对象1、先创建一个对象,有radosput命令加上对
weixin_34112900
·
2020-06-28 11:09
IBM与红帽携手通过OpenStack加快混合云应用
根据这一新的合作协议,IBM成为红帽认证云和服务提供商,企业用户能够更便捷地使用基于IBM私有云的红帽OpenStack平台和
Ceph存储
,该产品将于2017年3月底上市。
weixin_34107739
·
2020-06-28 11:02
Ceph架构和组件
Ceph存储
的体系结构
Ceph存储
由几个不同的守护进程组成,这些守护进程彼此之间是相互独立的,每一个组件提供特定的功能。
weixin_34082177
·
2020-06-28 11:29
ceph存储
扩容(新盘新建存储池)
1、换上新盘后先使用命令做raid2、ceph创建新存储池(注:需要在存储安装完成后操作)2.1修改/etc/ceph/ceph查看是否关闭自动生成crushmap若已经关闭,则无需其他操作;若没有关闭,关闭后需重启ceph的服务使其生效[root@node01~]#systemctlrestartceph.target2.2新建目录扩区当前集群应用的crushmap[root@node01~]#
weixin_34049032
·
2020-06-28 10:00
kubernetes 使用ceph实现动态持久卷存储
k8s使用
ceph存储
ceph提供底层存储功能,cephfs方式支持k8s的pv的3种访问模式ReadWriteOnce,ReadOnlyMany,ReadWriteMany,RBD支持ReadWriteOnce
别来无恙-
·
2020-06-28 10:00
ceph存储
池基本管理
一,设置默认存储池的pg或pgp的值(推荐100左右),在ceph.conf文件里增加:osdpooldefaultpgnum=100osdpooldefaultpgpnum=100二,新建一个存储池:cephosdpoolcreatecp-chengang100三,设置存储池配额(字节或是对象)cephosdpoolset-quotacp-chengangmax_objects10000四,存储
weixin_33994429
·
2020-06-28 09:05
prometheus监控第二篇之告警alertmanager
本篇博文主要分为以下几个知识点:1.使用prometheus监控
ceph存储
;2.学习简单的PromQL语言,在grafana里面根据业务自定义dash
weixin_33811539
·
2020-06-28 05:35
“CEPH浅析”系列之四——CEPH的结构
4.1Ceph系统的层次结构
Ceph存储
系统的逻辑层次结构如下图所示[1]。
weixin_33797791
·
2020-06-28 05:20
ceph分布式存储实战(4)——
ceph存储
配置(映射RBD镜像到客户端)
块设备(rbd) 1、块设备可以应用为: 1、作为额外的磁盘使用 2、可以作为裸设备使用 3、可以格式化成文件系统,然后挂载给虚拟机或者物理服务器使用 2、创建块设备(可以在任意一台ceph节点上创建) 下面的命令创建一个名为ceph-client1-rbd1、大小为10G的RBD设备 [root@ceph-node1 ~]
weixin_33701564
·
2020-06-28 03:56
Red Hat
Ceph存储
——《面向生产环境的ceph 对象网关指南》
本文由Ceph中国社区-穆艳学翻译、刘源校稿英文出处:Red_Hat_Ceph_Storage-2-Ceph_Object_Gateway_for_Production欢迎加入CCTGRedHat
Ceph
weixin_31059129
·
2020-06-28 02:50
Ceph
部署
ceph存储
集群及块设备测试
集群环境配置基础环境添加ceph.repowget-O/etc/yum.repos.d/ceph.repohttps://raw.githubusercontent.com/aishangwei/ceph-demo/master/ceph-deploy/ceph.repoyummakecache配置NTPyum-yinstallntpdatentpntpdatecn.ntp.org.cnsyste
weixin_30911451
·
2020-06-28 02:20
k8s对接
ceph存储
前提条件:已经部署好ceph集群本次实验由于环境有限,ceph集群是部署在k8s的master节点上的一、创建
ceph存储
池在ceph集群的mon节点上执行以下命令:cephosdpoolcreatek8s-volumes6464
weixin_30848775
·
2020-06-28 01:53
Ceph 块设备 - 块设备快速入门
必须先完成
ceph存储
集群的搭建,并确保
Ceph存储
集群处于active+clean状态,这样才能使用Ceph块设备。Ceph块设备也叫RBD或RADOS块设备。
weixin_30379531
·
2020-06-27 18:32
开源对象存储方案
参阅《面向OpenStack的
Ceph存储
入门介绍》:https://opensource.com/business/15/1/introduction-ce
半_调_子
·
2020-06-27 13:16
大数据平台
ceph rbd 通过iscsi tgt共享 查看和命令手动操作
1.rbd查看操作查看
ceph存储
池cephosdpoolls查看rbd#rbd-ppoolcopyhost1lsluncopyhost1查看
ceph存储
池副本和故障域规则#cephosddump|greppoolcopyhost1pool14
mixboot
·
2020-06-26 23:25
Ceph
Ceph集群安装
一、准备工作:首先会帮你准备一个ceph-deploy管理节点、以及三个Ceph节点(或虚拟机),以此构成
Ceph存储
集群。
小雪_smilexue
·
2020-06-26 22:18
openstack
ceph
集群
ceph命令入门
cephdf查看
ceph存储
空间cephdfGLOBAL:SIZEAVAILRAWUSED%RAWUSED299G293G6053M1.97POOLS:NAMEIDUSED%USEDMAXAVAILOBJECTStenx-pool11652M1.09146G730
u010278923
·
2020-06-26 22:23
存储
Ceph vs Gluster之开源存储力量的较量
Ceph存储
系统的拓扑结构围绕着副本与信息分布,这使得该系统能够有效保障数据的完整性。Gluster描述为Scale-outNAS和对象存储系统。它
Hardy晗狄
·
2020-06-26 16:17
存储
Centos6.5下
Ceph存储
集群的搭建
简单介绍Ceph的部署模式下主要包含以下几个类型的节点•CephOSDs:ACephOSD进程主要用来存储数据,处理数据的replication,恢复,填充,调整资源组合以及通过检查其他OSD进程的心跳信息提供一些监控信息给CephMonitors.当CephStorageCluster要准备2份数据备份时,要求至少有2个CephOSD进程的状态是active+clean状态(Ceph默认会提供两
铁猴
·
2020-06-26 15:15
大数据存储与分析
Centos
Ceph
ceph存储
微软SMB3.0文件共享协议新特性介绍
SMB(*nix平台和WinNT4.0又称CIFS)协议是Windows平台标准文件共享协议。Linux平台通过samba来支持。SMB最新版本v3.0,在v2.0基础上针对WAN和分布式有改进。详细内容如下:透明故障切换:SMB3.0提供故障切换功能,在一台服务器故障情况下,客户端请求可以平滑切换到另外一台服务器,可以实现0宕机时间,切换过程少量IO会有延迟。该功能要求SMB服务器是一个集群,客
skdkjzz
·
2020-06-26 12:45
ceph存储
ceph存储
C、C++白盒测试打桩小结
什么是桩桩,或称桩代码,是指用来代替关联代码或者未实现代码的代码。如果函数B用B1来代替,那么,B称为原函数,B1称为桩函数。打桩就是编写或生成桩代码。打桩的目的打桩的目的主要有:隔离、补齐、控制。隔离是指将测试任务从产品项目中分离出来,使之能够独立编译、链接,并独立运行。隔离的基本方法就是打桩,将测试任务之外的,并且与测试任务相关的代码,用桩来代替,从而实现分离测试任务。例如函数A调用了函数B,
skdkjzz
·
2020-06-26 12:45
ceph存储
ceph存储
PG的数据恢复过程
PG的数据恢复过程集群中的设备异常(异常OSD的添加删除操作),会导致PG的各个副本间出现数据的不一致现象,这时就需要进行数据的恢复,让所有的副本都达到一致的状态。想知道如何来进行数据的恢复之前,先要了解OSD故障的种类。一、OSD的故障和处理办法:1.OSD的故障种类:故障A:一个正常的OSD因为所在的设备发生异常,导致OSD不能正常工作,这样OSD超过设定的时间就会被out出集群。故障B:
skdkjzz
·
2020-06-26 12:44
ceph存储
ceph存储
PG的状态机和peering过程
PG的状态机和peering过程首先来解释下什么是pgpeering过程?当最初建立PG之后,那么需要同步这个pg上所有osd中的pg状态。在这个同步状态的过程叫做peering过程。同样当启动osd的时候,这个osd上所有的pg都要进行peering过程,同步pg的状态。peering过程结束后进入pg的Active状态,如果需要进行数据恢复则进行数据的恢复工作。那么从PG的创建或者扫描开始
skdkjzz
·
2020-06-26 12:44
ceph存储
ceph存储
Linux内核分析coredump文件内核代码崩溃
一、分析Core文件1.1找到core文件目录,启动mycrash:mycrash1.2查看崩溃的堆栈信息:bt1.3反汇编崩溃点的代码,10行:dis-lextract_http_info+7310二、分析源文件hinfo.ko2.1查看源文件信息:objdump-Shinfo.ko>tmp2.2从tmp文件中查找1.3中的内容movb$0x0,(%r12,%rax,1),即可确定代码崩溃位置三
skdkjzz
·
2020-06-26 12:44
系统维护
ceph存储
ceph存储
ceph-deploy部署挂载目录的osd
a,一个cephcluster至少需要1个mon节点和2个osd节点才能达到active+clean状态(故osdpooldefaultsize得>=2,注意:如果不想复制的话,弄一个osd节点也是可以的,只需要将复制的备份数由默认3改为1即可,即sudocephosdpoolsetdatamin_size1),meta节点只有运行ceph文件系统时才需要。所以如果只有一个单节点的话,需要在c
skdkjzz
·
2020-06-26 12:44
ceph存储
ceph存储
性能测试常见问题
目录名词解释性能测试FAQ1.性能测试的基本过程是什么?2.如何准备测试环境?3.准备环境时,由于条件限制,机器系统硬件环境可能不同,机器硬件的cpu主频,单双核,硬盘转速等对性能测试的影响情况如何,在准备测试中哪些因素可以较少考虑或者忽略?4.我们的机器本身会启很多自动服务,其对性能的影响如何?5.测试过程中应该收集哪些数据?应该怎么获得?6.是否打开cache,对性能测试有什么影响?7.系统缓
skdkjzz
·
2020-06-26 12:14
系统维护
ceph存储
ceph存储
Ceph管理平台Calamari的架构与功能分析
安装Calamari推荐使用vagrant+virtualbox的方式来build安装包,然后在对应的操作系统中进行安装,具体的安装过程请参照CephCalamari:step-by-step(http://ceph.com/category/ceph-gui/)里边有很详细的安装步骤。我使用的是Ubuntu13.10来创建Calamari的安装包,build后的安装包列表是:calamari-c
skdkjzz
·
2020-06-26 12:13
ceph存储
ceph存储
ceph集群监视器设置
监视器配置参考了解如何配置Ceph的监视器是建立一个可靠的Ceph的存储集群的重要组成部分。所有Ceph的存储集群中至少有一个监视器。监视器配置通常是一致的,但你可以添加,删除或替换集群中的一个监视器。获取更多详细信息,请参阅Adding/RemovingaMonitor和Add/RemoveaMonitor(ceph-deploy)背景Ceph的监视器保持在集群映射中的“主复本”,这意味着只需通
skdkjzz
·
2020-06-26 12:13
ceph存储
ceph存储
smartctl用法小结
SMART简介S.M.A.R.T.,全称为“Self-MonitoringAnalysisandReportingTechnology”,即“自我监测、分析及报告技术”。是一种自动的硬盘状态检测与预警系统和规范。通过在硬盘硬件内的检测指令对硬盘的硬件如磁头、盘片、马达、电路的运行情况进行监控、记录并与厂商所设定的预设安全值进行比较,若监控情况将或已超出预设安全值的安全范围,就可以通过主机的监控硬件
skdkjzz
·
2020-06-26 12:13
ceph存储
ceph存储
centos7搭建samba服务
1、首先安装sambayuminstallsamba2、查看安装信息rpm-qisamba,正常显示如下3、配置内核相关参数ulimit-n16384&&vim/etc/security/limits.conf,增加内容如下:*-nofile163844、关闭防火墙和selinux服务或者在iptables里放开445和139端口,并重启iptables服务smbpasswd-a增加用户(要增加的
skdkjzz
·
2020-06-26 12:13
嵌入式
ceph存储
ceph存储
Could not find keyring file: /etc/ceph/ceph.client.admin.keyring on host
ceph-deploymoncreate-initial命令执行后,如果提示:[ceph_deploy.mon][INFO]Runninggatherkeys...[ceph_deploy.gatherkeys][DEBUG]Checkingmanila59for/etc/ceph/ceph.client.admin.keyring[manila59][DEBUG]connectedtohost:
skdkjzz
·
2020-06-26 12:13
ceph存储
ceph存储
ceph集群性能测试fio
IOPS性能测试工具FIO是测试IOPS的非常好的工具,用来对硬件进行压力测试和验证,支持13种不同的I/O引擎,包括:sync,mmap,libaio,posixaio,SGv3,splice,null,network,syslet,guasi,solarisaio等等。fio官网地址:http://freshmeat.net/projects/fio/http://brick.kernel.d
skdkjzz
·
2020-06-26 12:42
ceph存储
ceph存储
ceph集群ceph-deploy安装说明
Ceph-deployInstallInstructionsVirtualenv简介:virtualenv官网(http://virtualenv.org/)是这样描述virtualenv的:virtualenv是一个创建隔离的Python环境的工具。virtualenv要解决的根本问题是库的版本和依赖,以及权限问题。假设你有一个程序,需要LibFoo的版本1,而另一个程序需要版本2,如何同时使用
skdkjzz
·
2020-06-26 12:42
ceph存储
嵌入式
ceph存储
smartctl硬盘状态监控
语法smartctl[options]device补充说明系统需要安装smartmontools才可以使用smartctl命令。smartmontools就是利用硬盘S.M.A.R.T.(Self-Monitoring_Analysis_and_Reporting)特性特性监测硬盘的软件包,包含smartctl和smartd两个程序,前者是前台命令行工具、后者是后台运行程序。#yuminstall
skdkjzz
·
2020-06-26 12:42
ceph存储
ceph存储
FUSE原理总结
1概述Fuse是filesysteminuserspace,一个用户空间的文件系统框架,允许非特权用户建立功能完备的文件系统,而不需要重新编译内核。fuse模块仅仅提供内核模块的入口,而本身的主要实现代码位于用户空间中。对于读写虚拟文件系统来讲,fuse是个很好的选择。fuse包含包含一个内核模块和一个用户空间守护进程,将大部分的VFS调用都委托一个专用的守护进程来处理。2工作原理Fuse用户空间
skdkjzz
·
2020-06-26 12:42
ceph存储
ceph存储
SAN,NAS,DAS及iSCSI其架构之间区别
随着计算机技术的发展和广泛应用,存储技术已经得到了业界和各个应用领域专业人士的重视。数据量的迅速增长为企业的发展提出了新的问题和要求,如何确保数据的一致性、安全性和可靠性,如何实现不同数据的集中管理,如何实现网络上的数据集中访问,如何实现不同主机类型的数据访问和保护等等。所有这些都呼唤着新的网络存储技术及其产品的出现。SAN与NAS技术和产品的出现不仅仅拓展了网络发展的空间,更为重要的是,它们将网
skdkjzz
·
2020-06-26 12:42
ceph存储
ceph存储
磁盘IOPS常识
计算磁盘IOPS的三个因素:1、RAID类型的读写比不同RAID类型的IOPS计算公式:RAID类型公式RAID5、RAID3DriveIOPS=ReadIOPS+4*WriteIOPSRAID6DriveIOPS=ReadIOPS+6*WriteIOPSRAID1、RAID10DriveIOPS=ReadIOPS+2*WriteIOPS2、硬盘类型的IOPS值不同磁盘类型的IOPS:硬盘类型IO
skdkjzz
·
2020-06-26 12:42
ceph存储
ceph存储
ceph集群ceph-deploy部署使用说明
icfs-deploy部署使用说明1、关于icfs-deploy的安装使用1)将icfs-deploy.tar.gz文件拷贝到/root目录下,并解压缩2)cd/root/icfs-deploy/virtualenv/bin/3)cpicfs-deploy/usr/bin/4)完成以上的步骤,就可以在任何的目录下使用icfs-deploy工具了.注:centos6.4系统平台使用的icfs-d
skdkjzz
·
2020-06-26 12:42
ceph存储
ceph存储
安装部署Ceph Calamari经典示例
Calamari是管理和监控Ceph集群的工具,并且提供RESTapi。建议的部署平台是ubuntu,本文使用CentOS6.5。安装部署获取calamari相关代码#gitclonehttps://github.com/ceph/calamari.git#gitclonehttps://github.com/ceph/calamari-clients.git#gitclonehttps://gi
skdkjzz
·
2020-06-26 12:42
ceph存储
ceph存储
ceph集群pool、pg、crush设置
存储池,PG和CRUSH配置的参考当您创建池和池设置配置组,Ceph的使用默认值,当你不专门覆盖默认值。建议overridding的一些默认设置。具体来说,我们建议设置池的副本的大小和覆盖默认的配置组。具体来说,您可以设置这些值运行游泳池命令时。您也可以添加新的Ceph的配置文件中的[全球]部分覆盖默认值。[global]#Bydefault,Cephmakes2replicasofobjects
skdkjzz
·
2020-06-26 12:41
ceph存储
ceph存储
centos7+0.87源码安装ceph集群问题汇总
安装过程中整理的相关文档和rpms包下载连接:http://download.csdn.net/detail/skdkjxy/8192825centOS7修改hostnamelocalectlset-localeLANG=要修改的语言hostnamectlset-hostname你要修改到的hostname0.87源码安装配置问题汇总./configureceph0.87源码安装后,./confi
skdkjzz
·
2020-06-26 12:41
ceph存储
ceph存储
ceph集群journal设置
日志配置参考Ceph的OSD使用日志的原因有二种:速度和一致性。速度:日志允许OSD快速地提交小块数据的写入,Ceph把小片、随机IO依次写入日志,这样,后端文件系统就有机会归并写入动作,并最终提升并发承载力。因此,使用OSD日志能展现出优秀的瞬间写性能,实际上却没有任何写动作,因为文件系统把它们捕捉到了日志。一致性:Ceph的OSD需要一个能保证原子操作的文件系统接口。OSD把一个操作的描述写入
skdkjzz
·
2020-06-26 12:41
ceph存储
ceph存储
ceph整体学习记录(未整理较乱)
ceph源码下载:http://ceph.com/download/主要文档下载连接:http://download.csdn.net/detail/skdkjxy/8149989/*******************/Time:2014-11-6Author:skdkjzz/******************/1、unified中何为radosgw、rbd、ceph-dfs、rados?2、
skdkjzz
·
2020-06-26 12:41
ceph存储
ceph存储
ceph集群性能测试vdbench
Vdbench使用小结vdbench是一个I/O工作负载生成器,用于验证数据完整性和度量直接附加和网络连接的存储的性能。它是一个免费的工具,容易使用,而且常常用于测试和基准测试。我们得出的结论是,缓存是I/O基准测试中的一个重要元素。本文介绍我们设置基准测试的步骤并展示结果。但是首先我们会简要介绍我们使用的以下产品和工具。基准测试设置首先从SmartCloud开始,这是一个以基于内核的虚拟机()为
skdkjzz
·
2020-06-26 12:41
ceph存储
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他