Ceph集群应用详解
- 1. 资源池Pool管理
- 1.1 查看Pool集群信息的三种方式
- 1.2 删除Pool资源池
- 2.创建CephFS文件系统MDS接口
- 2.1 创建cephfs
- 2.2 基于内核的客户端挂载
- 2.3 基于fuse工具方式的客户端挂载
- 3.创建Ceph块存储系统RBD接口
- 3.1 删除镜像
- 3.2 还原镜像
- 3.3 在线扩容
- 3.4 回滚镜像到指定位置
- 3.5 删除快照
- 3.6 快照分层
- 3.7 快照展平
- 3.8 镜像的导出导入
- 4. OSD故障模拟与恢复
接上文基于ceph-deploy部署Ceph集群详解
1. 资源池Pool管理
Pool是Ceph中存储Object对象抽象概念。我们可以将其理解为Ceph存储上划分的逻辑分区,Pool由多个PG组成;而PG通过CRUSH算法映射到不同的OSD上;同时Pool可以设置副本size大小,默认副本数量为3。
Ceph客户端向monitor请求集群的状态,并向Pool中写入数据,数据根据PGs的数量,通过CRUSH算法将其映射到不同的OSD节点上,实现数据的存储。 这里我们可以把Pool理解为存储Object数据的逻辑单元;当然,当前集群没有资源池,因此需要进行定义。
创建一个Pool资源池,其名字为mypool,PGs数量设置为64,设置PGs的同时还需要设置PGP(通常PGs和PGP的值是相同的):
PG (Placement Group),pg 是一个虚拟的概念,用于存放object,PGP(Placement Group for Placement purpose),相当于是pg存放的一种osd排列组合.
cd /etc/ceph
ceph osd pool create mypool 64 64
1.1 查看Pool集群信息的三种方式
ceph osd pool ls
rados lspools
ceph osd lspools
查看资源池副本的数量
ceph osd pool get mypool size
查看PG和PGP数量
ceph osd pool get mypool pg_num
ceph osd pool get mypool pgp_num
修改pg_num和pgp_num的数量为128
ceph osd pool set mypool pg_num 128
ceph osd pool set mypool pgp_num 128
ceph osd pool get mypool pg_num
ceph osd pool get mypool pgp_num
修改Pool副本数量为2
ceph osd pool set mypool size 2
ceph osd pool get mypool size
修改默认副本数为 2
vim /etc/ceph/ceph.conf
......
osd_pool_default_size = 2
ceph-deploy --overwrite-conf config push node01 node02 node03
1.2 删除Pool资源池
(1)删除存储池命令存在数据丢失的风险,Ceph默认禁止此类操作,需要管理员先在ceph.conf配置文件中开启支持删除存储池的操作
vim ceph.conf
......
[mon]
mon allow pool delete = true
(2)推送ceph.conf配置文件给所有mon节点
ceph-deploy --overwrite-conf config push node01 node02 node03
(3)所有mon节点重启ceph-mon服务
systemctl restart ceph-mon.target
(4)执行删除Pool命令
ceph osd pool rm mypool mypool --yes-i-really-really-mean-it #mypool是集群中已有的资源池名称
ceph osd pool ls
2.创建CephFS文件系统MDS接口
服务端操作
(1)在admin管理节点创建mds服务
cd /etc/ceph
ceph-deploy mds create node01 node02 node03
(2)查看各个节点的mds服务
ssh root@node01 systemctl status ceph-mds@node01
ssh root@node02 systemctl status ceph-mds@node02
ssh root@node03 systemctl status ceph-mds@node03
(3)创建存储池,启用ceph文件系统
ceph文件系统至少需要两个rado池,一个用于存储数据,一个用于存储元数据。此时数据池就类似于文件系统的共享目录。
ceph osd pool create cephfs_data 128 #创建数据Pool
ceph osd pool create cephfs_metadata 128 #创建元数据Pool
2.1 创建cephfs
命令格式:
ceph fs new <FS_NAME> <CEPHFS_METADATA_NAME> <CEPHFS_DATA_NAME>
ceph fs new mycephfs cephfs_metadata cephfs_data #启用ceph,元数据Pool在前,数据Pool在后
ceph fs ls #查看cephfs
(4)查看mds状态,一个up,其余两个待命,目前的工作是由node01上的mds提供服务
ceph -s
ceph mds stat
(5)创建用户
语法格式:
ceph fs authorize <fs_name> client.<client_id> <path-in-cephfs> rw
#账户为client.zhangsan,用户name为zhangsan,zhangsan对ceph文件系统的 / 根目录(注意不是操作系统的根目录)有读写权限
ceph fs authorize mycephfs client.zhangsan / rw | tee /etc/ceph/zhangsan.keyring
#账户为client.lisi,用户name为lisi,lisi对文件系统的 / 根目录只有读权限,对文件系统的根目录的子目录 /test有读写权限
ceph fs authorize mycephfs client.lisi / r /test rw | tee /etc/ceph/lisi.keyring
客户端操作
(1)客户端要在public网络内
(2)在客户端创建工作目录
mkdir /etc/ceph
(3)在 ceph 的管理节点给客户端拷贝 ceph 的配置文件 ceph.conf 和账号的秘钥环文件zhangsan.keyring、lisi.keyring
scp ceph.conf zhangsan.keyring lisi.keyring root@client:/etc/ceph
(4)在客户端安装ceph依赖包和软件包
cd /opt
yum -y install epel-release
yum -y install yum-plugin-priorities yum-utils ntpdate python-setuptools python-pip gcc gcc-c++ autoconf libjpeg libjpeg-devel libpng libpng-devel freetype freetype-devel libxml2 libxml2-devel zlib zlib-devel glibc glibc-devel glib2 glib2-devel bzip2 bzip2-devel zip unzip ncurses ncurses-devel curl curl-devel e2fsprogs e2fsprogs-devel krb5-devel libidn libidn-devel openssl openssh openssl-devel nss_ldap openldap openldap-devel openldap-clients openldap-servers libxslt-devel libevent-devel ntp libtool-ltdl bison libtool vim-enhanced python wget lsof iptraf strace lrzsz kernel-devel kernel-headers pam-devel tcl tk cmake ncurses-devel bison setuptool popt-devel net-snmp screen perl-devel pcre-devel net-snmp screen tcpdump rsync sysstat man iptables sudo libconfig git bind-utils tmux elinks numactl iftop bwm-ng net-tools expect snappy leveldb gdisk python-argparse gperftools-libs conntrack ipset jq libseccomp socat chrony sshpass
wget https://download.ceph.com/rpm-nautilus/el7/noarch/ceph-release-1-1.el7.noarch.rpm --no-check-certificate
rpm -ivh ceph-release-1-1.el7.noarch.rpm
yum install -y ceph
(5)在客户端制作秘钥文件
cd /etc/ceph
ceph-authtool -n client.zhangsan -p zhangsan.keyring > zhangsan.key #把zhangsan用户的秘钥导出到 zhangsan.keyl
ceph-authtool -n client.lisi -p lisi.keyring > lisi.key #把lisi用户的秘钥导出到lisi.key
(6)客户端挂载
cd /data/aa
ceph-fuse -m node01:6789,node02:6789,node03:6789 /data/aa -o nonempty #挂载时,如果挂载点不为空会挂载失败,指定-o nonempty可以忽略
2.2 基于内核的客户端挂载
语法格式:
mount -t ceph node01:6789,node02:6789,node03:6789:/ <本地挂载点目录> -o name=<用户名>,secret=<秘钥>
mount -t ceph node01:6789,node02:6789,node03:6789:/ <本地挂载点目录> -o name=<用户名>,secretfile=<秘钥文件>
示例一:
mkdir -p /data/zhangsan
mount -t ceph node01:6789,node02:6789,node03:6789:/ /data/zhangsan -o name=zhangsan,secretfile=/etc/ceph/zhangsan.key
示例二:
mkdir -p /data/lisi
mount -t ceph node01:6789,node02:6789,node03:6789:/ /data/lisi -o name=lisi,secretfile=/etc/ceph/lisi.key
验证用户权限
cd /data/lisi
echo 123 > 2.txt
cd /data/zhangsan
mkdir test #lisi用户只有读取权限,没有修改权限,需要先切换到zhangsan用户下创建/test目录
cd /data/lisi
echo 123 > test/2.txt
cat test/2.txt
示例三:
#停掉node02上的mds服务
ssh root@node02 "systemctl stop ceph-mds@node02"
ceph -s
#测试客户端的挂载点仍然是可以用的,如果停掉所有的 mds,客户端就不能用了
2.3 基于fuse工具方式的客户端挂载
(1)在 ceph 的管理节点给客户端拷贝用户账号的秘钥环文件zhangsan.keyring、lisi.keyring
cd /etc/ceph
scp ceph.client.admin.keyring root@client:/etc/ceph
(2)在客户端安装ceph-fuse
yum install -y ceph-fuse
(3)客户端挂载
mkdir -p /data/aa
cd /data/aa
ceph-fuse -m node01:6789,node02:6789,node03:6789 /data/aa [-o nonempty] #挂载时,如果挂载点不为空会挂载失败,指定 -o nonempty 可以忽略
3.创建Ceph块存储系统RBD接口
(1)创建一个名为rbd-demo的专门用于RBD的存储池
ceph osd pool create rbd-demo 64 64
(2)将存储池转换为RBD模式
ceph osd pool application enable rbd-demo rbd
(3)初始化存储池
rbd pool init -p rbd-demo # -p 等同于 --pool
(4)创建镜像
rbd create -p rbd-demo --image rbd-demo1.img --size 10G
###可简写为
rbd create rbd-demo/rbd-demo2.img --size 10G
(5)镜像管理
查看存储池下存在哪些镜像
rbd ls -l -p rbd-demo
查看镜像的详细信息
rbd info -p rbd-demo --image rbd-demo1.img
修改镜像大小
rbd resize -p rbd-demo --image rbd-demo1.img --size 20G
rbd info -p rbd-demo --image rbd-demo1.img
#使用 resize 调整镜像大小,一般建议只增不减,如果是减少的话需要加选项 --allow-shrink
rbd resize -p rbd-demo --image rbd-demo1.img --size 5G --allow-shrink
3.1 删除镜像
直接删除镜像
rbd rm -p rbd-demo --image rbd-demo2.img
rbd remove rbd-demo/rbd-demo2.img
推荐使用trash命令,这个命令删除是将镜像移动至回收站,如果想找回还可以恢复
rbd trash move rbd-demo/rbd-demo1.img
rbd ls -l -p rbd-demo
rbd trash list -p rbd-demo
acc62785c8bb rbd-demo1.img
3.2 还原镜像
rbd trash restore rbd-demo/acc62785c8bb
rbd ls -l -p rbd-demo
(6)Linux客户端使用
客户端使用RBD有两种方式:
- 通过内核模块KRBD将镜像映射为系统本地块设备,通常设置文件一般为:/dev/rbd*
- 另一种是通过librbd接口,通常KVM虚拟机使用这种接口。
本例主要是使用Linux客户端挂载RBD镜像为本地磁盘使用。开始之前需要在所需要客户端节点上面安装ceph-common软件包,因为客户端需要调用rbd命令将RBD镜像映射到本地当作一块普通硬盘使用。并还需要把ceph.conf配置文件和授权keyring文件复制到对应的节点。
在管理节点创建并授权一个用户可访问指定的 RBD 存储池
#示例,指定用户标识为client.osd-mount,对另对OSD有所有的权限,对Mon有只读的权限
ceph auth get-or-create client.osd-mount osd "allow * pool=rbd-demo" mon "allow r" > /etc/ceph/ceph.client.osd-mount.keyring
修改RBD镜像特性,CentOS7默认情况下只支持layering和striping特性,需要将其它的特性关闭
rbd feature disable rbd-demo/rbd-demo1.img object-map,fast-diff,deep-flatten
将用户的keyring文件和ceph.conf文件发送到客户端的/etc/ceph目录下
cd /etc/ceph
scp ceph.client.osd-mount.keyring ceph.conf root@client:/etc/ceph
linux客户端操作
#安装ceph-common软件包
yum install -y ceph-common
执行客户端映射
cd /etc/ceph
rbd map rbd-demo/rbd-demo1.img --keyring /etc/ceph/ceph.client.osd-mount.keyring --user osd-mount
查看映射
rbd showmapped
rbd device list
断开映射
rbd unmap rbd-demo/rbd-demo1.img
格式化并挂载
mkfs.xfs /dev/rbd0
mkdir -p /data/bb
mount /dev/rbd0 /data/bb
3.3 在线扩容
###在管理节点调整镜像的大小
rbd resize rbd-demo/rbd-demo1.img --size 30G
在线刷新/dev/rbd0设备文件
xfs_growfs /dev/rbd0 #刷新xfs文件系统容量
resize2fs /dev/rbd0 #刷新ext4类型文件系统容量
(7)快照管理
对rb 镜像进行快照,可以保留镜像的状态历史,另外还可以利用快照的分层技术,通过将快照克隆为新的镜像使用。
在客户端写入文件:
echo 1111 > /data/bb/11.txt
echo 2222 > /data/bb/22.txt
echo 3333 > /data/bb/33.txt
在管理节点对镜像创建快照
rbd snap create --pool rbd-demo --image rbd-demo1.img --snap demo1_snap1
###可简写为
rbd snap create rbd-demo/rbd-demo1.img@demo1_snap1
列出指定镜像所有快照
rbd snap list rbd-demo/rbd-demo1.img
用json格式输出
rbd snap list rbd-demo/rbd-demo1.img --format json --pretty-format
3.4 回滚镜像到指定位置
在回滚快照之前,需要将镜像取消镜像的映射,然后再回滚。
在客户端操作
rm -rf /data/bb/*
umount /data/bb
rbd unmap rbd-demo/rbd-demo1.img
在管理节点操作,回滚镜像到快照的位置
rbd snap rollback rbd-demo/rbd-demo1.img@demo1_snap1
在客户端重新映射并挂载
rbd map rbd-demo/rbd-demo1.img --keyring /etc/ceph/ceph.client.osd-mount.keyring --user osd-mount
mount /dev/rbd0 /data/bb
ls /data/bb #发现数据还原回来了
限制镜像可创建快照数
rbd snap limit set rbd-demo/rbd-demo1.img --limit 3
解除限制
rbd snap limit clear rbd-demo/rbd-demo1.img
3.5 删除快照
删除指定快照
rbd snap rm rbd-demo/rbd-demo1.img@demo1_snap1
删除所有快照
rbd snap purge rbd-demo/rbd-demo1.img
3.6 快照分层
快照分层支持用快照的克隆生成新镜像,这种镜像与直接创建的镜像几乎完全一样,支持镜像的所有操作。唯一不同的是克隆镜像引用了一个只读的上游快照,而且此快照必须要设置保护模式。
快照克隆
(1)将上游快照设置为保护模式
rbd snap create rbd-demo/rbd-demo1.img@demo1_snap666
rbd snap protect rbd-demo/rbd-demo1.img@demo1_snap666
rbd snap list rbd-demo/rbd-demo1.img #列出指定镜像的所有快照
(2)克隆快照为新的镜像
rbd clone rbd-demo/rbd-demo1.img@demo1_snap666 --dest rbd-demo/rbd-demo666.img
rbd ls -l -p rbd-demo #查看存储池下存在那些镜像
(3)命令查看克隆完成后快照的子镜像
rbd children rbd-demo/rbd-demo1.img@demo1_snap666
3.7 快照展平
通常情况下,通过快照克隆而得到的镜像会保留对父快照的引用,这时候不可以删除该父快照,否则会有影响。
rbd snap rm rbd-demo/rbd-demo1.img@demo1_snap666
#报错snapshot 'demo1_snap666' is protected from removal
如果要删除快照但想保留其子镜像,必须先展平其子镜像,展平的时间取决于镜像的大小。
(1)展平子镜像
rbd flatten rbd-demo/rbd-demo666.img
(2)取消快照保护
rbd snap unprotect rbd-demo/rbd-demo1.img@demo1_snap666
(3)删除快照
rbd snap rm rbd-demo/rbd-demo1.img@demo1_snap666
rbd ls -l -p rbd-demo #在删除掉快照后,查看子镜像依然存在
3.8 镜像的导出导入
- 导出镜像
rbd export rbd-demo/rbd-demo1.img /opt/rbd-demo1.img
- 导入镜像
#卸载客户端挂载,并取消映射
umount /data/bb
rbd unmap rbd-demo/rbd-demo1.img
- 清除镜像下的所有快照,并删除镜像
rbd snap purge rbd-demo/rbd-demo1.img purge:清除
rbd rm rbd-demo/rbd-demo1.img
rbd ls -l -p rbd-demo
- 导入镜像
rbd import /opt/rbd-demo1.img rbd-demo/rbd-demo1.img
rbd ls -l -p rbd-demo
4. OSD故障模拟与恢复
(1)模拟OSD故障
如果ceph集群有上千个osd,每天坏2~3个太正常了,我们可以模拟down掉一个osd。
###如果osd守护进程正常运行,down的osd会很快自恢复正常,所以需要先关闭守护进程
ssh root@node01 systemctl stop ceph-osd@0
#down掉osd
ceph osd down 0
ceph osd tree
(2)将坏掉的osd踢出集群
方法一:
#将 osd.0 移出集群,集群会开始自动同步数据
ceph osd out osd.0
#将 osd.0 移除 crushmap
ceph osd crush remove osd.0
#删除守护进程对应的账户信息
ceph auth rm osd.0
ceph auth list
#删掉 osd.0
ceph osd rm osd.0
ceph osd stat
ceph -s
方法二:
ceph osd out osd.2
#使用综合步骤,删除配置文件中针对坏掉的 osd 的配置
ceph osd purge osd.2 --yes-i-really-mean-it
(3)把原来坏掉的osd修复后重新加入集群
#在osd节点中创建osd,无需指定名,会按序号自动生成
cd /etc/ceph
ceph osd create
创建账户
ceph-authtool --create-keyring /etc/ceph/ceph.osd.0.keyring --gen-key -n osd.0 --cap mon 'allow profile osd' --cap mgr 'allow profile osd' --cap osd 'allow *'
导入新的账户秘钥信息
ceph auth import -i /etc/ceph/ceph.osd.0.keyring
ceph auth list
在osd节点中,更新osd文件夹中对应的密钥环文件
ceph auth get-or-create osd.0 -o /var/lib/ceph/osd/ceph-0/keyring
在admin管理节点中,加入crushmap
ceph osd crush add osd.0 1.000 host=node01 #1.000 代表权重
在admin管理节点中,将新修复的osd节点加入集群
ceph osd in osd.0
ceph osd tree
在osd节点中重启osd守护进程
systemctl restart ceph-osd@0
ceph osd tree #稍等片刻后osd状态为up
如果重启失败
报错如下:
Job for ceph-osd@0.service failed because start of the service was attempted too often. See "systemctl status ceph-osd@0.service" and "journalctl -xe" for details.
To force a start use "systemctl reset-failed ceph-osd@0.service" followed by "systemctl start ceph-osd@0.service" again.
在osd节点中运行以下命令,重启osd守护进程
systemctl reset-failed ceph-osd@0.service && systemctl restart ceph-osd@0.service