【Ceph】Ceph集群应用详解

news2024/11/26 4:22:18

Ceph集群应用详解

  • 1. 资源池Pool管理
    • 1.1 查看Pool集群信息的三种方式
    • 1.2 删除Pool资源池
  • 2.创建CephFS文件系统MDS接口
    • 2.1 创建cephfs
    • 2.2 基于内核的客户端挂载
    • 2.3 基于fuse工具方式的客户端挂载
  • 3.创建Ceph块存储系统RBD接口
    • 3.1 删除镜像
    • 3.2 还原镜像
    • 3.3 在线扩容
    • 3.4 回滚镜像到指定位置
    • 3.5 删除快照
    • 3.6 快照分层
    • 3.7 快照展平
    • 3.8 镜像的导出导入
  • 4. OSD故障模拟与恢复

接上文基于ceph-deploy部署Ceph集群详解

1. 资源池Pool管理

Pool是Ceph中存储Object对象抽象概念。我们可以将其理解为Ceph存储上划分的逻辑分区,Pool由多个PG组成;而PG通过CRUSH算法映射到不同的OSD上;同时Pool可以设置副本size大小,默认副本数量为3。

Ceph客户端向monitor请求集群的状态,并向Pool中写入数据,数据根据PGs的数量,通过CRUSH算法将其映射到不同的OSD节点上,实现数据的存储。 这里我们可以把Pool理解为存储Object数据的逻辑单元;当然,当前集群没有资源池,因此需要进行定义。

创建一个Pool资源池,其名字为mypool,PGs数量设置为64,设置PGs的同时还需要设置PGP(通常PGs和PGP的值是相同的):
PG (Placement Group),pg 是一个虚拟的概念,用于存放object,PGP(Placement Group for Placement purpose),相当于是pg存放的一种osd排列组合.

cd /etc/ceph
ceph osd pool create mypool 64 64

在这里插入图片描述

1.1 查看Pool集群信息的三种方式

ceph osd pool ls    
rados lspools
ceph osd lspools

在这里插入图片描述

查看资源池副本的数量

ceph osd pool get mypool size

在这里插入图片描述

查看PG和PGP数量

ceph osd pool get mypool pg_num
ceph osd pool get mypool pgp_num

在这里插入图片描述

修改pg_num和pgp_num的数量为128

ceph osd pool set mypool pg_num 128
ceph osd pool set mypool pgp_num 128

ceph osd pool get mypool pg_num
ceph osd pool get mypool pgp_num

在这里插入图片描述

修改Pool副本数量为2

ceph osd pool set mypool size 2

ceph osd pool get mypool size

在这里插入图片描述

修改默认副本数为 2

vim /etc/ceph/ceph.conf
......
osd_pool_default_size = 2

ceph-deploy --overwrite-conf config push node01 node02 node03

在这里插入图片描述

在这里插入图片描述

1.2 删除Pool资源池

(1)删除存储池命令存在数据丢失的风险,Ceph默认禁止此类操作,需要管理员先在ceph.conf配置文件中开启支持删除存储池的操作

vim ceph.conf
......
[mon]
mon allow pool delete = true

(2)推送ceph.conf配置文件给所有mon节点

ceph-deploy --overwrite-conf config push node01 node02 node03

在这里插入图片描述

(3)所有mon节点重启ceph-mon服务

systemctl restart ceph-mon.target

在这里插入图片描述

(4)执行删除Pool命令

ceph osd pool rm mypool mypool --yes-i-really-really-mean-it     #mypool是集群中已有的资源池名称
ceph osd pool ls

在这里插入图片描述

2.创建CephFS文件系统MDS接口

服务端操作

(1)在admin管理节点创建mds服务

cd /etc/ceph
ceph-deploy mds create node01 node02 node03

在这里插入图片描述

(2)查看各个节点的mds服务

ssh root@node01 systemctl status ceph-mds@node01
ssh root@node02 systemctl status ceph-mds@node02
ssh root@node03 systemctl status ceph-mds@node03

在这里插入图片描述

(3)创建存储池,启用ceph文件系统

ceph文件系统至少需要两个rado池,一个用于存储数据,一个用于存储元数据。此时数据池就类似于文件系统的共享目录。

ceph osd pool create cephfs_data 128					#创建数据Pool

ceph osd pool create cephfs_metadata 128				#创建元数据Pool

在这里插入图片描述

2.1 创建cephfs

命令格式:

ceph fs new <FS_NAME> <CEPHFS_METADATA_NAME> <CEPHFS_DATA_NAME>
ceph fs new mycephfs cephfs_metadata cephfs_data		#启用ceph,元数据Pool在前,数据Pool在后

ceph fs ls					#查看cephfs

在这里插入图片描述

(4)查看mds状态,一个up,其余两个待命,目前的工作是由node01上的mds提供服务

ceph -s
ceph mds stat

在这里插入图片描述

(5)创建用户

语法格式:

ceph fs authorize  <fs_name>  client.<client_id>  <path-in-cephfs>  rw
#账户为client.zhangsan,用户name为zhangsan,zhangsan对ceph文件系统的 / 根目录(注意不是操作系统的根目录)有读写权限
ceph fs authorize mycephfs client.zhangsan / rw | tee /etc/ceph/zhangsan.keyring

#账户为client.lisi,用户name为lisi,lisi对文件系统的 / 根目录只有读权限,对文件系统的根目录的子目录 /test有读写权限
ceph fs authorize mycephfs client.lisi / r /test rw | tee /etc/ceph/lisi.keyring

在这里插入图片描述

客户端操作

(1)客户端要在public网络内

在这里插入图片描述

(2)在客户端创建工作目录

mkdir /etc/ceph

(3)在 ceph 的管理节点给客户端拷贝 ceph 的配置文件 ceph.conf 和账号的秘钥环文件zhangsan.keyring、lisi.keyring

scp ceph.conf zhangsan.keyring lisi.keyring root@client:/etc/ceph

在这里插入图片描述

(4)在客户端安装ceph依赖包和软件包

cd /opt
yum -y install epel-release
yum -y install yum-plugin-priorities yum-utils ntpdate python-setuptools python-pip gcc gcc-c++ autoconf libjpeg libjpeg-devel libpng libpng-devel freetype freetype-devel libxml2 libxml2-devel zlib zlib-devel glibc glibc-devel glib2 glib2-devel bzip2 bzip2-devel zip unzip ncurses ncurses-devel curl curl-devel e2fsprogs e2fsprogs-devel krb5-devel libidn libidn-devel openssl openssh openssl-devel nss_ldap openldap openldap-devel openldap-clients openldap-servers libxslt-devel libevent-devel ntp libtool-ltdl bison libtool vim-enhanced python wget lsof iptraf strace lrzsz kernel-devel kernel-headers pam-devel tcl tk cmake ncurses-devel bison setuptool popt-devel net-snmp screen perl-devel pcre-devel net-snmp screen tcpdump rsync sysstat man iptables sudo libconfig git bind-utils tmux elinks numactl iftop bwm-ng net-tools expect snappy leveldb gdisk python-argparse gperftools-libs conntrack ipset jq libseccomp socat chrony sshpass

wget https://download.ceph.com/rpm-nautilus/el7/noarch/ceph-release-1-1.el7.noarch.rpm --no-check-certificate
rpm -ivh ceph-release-1-1.el7.noarch.rpm
yum install -y ceph 

在这里插入图片描述

(5)在客户端制作秘钥文件

cd /etc/ceph
ceph-authtool -n client.zhangsan -p zhangsan.keyring > zhangsan.key			#把zhangsan用户的秘钥导出到 zhangsan.keyl
ceph-authtool -n client.lisi -p lisi.keyring > lisi.key						#把lisi用户的秘钥导出到lisi.key

在这里插入图片描述

(6)客户端挂载

cd /data/aa
ceph-fuse -m node01:6789,node02:6789,node03:6789 /data/aa -o nonempty		#挂载时,如果挂载点不为空会挂载失败,指定-o nonempty可以忽略

2.2 基于内核的客户端挂载

语法格式:

mount -t ceph node01:6789,node02:6789,node03:6789:/  <本地挂载点目录>  -o name=<用户名>,secret=<秘钥>
mount -t ceph node01:6789,node02:6789,node03:6789:/  <本地挂载点目录>  -o name=<用户名>,secretfile=<秘钥文件>

示例一:

mkdir -p /data/zhangsan
mount -t ceph node01:6789,node02:6789,node03:6789:/ /data/zhangsan -o name=zhangsan,secretfile=/etc/ceph/zhangsan.key

在这里插入图片描述

示例二:

mkdir -p /data/lisi
mount -t ceph node01:6789,node02:6789,node03:6789:/ /data/lisi -o name=lisi,secretfile=/etc/ceph/lisi.key

在这里插入图片描述

验证用户权限

cd /data/lisi
echo 123 > 2.txt

在这里插入图片描述

cd /data/zhangsan
mkdir test       #lisi用户只有读取权限,没有修改权限,需要先切换到zhangsan用户下创建/test目录
cd /data/lisi
echo 123 > test/2.txt
cat test/2.txt

在这里插入图片描述

示例三:

#停掉node02上的mds服务
ssh root@node02 "systemctl stop ceph-mds@node02"

ceph -s
#测试客户端的挂载点仍然是可以用的,如果停掉所有的 mds,客户端就不能用了

在这里插入图片描述

2.3 基于fuse工具方式的客户端挂载

(1)在 ceph 的管理节点给客户端拷贝用户账号的秘钥环文件zhangsan.keyring、lisi.keyring

cd /etc/ceph
scp ceph.client.admin.keyring root@client:/etc/ceph

在这里插入图片描述

(2)在客户端安装ceph-fuse

yum install -y ceph-fuse

在这里插入图片描述

(3)客户端挂载

mkdir -p /data/aa
cd /data/aa
ceph-fuse -m node01:6789,node02:6789,node03:6789 /data/aa [-o nonempty]			#挂载时,如果挂载点不为空会挂载失败,指定 -o nonempty 可以忽略

在这里插入图片描述

3.创建Ceph块存储系统RBD接口

(1)创建一个名为rbd-demo的专门用于RBD的存储池

ceph osd pool create rbd-demo 64 64

(2)将存储池转换为RBD模式

ceph osd pool application enable rbd-demo rbd

(3)初始化存储池

rbd pool init -p rbd-demo			# -p 等同于 --pool

(4)创建镜像

rbd create -p rbd-demo --image rbd-demo1.img --size 10G

###可简写为
rbd create rbd-demo/rbd-demo2.img --size 10G

在这里插入图片描述

(5)镜像管理

查看存储池下存在哪些镜像

rbd ls -l -p rbd-demo

查看镜像的详细信息

rbd info -p rbd-demo --image rbd-demo1.img

在这里插入图片描述

修改镜像大小

rbd resize -p rbd-demo --image rbd-demo1.img --size 20G

rbd info -p rbd-demo --image rbd-demo1.img

#使用 resize 调整镜像大小,一般建议只增不减,如果是减少的话需要加选项 --allow-shrink
rbd resize -p rbd-demo --image rbd-demo1.img --size 5G --allow-shrink

在这里插入图片描述
在这里插入图片描述

3.1 删除镜像

直接删除镜像

rbd rm -p rbd-demo --image rbd-demo2.img
rbd remove rbd-demo/rbd-demo2.img

在这里插入图片描述

推荐使用trash命令,这个命令删除是将镜像移动至回收站,如果想找回还可以恢复

rbd trash move rbd-demo/rbd-demo1.img

rbd ls -l -p rbd-demo

rbd trash list -p rbd-demo
acc62785c8bb rbd-demo1.img

在这里插入图片描述

3.2 还原镜像

rbd trash restore rbd-demo/acc62785c8bb

rbd ls -l -p rbd-demo

在这里插入图片描述

(6)Linux客户端使用

客户端使用RBD有两种方式:

  • 通过内核模块KRBD将镜像映射为系统本地块设备,通常设置文件一般为:/dev/rbd*
  • 另一种是通过librbd接口,通常KVM虚拟机使用这种接口

本例主要是使用Linux客户端挂载RBD镜像为本地磁盘使用。开始之前需要在所需要客户端节点上面安装ceph-common软件包,因为客户端需要调用rbd命令将RBD镜像映射到本地当作一块普通硬盘使用。并还需要把ceph.conf配置文件和授权keyring文件复制到对应的节点

在管理节点创建并授权一个用户可访问指定的 RBD 存储池

#示例,指定用户标识为client.osd-mount,对另对OSD有所有的权限,对Mon有只读的权限
ceph auth get-or-create client.osd-mount osd "allow * pool=rbd-demo" mon "allow r" > /etc/ceph/ceph.client.osd-mount.keyring

修改RBD镜像特性,CentOS7默认情况下只支持layering和striping特性,需要将其它的特性关闭

rbd feature disable rbd-demo/rbd-demo1.img object-map,fast-diff,deep-flatten

在这里插入图片描述

将用户的keyring文件和ceph.conf文件发送到客户端的/etc/ceph目录下

cd /etc/ceph
scp ceph.client.osd-mount.keyring ceph.conf root@client:/etc/ceph

在这里插入图片描述

linux客户端操作

#安装ceph-common软件包
yum install -y ceph-common

执行客户端映射

cd /etc/ceph
rbd map rbd-demo/rbd-demo1.img --keyring /etc/ceph/ceph.client.osd-mount.keyring --user osd-mount

查看映射

rbd showmapped
rbd device list

在这里插入图片描述

断开映射

rbd unmap rbd-demo/rbd-demo1.img

格式化并挂载

mkfs.xfs /dev/rbd0

mkdir -p /data/bb
mount /dev/rbd0 /data/bb

在这里插入图片描述

3.3 在线扩容

###在管理节点调整镜像的大小
rbd resize rbd-demo/rbd-demo1.img --size 30G

在线刷新/dev/rbd0设备文件

xfs_growfs /dev/rbd0		#刷新xfs文件系统容量
resize2fs /dev/rbd0			#刷新ext4类型文件系统容量

在这里插入图片描述

(7)快照管理

对rb 镜像进行快照,可以保留镜像的状态历史,另外还可以利用快照的分层技术,通过将快照克隆为新的镜像使用

在客户端写入文件:

echo 1111 > /data/bb/11.txt
echo 2222 > /data/bb/22.txt
echo 3333 > /data/bb/33.txt

在管理节点对镜像创建快照

rbd snap create --pool rbd-demo --image rbd-demo1.img --snap demo1_snap1

###可简写为
rbd snap create rbd-demo/rbd-demo1.img@demo1_snap1

列出指定镜像所有快照

rbd snap list rbd-demo/rbd-demo1.img

用json格式输出

rbd snap list rbd-demo/rbd-demo1.img --format json --pretty-format

在这里插入图片描述

3.4 回滚镜像到指定位置

在回滚快照之前,需要将镜像取消镜像的映射,然后再回滚

在客户端操作

rm -rf /data/bb/*
umount /data/bb
rbd unmap rbd-demo/rbd-demo1.img

在这里插入图片描述

在管理节点操作,回滚镜像到快照的位置

rbd snap rollback rbd-demo/rbd-demo1.img@demo1_snap1

在这里插入图片描述

在客户端重新映射并挂载

rbd map rbd-demo/rbd-demo1.img --keyring /etc/ceph/ceph.client.osd-mount.keyring --user osd-mount
mount /dev/rbd0 /data/bb
ls /data/bb				#发现数据还原回来了

在这里插入图片描述

限制镜像可创建快照数

rbd snap limit set rbd-demo/rbd-demo1.img --limit 3

解除限制

rbd snap limit clear rbd-demo/rbd-demo1.img

3.5 删除快照

删除指定快照

rbd snap rm rbd-demo/rbd-demo1.img@demo1_snap1

删除所有快照

rbd snap purge rbd-demo/rbd-demo1.img

在这里插入图片描述

3.6 快照分层

快照分层支持用快照的克隆生成新镜像,这种镜像与直接创建的镜像几乎完全一样,支持镜像的所有操作。唯一不同的是克隆镜像引用了一个只读的上游快照,而且此快照必须要设置保护模式

快照克隆

(1)将上游快照设置为保护模式

rbd snap create rbd-demo/rbd-demo1.img@demo1_snap666

rbd snap protect rbd-demo/rbd-demo1.img@demo1_snap666
rbd snap list rbd-demo/rbd-demo1.img     #列出指定镜像的所有快照

在这里插入图片描述

(2)克隆快照为新的镜像

rbd clone rbd-demo/rbd-demo1.img@demo1_snap666 --dest rbd-demo/rbd-demo666.img

 rbd ls -l -p rbd-demo     #查看存储池下存在那些镜像   

(3)命令查看克隆完成后快照的子镜像

rbd children rbd-demo/rbd-demo1.img@demo1_snap666

在这里插入图片描述
在这里插入图片描述

3.7 快照展平

通常情况下,通过快照克隆而得到的镜像会保留对父快照的引用,这时候不可以删除该父快照,否则会有影响。

rbd snap rm rbd-demo/rbd-demo1.img@demo1_snap666
#报错snapshot 'demo1_snap666' is protected from removal

如果要删除快照但想保留其子镜像,必须先展平其子镜像,展平的时间取决于镜像的大小
(1)展平子镜像

rbd flatten rbd-demo/rbd-demo666.img

(2)取消快照保护

rbd snap unprotect rbd-demo/rbd-demo1.img@demo1_snap666

(3)删除快照

rbd snap rm rbd-demo/rbd-demo1.img@demo1_snap666
rbd ls -l -p rbd-demo			#在删除掉快照后,查看子镜像依然存在

在这里插入图片描述

3.8 镜像的导出导入

  • 导出镜像
rbd export rbd-demo/rbd-demo1.img  /opt/rbd-demo1.img

在这里插入图片描述

  • 导入镜像
#卸载客户端挂载,并取消映射
umount /data/bb
rbd unmap rbd-demo/rbd-demo1.img
  • 清除镜像下的所有快照,并删除镜像
rbd snap purge rbd-demo/rbd-demo1.img   purge:清除
rbd rm rbd-demo/rbd-demo1.img

rbd ls -l -p rbd-demo

在这里插入图片描述

  • 导入镜像
rbd import /opt/rbd-demo1.img  rbd-demo/rbd-demo1.img
rbd ls -l -p rbd-demo

在这里插入图片描述

4. OSD故障模拟与恢复

(1)模拟OSD故障

如果ceph集群有上千个osd,每天坏2~3个太正常了,我们可以模拟down掉一个osd

###如果osd守护进程正常运行,down的osd会很快自恢复正常,所以需要先关闭守护进程
ssh root@node01 systemctl stop ceph-osd@0

#down掉osd
ceph osd down 0
ceph osd tree

在这里插入图片描述

(2)将坏掉的osd踢出集群

方法一:

#将 osd.0 移出集群,集群会开始自动同步数据
ceph osd out osd.0

#将 osd.0 移除 crushmap
ceph osd crush remove osd.0

#删除守护进程对应的账户信息
ceph auth rm osd.0
ceph auth list

#删掉 osd.0
ceph osd rm osd.0

ceph osd stat
ceph -s

在这里插入图片描述

方法二:

ceph osd out osd.2

#使用综合步骤,删除配置文件中针对坏掉的 osd 的配置
ceph osd purge osd.2 --yes-i-really-mean-it

在这里插入图片描述

(3)把原来坏掉的osd修复后重新加入集群

#在osd节点中创建osd,无需指定名,会按序号自动生成
cd /etc/ceph
ceph osd create

在这里插入图片描述

创建账户

ceph-authtool --create-keyring /etc/ceph/ceph.osd.0.keyring --gen-key -n osd.0 --cap mon 'allow profile osd' --cap mgr 'allow profile osd' --cap osd 'allow *'

导入新的账户秘钥信息

ceph auth import -i /etc/ceph/ceph.osd.0.keyring
ceph auth list

在这里插入图片描述

在osd节点中,更新osd文件夹中对应的密钥环文件


ceph auth get-or-create osd.0 -o /var/lib/ceph/osd/ceph-0/keyring

在这里插入图片描述

在admin管理节点中,加入crushmap

ceph osd crush add osd.0 1.000 host=node01		#1.000 代表权重

在admin管理节点中,将新修复的osd节点加入集群

ceph osd in osd.0
ceph osd tree

在osd节点中重启osd守护进程

systemctl restart ceph-osd@0
ceph osd tree		#稍等片刻后osd状态为up	

在这里插入图片描述

如果重启失败

报错如下:

Job for ceph-osd@0.service failed because start of the service was attempted too often. See "systemctl  status ceph-osd@0.service" and "journalctl -xe" for details.
To force a start use "systemctl reset-failed ceph-osd@0.service" followed by "systemctl start ceph-osd@0.service" again.

在osd节点中运行以下命令,重启osd守护进程

systemctl reset-failed ceph-osd@0.service && systemctl restart ceph-osd@0.service

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/764805.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

flutter开发实战-卡片翻转动画效果Transform+IndexedStack+rotateAnimation

flutter开发实战-实现卡片翻转动画效果 之前开发中遇到了商品卡片翻转&#xff0c;商品正面是商品图片、商品名称&#xff1b;背面是商品价格&#xff0c;需要做卡片翻转动画。 动画实现即&#xff1a;在一段时间内&#xff0c;快速地多次改变UI外观&#xff1b;由于人眼会产生…

Ext JS中定义和使用类Ext JS风格的html 按钮

Ext JS 的按钮样式如下: 按钮的背景色默认为应用的主色调或是灰色系, 也可以通过样式设置按钮的背景色, 详细可以参考: Ext JS 如何设置工具栏按钮和一般按钮保持统一样式 但是, 在实际开发的场景中有可能某些按钮是不能通过Ext JS的Button 类进行创建的, 但是页面效果…

第三章:内存管理——C++的内存管理方式

系列文章目录 文章目录 系列文章目录前言C/C内存分布C语言中动态内存管理方式面试题 C内存管理模式new/delete操作内置类型new和delete操作自定义类型 operator new与operator delete函数new和delete的实现原理内置类型自定义类型 定位new表达式(placement-new)常见面试题mallo…

JDBC 驱动程序类型

什么是JDBC驱动程序&#xff1f; JDBC驱动程序在JDBC API中实现了已定义的接口&#xff0c;用于与数据库服务器进行交互。 例如&#xff0c;使用JDBC驱动程序&#xff0c;您可以通过发送SQL或数据库命令&#xff0c;然后使用Java接收结果来打开数据库连接并与其进行交互。 J…

el-date-picker 宽度溢出浏览器问题

原文链接&#xff1a; el-date-picker 宽度溢出浏览器问题 问题由来 <el-date-picker v-model"Time" type"datetimerange"range-separator"至"start-placeholder"年/月/日 时:分:秒"end-placeholder"年/月/日 时:分:秒"…

通过迁移加速计划迁移到亚马逊云科技

公司出于许多不同的原因迁移到云。也许他们需要关闭一个老化的数据中心。或者&#xff0c;他们正在寻找太昂贵或太难在内部构建和维护的新功能。无论出于何种原因&#xff0c;在开始规划迁移之前&#xff0c;他们还有另一个问题需要回答&#xff1a;哪种云服务适合他们的需求&a…

基于互一致性学习的半监督医学图像分割

文章目录 Mutual Consistency Learning for Semi-supervised Medical Image Segmentation摘要本文方法实验结果 Mutual Consistency Learning for Semi-supervised Medical Image Segmentation 摘要 提出了一种新的互一致性网络(MC-Net)来有效地利用未标记数据进行半监督医学…

修复git diff正文中文乱码

Linux git diff正文中文乱码 在命令行下输入以下命令&#xff1a; $ git config --global core.quotepath false # 显示 status 编码 $ git config --global gui.encoding utf-8 # 图形界面编码 $ git config --global i18n.commit.encoding utf-8 # …

安装linux子系统时,出现的问题

目录 一、事故原因&#xff1a;适配linux子系统问题 二、事故问题&#xff1a;wsl版本问题 一、事故原因&#xff1a;适配linux子系统问题 事故全文&#xff1a; Installing, this may take a few minutes... WslRegisterDistribution failed with error: 0x8007019e Err…

springboot sentinel 安装 整合 样例-分布式/微服务流量控制

sentinel控制台安装 下载地址&#xff1a;https://github.com/alibaba/Sentinel/releases 本次版本&#xff1a;1.8.6 后台启动&#xff1a; nohup java -Dserver.port7080 -Dcsp.sentinel.dashboard.serverlocalhost:7080 -Dproject.namesentinel-dashboard -jar sentinel-…

基于文本内容的垃圾短信识别实战

1、实战的背景与目标 背景&#xff1a; 垃圾短信形式日益多变&#xff0c;相关报告可以在下面网站查看 360互联网安全中心&#xff08;http://zt.360.cn/report/&#xff09; 目标&#xff1a; 基于短信文本内容&#xff0c;建立识别模型&#xff0c;准确地识别出垃圾短信…

【LeetCode热题100】打卡第38天:课程表实现前缀树

文章目录 【LeetCode热题100】打卡第38天&#xff1a;课程表&实现前缀树⛅前言 课程表&#x1f512;题目&#x1f511;题解 实现前缀树&#x1f512;题目&#x1f511;题解 【LeetCode热题100】打卡第38天&#xff1a;课程表&实现前缀树 ⛅前言 大家好&#xff0c;我是…

udx实现揭秘之---------udx的慢启动带宽探测

我们都知道bew wnd*1000/rtt 当慢启动的时候&#xff0c;每收一个ack,可以这样调整发送速度当前sendspeed sendspeed mss/rtt.并且更新wnd->wnd1. udx的变形版本是sendspeed checksize/rtt; 但是这种增加速度太快&#xff0c;在到达临界点的时候&#xff0c;很容易击…

低功耗设计:为可持续发展带来能源效率的突破

引言&#xff1a; 低功耗设计是面向电子设备和系统的一种设计理念&#xff0c;旨在降低设备的能耗和功耗&#xff0c;提高能源利用效率。在当前节能环保的背景下&#xff0c;低功耗设计成为了电子行业的热门话题&#xff0c;它对于延长电池寿命、提高设备性能和减少能源消耗具有…

选读SQL经典实例笔记08_区间查询

1. 计算同一组或分区的行之间的差 1.1. 最终结果集 1.1.1. sql DEPTNO ENAME SAL HIREDATE DIFF ------ ---------- ---------- ----------- ----------10 CLARK 2450 09-JUN-1981 -255010 KING 5000 17-NOV-1981 370010 …

20 - 队列 - 链队列——队列的链式表示和实现

前面我们学习了 先进先出、后进后出 的线性表- 队列,并且我们是使用数组进行了实现,那么这节课我们来使用链表来实现队列,即链队列! 队列的定义 队列(Queue)也是一种线性表, 但是它仅能在一端进行插入,而另一端进行删除的操作 ,插入的一端称为 队尾rear,删除的一端…

针对Weblogic上的shiro漏洞利用工具

工具介绍 日常项目中&#xff0c;可能会碰见部署在weblogic上的shiro&#xff0c;所以先写了这个生成攻击payload的小Demo&#xff0c;方便后面使用。但目前只支持无回显命令执行&#xff0c;后续回显、内存马功能后面出差后再写。 关注【Hack分享吧】公众号&#xff0c;回复关…

【HCIA】12.网络服务与应用

文件传输协议FTP FTP基于TCP&#xff0c;传输较慢&#xff0c;但是比较可靠。典型的C/S架构。双通道协议。TFTP基于UDP&#xff0c;传输较快&#xff0c;但是不可靠。FTP有两种不同的传输模式 ASCII模式 传输文本文件时会对文本内容进行编码方式转换&#xff0c;提高传输效率&…

音视频技术开发周刊 | 302

每周一期&#xff0c;纵览音视频技术领域的干货。 新闻投稿&#xff1a;contributelivevideostack.com。 ChatGPT神器Code Interpreter终于开放&#xff0c;到底怎么用&#xff1f;这里有一份保姆级教程 Code Interpreter 已经正式开放。 上海世界AI大会&#xff1a;MidJourney…

Fedproto:原型聚合的联邦学习框架

题目&#xff1a;FedProto: Federated Prototype Learning across Heterogeneous Clients 网址&#xff1a;http://arxiv.org/abs/2105.00243 目录 前言 什么是原型&#xff1f; Fedproto框架 fedproto settings Fedproto算法 优化目标 全局聚合 局部更新 伪代码 前言…