K8S1.23.5部署(此前1.17版本步骤囊括)及问题记录

news2024/12/22 19:38:37

应版本需求,升级容器版本为1.23.5

kubernetes组件

一个kubernetes集群主要由控制节点(master)与工作节点(node)组成,每个节点上需要安装不同的组件

master控制节点:负责整个集群的管理

  • ApiServer:资源操作的唯一入口,接收用户输入的命令,提供认证、授权、API注册发现等机制。
  • Scheduler:负责集群资源调度按照预定的调度策略Pod调度到相应的node节点上。
  • Controller-Manager:负责维护集群的状态,比如程序部署安排故障检测自动扩展滚动更新等。
  • Etcd:负责存储集群中各种资源对象的信息
  • 流程:运维人员通过kuberctl命令行下发部署指令,apiserver接收指令调度shchedule去etcd数据库查看节点信息,然后etcd再反馈给schedule,schedule再将空闲node信息反馈给apiserver,apiserver再调用controllmanager,controllmanager去连接node节点内的组件kubelet,kubelet再次调用(pod控制器)去搭建pod内的容器。

node工作节点:集群的数据平面,负责为容器提供运行环境

kubelet:负责维护容器的生命周期,既通过控制docker创建更新销毁容器

Docker:负责节点上容器的各种操作

kubeProxy:在node节点对外接收客户端请求

kubernetes概念

Master:集群控制节点,每个集群需要至少一个master节点负责集群的管控

Node:集群工作节点,由master分配容器到这些node节点上,然后node节点上的docker负责容器的运行

Pod:kubernetes的最小控制单元

容器都是运行在pod中,一个pod中可以有1个或多个容器

Controller:控制器,通过它来实现对pod的管理。

比如启动pod、停止pod、伸缩pod的数量等等

Service:pod对外服务的统一入口,可以维护同一类的多个pod

客户去访问k8s内的服务,由node节点内的kube-proxy组件进行介绍,然后再下发信号给service,由service通过负载均衡分配道某个pod中的docker进行处理。

Label:标签,用于对pod进行分类,同一类pod会拥有相同的标签

NameSpac:命名空间,用来隔离pod的运行环境

kubernetes集群部署方式

kubernetes有很多种部署方式,目前主流的部署方式有kubeadm、minikube、二进制包

  • kubeadm特点:一个用于快速搭建kubernetes集群的工具
  • minikube特点:一个用于快速搭建单节点的kubernetes工具
  • 二进制包:从官网下载每个组件的二进制包,依次去安装,安装麻烦
主机设置
mster192.168.75.129
node1192.168.75.130
node2192.168.75.131

kubernetes集群环境准备(三台均需要配置)

1.关闭防火墙并设置防火墙随机不自启

(kubernetes和docker在运行中会产生大量防火墙规则)

[root@master ~]# systemctl stop firewalld
[root@master ~]# systemctl disable firewalld

 2.关闭SELinux系统内核安全机制

#临时关闭

[root@master ~]# setenforce 0

#永久关闭

[root@master ~]# vi /etc/selinux/config

SELINUX=disabled

3.配置本地yum源

清空yum路径下系统自带的仓库文件

[root@master ~]# rm -rf /etc/yum.repos.d/*

创建挂载点

[root@master ~]# mkdir /mnt/centos

挂载本地iso镜像文件至挂载点目录(临时挂载与永久挂载)

[root@master ~]# mount /dev/cdrom /mnt/centos/

永久挂载

[root@master ~]# vi /etc/fstab

/dev/cdrom /mnt/centos iso9660 defaults 0 0

重加加载/etc/fstab配置文件

[root@master ~]# mount -a

创建本地yum仓库

[root@master ~]# vi /etc/yum.repos.d/local.repo

[local]

name=local_centos

baseurl=file:///mnt/centos

enabled=1

gpgcheck=0

#查看仓库可用软件包

[root@master ~]# yum repolist

 4.配置本地主机名与IP地址解析

(为了后面对集群节点的调用,企业中推荐使用内部DNS服务器

[root@master ~]# vim /etc/hosts

注意:这一步需要改变主机名(举例)

#修改主机名
[root@weiyi001 ~]# hostnamectl set-hostname master

#再打开一个bash环境
[root@weiyi001 ~]# bash

测试解析

[root@master ~]# ping node1

[root@master ~]# ping node2

5.禁用swap交换分区(kubernetes强制要求禁用)

[root@master ~]# vim /etc/fstab

#/dev/mapper/centos-swap swap                    swap    defaults        0 0

6.修改Linux内核参数,添加网桥过滤器地址转发功能 

#编辑/etc/sysctl.d/kubernetes.conf文件添加如下配置(该文件默认不存在)

[root@master ~]# vim /etc/sysctl.d/kubernetes.conf

net.bridge.bridge-nf-call-ip6tables = 1

net.bridge.bridge-nf-call-iptables = 1

net.ipv4.ip_forward = 1

 重新加载配置

[root@master ~]# sysctl --system

加载网桥过滤器模块

[root@master ~]# modprobe br_netfilter

查看网桥过滤器模块是否加载成功

[root@master ~]# lsmod | grep br_netfilter

7.配置ipvs功能

kubernetes中Service有两种代理模型一种是基于iptables的一种是基于ipvs,两者对比ipvs的性能要高,如果想要使用ipvs模型,需要手动载入ipvs模块 

安装ipset和ipvsadm软件

[root@master ~]# yum -y install ipset ipvsadm

#添加需要加载的模块写入脚本文件

[root@master ~]# cat > /etc/sysconfig/modules/ipvs.modules <<EOF
modprobe --ip_vs
modprobe --ip_vs_rr
modprobe --ip_vs_wrr
modprobe --ip_vs_sh
modprobe --nf_conntrack_ipv4  
EOF

设置脚本权限

[root@master ~]# chmod +x /etc/sysconfig/modules/ipvs.modules

执行脚本

[root@master ~]# /etc/sysconfig/modules/ipvs.modules

查看对应的模块是否加载成功

[root@master ~]# lsmod | grep -e ip_vs -e nf_conntrack_ipv4

重新启动系统

[root@master ~]# reboot

检查SELinux是否关闭

[root@master ~]# getenforce

Disabled

#检查swap分区是否关闭

[root@master ~]# free -g

wap:            0B          0B          0B 

#设置每台服务器的时区为中国标准时区CST(亚洲/上海)

[root@master ~]# timedatectl set-timezone Asia/Shanghai

#配置时间同步,保证每一个节点时间一致

[root@master ~]# yum -y install chrony

#启动chronyd

[root@master ~]# systemctl start chronyd

[root@master ~]# systemctl enable chronyd

#查看时间

[root@master ~]# date

8.安装docker、kubeadm、kubelet、kubectl程序(三台主机都需要安装) 

#创建阿里Base源与epel源用于安装依赖包

​
[root@master ~]# curl -o /etc/yum.repos.d/CentOS-Base.repo https://mirrors.aliyun.com/repo/Centos-7.repo

​
[root@master ~]# wget -O /etc/yum.repos.d/epel.repo http://mirrors.aliyun.com/repo/epel-7.repo

#生成yum缓存提高软件下载速度

[root@master ~]# yum makecache

#安装yum-utils软件用于提供yum-config-manager程序

[root@master ~]# yum install -y yum-utils

#使用yum-config-manager创建docker存储库(阿里)

[root@master ~]# yum-config-manager --add-repo http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo

#查看当前镜像源中支持的docker版本

#安装特定版docker-ce,安装时需要使用--setopt=obsoletes=0参数指定版本否则yum会自动安装高版本(我使用的高版本)

[root@master ~]# yum -y install docker-ce-18.06.3.ce-3.el7

#查看docker版本信息

[root@master ~]# docker --version

#创建/etc/docker目录,并在/etc/docker目录下添加一个配置文件

[root@master ~]# mkdir /etc/docker

#Docker默认使用的Cgroup Driver为默认文件驱动,而k8s默认使用的文件驱动为systemd,k8s要求驱动类型必须要一致,所以需要将docker文件驱动改成systemd

[root@master ~]# cat <<EOF > /etc/docker/daemon.json

{

  "registry-mirrors": ["https://aoewjvel.mirror.aliyuncs.com"],

  "exec-opts": ["native.cgroupdriver=systemd"]

}

EOF

驱动问题或许会导致master初始化失败(许多问题会导致失败) 具体看

K8S集群部署问题及处理记录-CSDN博客icon-default.png?t=N7T8https://blog.csdn.net/m0_72264240/article/details/134438973?spm=1001.2014.3001.5502

#启动docker程序

[root@master ~]# systemctl start docker

#设置docker随机自启

[root@master ~]# systemctl enable docker

 9.安装kubernetes程序

#创建阿里kubernetes仓库

[root@master ~]# cat <<EOF > /etc/yum.repos.d/kubernetes.repo
[kubernetes]
name=Kubernetes
baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64/
enabled=1
gpgcheck=0
repo_gpgcheck=0
gpgkey=https://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg https://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
EOF

#查看仓库可用软件包

[root@master ~]# yum repolist

#生成yum缓存提高软件下载速度

[root@master ~]# yum makecache

#安装kubeadm、kubelet、kubectl程序

#指定版本下载
[root@master ~]# yum install kubectl-1.23.5 kubelet-1.23.5  kubeadm-1.23.5  -y
 
#设置kubelet开机自启,不然kubeadm init时会有警告提示
#集群初始化时候kubectl init时会自动start
[root@master ~]# systemctl enable kubelet

必须一次性下完

开始

若是低版本安装(请看开始到截至,1.23版本这部分不需要看)

这里注意:之前我配置的1.17版本需要配置kubelet的cgroup,编辑/etc/sysconfig/kubelet文件

[root@master ~]# vim /etc/sysconfig/kubelet

KUBELET_EXTRA_ARGS="--cgroup-driver=systemd"

KUBELET_PROXY_MODE="ipvs"

 1.23未进行该操作以及初始化前的操作(可能是版本以及containerd支持问题)

#在安装kubernetes集群前,必须要准备好集群需要的镜像,所需的镜像可以通过下面命令查看

[root@master ~]# kubeadm config images list

k8s.gcr.io/kube-apiserver:v1.17.4

k8s.gcr.io/kube-controller-manager:v1.17.4

k8s.gcr.io/kube-scheduler:v1.17.4

k8s.gcr.io/kube-proxy:v1.17.4

k8s.gcr.io/pause:3.1

k8s.gcr.io/etcd:3.4.3-0

k8s.gcr.io/coredns:1.6.5

#定义镜像列表,因为此镜像在kubernetes仓库中,由于网络原因无法下载

[root@master ~]# images=(

kube-apiserver:v1.17.4

kube-controller-manager:v1.17.4

kube-scheduler:v1.17.4

kube-proxy:v1.17.4

pause:3.1

etcd:3.4.3-0

coredns:1.6.5

)

#从阿里镜像仓库下载镜像

[root@master ~]# for imageName in ${images[@]};do

docker pull registry.cn-hangzhou.aliyuncs.com/google_containers/$imageName

docker tag registry.cn-hangzhou.aliyuncs.com/google_containers/$imageName k8s.gcr.io/$imageName

docker rmi registry.cn-hangzhou.aliyuncs.com/google_containers/$imageName

done

#查看镜像(标签已变成k8s标签)

[root@master ~]# docker images

截至

10.kubernetes集群初始化(master节点)

#初始化集群
kubeadm init --kubernetes-version=1.23.5  \
--apiserver-advertise-address=192.168.75.129   \
--image-repository registry.aliyuncs.com/google_containers  \
--service-cidr=10.10.0.0/16 \
--pod-network-cidr=10.122.0.0/16

[root@master ~]# export KUBECONFIG=/etc/kubernetes/admin.conf
#查看所有的pod

[root@master ~]# kubectl get pods --all-namespaces

#查看kubernetes节点
[root@master ~]# kubectl get nodes

 注意:未安装网络是ready

 11.kubernetes安装网络插件

flannel

kubernetes支持多种网络插件,如:flannel、calico、canal等,任选一种使用即可

之前我实验选择的是flannel,这次试一试calico(但是flannel步骤也会写,自行选择)

只在master节点安装flannel插件即可,该插件使用的是DaemonSet控制器,该控制器会在每个节点上都运行;

#获取flannel配置文件

[root@master~]# wget https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml

#执行文件启动flannel

[root@master ~]# kubectl apply -f kube-flannel.yml

#查看nodes节点信息

[root@master ~]# kubectl get nodes

calico

#下载calico.yaml文件

[root@master ~]# curl https://docs.projectcalico.org/v3.18/manifests/calico.yaml -O

 calico.yaml获取:

链接:https://pan.baidu.com/s/1zhK26T7mA1PpAsNZY0Xhog?pwd=weiy 
提取码:weiy

#安装calico

[root@master ~]# kubectl apply -f calico.yaml

[root@master ~]# kubectl get pods --all-namespaces
[root@master ~]# kubectl get nodes

12.node节点加入集群

这个地方为了使得证书有效,需要在master上生成新的证书。

为什么要重新生成证书?

通常情况下,我们可以使用初始化后给出的命令来添加worker节点。然而,这些命令通常只在24小时内有效。为了避免在后续增加worker节点时需要重新生成token,我们可以自行生成一个永不过期的命令。这样一来,我们就可以直接使用这个命令来添加worker节点,省去了临时重新生成token的步骤。这样可以更加方便和高效地管理和增加worker节点。

#查看现有token

[root@master ~]#  kubeadm token list


 
#创建一个永不过期的token

[root@master ~]# kubeadm token create --ttl 0

#获取ca证书sha256编码hash值

[root@master ~]# openssl x509 -pubkey -in /etc/kubernetes/pki/ca.crt | openssl rsa -pubin -outform der 2>/dev/null | openssl dgst -sha256 -hex | sed 's/^.* //'

 生成后,node节点加入

node操作

[root@node1 ~]# kubeadm join 192.168.75.129:6443 --token murk1y.4pdoh7s8a96ejw4v     --discovery-token-ca-cert-hash sha256:475eb6e0d651f1cb7ea17767945dd15a78c1f2511636166b8590c729cbb9e757
[root@node2 ~]# kubeadm join 192.168.75.129:6443 --token murk1y.4pdoh7s8a96ejw4v     --discovery-token-ca-cert-hash sha256:475eb6e0d651f1cb7ea17767945dd15a78c1f2511636166b8590c729cbb9e757

[root@master ~]# kubectl get pods --all-namespaces

[root@master ~]# kubectl get nodes

 等待加入成功,状态由notready到ready

注意:在node节点无法使用kubectl的命令

因为Kubernetes集群中的kubectl命令通常用于与集群进行交互,例如部署、管理和监控应用程序。

在正常情况下,kubectl命令应该在Kubernetes集群的master节点上使用,而不是在node节点上。这是因为master节点才是集群的控制平面,负责管理整个集群的状态和控制逻辑,而node节点主要用于运行应用程序和服务。

因此,在node节点上使用kubectl命令可能会导致权限不足或无法连接到集群的问题。

如果需要在node节点上执行kubectl命令,通常建议通过远程登录到master节点来执行,但是生产环境有时也会需要从node节点去查看pod的健康状态

需要去下载master节点的:/etc/kubernetes/admin.conf

[root@node1 ~]#  scp root@master:/etc/kubernetes/admin.conf /etc/kubernetes/
[root@node1 ~]# echo "export KUBECONFIG=/etc/kubernetes/admin.conf" >> /etc/profile
[root@node1 ~]# source /etc/profile

node2节点同上

13.安装Dashboard

Kubernetes Dashboard是Kubernetes集群的官方Web用户界面,它提供了一种直观的方式来可视化和管理集群中的应用程序、资源和工作负载。通过Kubernetes Dashboard,用户可以查看集群中的各种资源对象(如Pods、Services、Deployments等)、监控集群的状态、进行日志查看、执行命令等操作。

它为用户提供了一个方便的方式来管理和监控他们的Kubernetes集群,而无需深入了解Kubernetes的命令行工具或API。Kubernetes Dashboard使得管理和操作Kubernetes集群变得更加直观和便捷。

[root@master ~]# wget https://raw.githubusercontent.com/kubernetes/dashboard/v2.5.1/aio/deploy/recommended.yaml

recommended.yaml文件索取地址:

链接:https://pan.baidu.com/s/1K7A_PnMpgHpduMIuTqb2rg?pwd=weiy 
提取码:weiy

#在recommended.yaml的service里添加nodeport,这样可以通过主机ip+port 来访问dashboard 

镜像拉取策略

在容器环境中,镜像拉取策略用于指定容器运行时如何获取所需的镜像。

1. Always(始终拉取):无论本地是否已经存在镜像,始终拉取最新版本。如果本地已有镜像,则会重新拉取最新版本并覆盖原有镜像。

2. IfNotPresent(若不存在则拉取):仅当本地不存在指定镜像时才拉取。如果本地已经存在所需镜像,则直接使用本地镜像而不进行拉取。

3. Never(不拉取):从不拉取镜像,仅使用本地已存在的镜像。如果本地不存在所需镜像,容器将无法启动。

建议改为Never 不然远程拉取容易出错(我这里没做改变)

注意如果修改后要使用kubectl apply -f recommended.yaml而不是create

#创建danshboard

[root@master ~]#  kubectl create -f recommended.yaml

#查看所有pod

[root@master ~]#  kubectl get pods --all-namespaces 

查看pod两个pod的详细信息

[root@master ~]# kubectl describe pod/dashboard-metrics-scraper-799d786dbf-5c5ts --namespace=kubernetes-dashboard

[root@master ~]# kubectl describe pod/kubernetes-dashboard-fb8648fd9-f6ncv --namespace=kubernetes-dashboard

这一步或许会有镜像拉不下来的问题

Kubernetes Dashboard部署ImagePullBackOff问题处理-CSDN博客icon-default.png?t=N7T8https://blog.csdn.net/m0_72264240/article/details/134461203

14.访问dashboard界面

经过谷歌以及edge测试

处理办法:使用火狐

#token登录 
#创建账号

[root@master ~]# kubectl create serviceaccount dashboard-admin -n kube-system

#授权

[root@master ~]# kubectl create clusterrolebinding dashboard-admin --clusterrole=cluster-admin --serviceaccount=kube-system:dashboard-admin

#获取token信息

[root@master ~]# kubectl describe secrets -n kube-system $(kubectl -n kube-system get secret | awk '/dashboard-admin/{print $1}')

 

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1221705.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

Pytorch torch.dot、torch.mv、torch.mm、torch.norm的用法详解

torch.dot的用法&#xff1a; 使用numpy求点积&#xff0c;对于二维的且一个二维的维数为1 torch.mv的用法&#xff1a; torch.mm的用法 torch.norm 名词解释&#xff1a;L2范数也就是向量的模&#xff0c;L1范数就是各个元素的绝对值之和例如&#xff1a;

RMI协议详解

前言特点应用示例存在的问题应用场景拓展 前言 RMI&#xff08;Remote Method Invocation&#xff0c;远程方法调用&#xff09;是Java中的一种远程通信协议&#xff0c;用于实现跨网络的对象方法调用。RMI协议基于Java的分布式计算&#xff0c;可以让客户端程序调用远程服务器…

MIB 6.1810实验Xv6 and Unix utilities(5)find

难度:moderate Write a simple version of the UNIX find program for xv6: find all the files in a directory tree with a specific name. Your solution should be in the file user/find.c. 题目要求&#xff1a;实现find &#xff0c;即在某个路径中&#xff0c;找出某…

Babyk勒索病毒数据集恢复,计算机服务器中了babyk勒索病毒怎么办?

计算机网络技术的不断应用&#xff0c;为企业的生产运营提供了极大便利&#xff0c;网络技术的不断发展也带来了许多网络安全隐患&#xff0c;近期&#xff0c;云天数据恢复中心陆续接到许多企业的求助&#xff0c;企业的计算机服务器遭到了babyk勒索病毒的攻击&#xff0c;导致…

nodejs+vue杰和牧场管理系统的设计与实现-微信小程序-安卓-python-PHP-计算机毕业设计

系统涉及的对象是奶牛。 系统使用员工有管理员和普通员工。 管理员有修改的权限&#xff0c;普通员工没有。系统包含新闻功能&#xff0c;最好是有个后台管理&#xff0c;在后台输入新闻标题和内容&#xff0c;插入图片&#xff0c;在网页上就可以展示。最好再有个轮播图。 新闻…

我的 2023 秋招总结,拿到了大厂offer

2023秋招小结 前言 & 介绍 作为2024年毕业的学生&#xff0c;在2023年也就是今年秋招。 现在秋招快结束了&#xff0c;人生可能没有几次秋招的机会&#xff08;应该就一次&#xff0c;最多两次吧哈哈&#xff09;&#xff0c;也有一点感悟&#xff0c;所以小小总结一下。…

基于SSM的项目管理系统设计与实现

末尾获取源码 开发语言&#xff1a;Java Java开发工具&#xff1a;JDK1.8 后端框架&#xff1a;SSM 前端&#xff1a;采用JSP技术开发 数据库&#xff1a;MySQL5.7和Navicat管理工具结合 服务器&#xff1a;Tomcat8.5 开发软件&#xff1a;IDEA / Eclipse 是否Maven项目&#x…

requests爬虫IP连接初始化问题及解决方案

问题背景 在使用HTTPS爬虫IP连接时&#xff0c;如果第一次请求是chunked方式&#xff0c;那么HTTPS爬虫IP连接将不会被初始化。这个问题可能会导致403错误&#xff0c;或者在使用HTTPS爬虫IP时出现SSL错误。 解决方案 为了解决这个问题&#xff0c;我们可以在requests库的ada…

从傅里叶变换,到短时傅里叶变换,再到小波分析(CWT),看这一篇就够了(附MATLAB傻瓜式实现代码)

本专栏中讲了很多时频域分析的知识&#xff0c;不过似乎还没有讲过时频域分析是怎样引出的。 所以本篇将回归本源&#xff0c;讲一讲从傅里叶变换→短时傅里叶变换→小波分析的过程。 为了让大家更直观得理解算法原理和推导过程&#xff0c;这篇文章将主要使用图片案例。 一…

sqlite与mysql的差异

差异点 安装过程&#xff1a;MySQL服务器通常需要单独安装&#xff0c;这涉及下载适用于特定操作系统的MySQL安装程序&#xff0c;运行安装程序并按照指示完成安装过程。SQLite作为嵌入式数据库&#xff0c;可以直接使用其库文件&#xff0c;不需要单独的安装过程。 配置和管理…

虚拟局域网VLAN_基础知识

虚拟局域网VLAN的概述 一. 虚拟局域网VLAN的诞生背景 将多个站点通过一个或多个以太网交换机连接起来就构建出了交换式以太网。 交换式以太网中的所有站点都属于同一个广播域。 随着交换式以太网规模的扩大&#xff0c;广播域也相应扩大。 巨大的广播域会带来一系列问题: 广…

【案例分享】BenchmarkSQL 5.0 压测 openGauss 5.0.0

一、前言 本次BenchmarkSQL 压测openGauss仅作为学习使用压测工具测试tpcc为目的&#xff0c;并不代表数据库性能如本次压测所得数据。实际生产性能压测&#xff0c;还需结合服务器软硬件配置、数据库性能参数调优、BenchmarkSQL 配置文件参数相结合&#xff0c;是一个复杂的过…

解决 vite 4 开发环境和生产环境打包后空白、配置axios跨域、nginx代理本地后端接口问题

1、解决打包本地无法访问空白 首先是pnpm build 打包后直接在dist访问&#xff0c;是访问不了的&#xff0c;需要开启服务 终端输入 npm install -g serve 然后再输入 serve -s dist 就可以访问了 但要保证 路由模式是&#xff1a;createWebHashHistory 和vite.conffig.j…

linux关于cmake,makefile和gdb的使用

c文件的编译 安装环境(centos 7) 检查命令是否齐全 gcc --version g --version gdb–version 安装命令 yum -y install gcc-c安装g命令&#xff08;用于编译c/c文件&#xff09; yum -y install gcc安装gcc命令(用于编译c文件&#xff09; 每个都出现版本号&#xff0c;证明…

Sentinel 熔断规则 (DegradeRule)

Sentinel 是面向分布式、多语言异构化服务架构的流量治理组件&#xff0c;主要以流量为切入点&#xff0c;从流量路由、流量控制、流量整形、熔断降级、系统自适应过载保护、热点流量防护等多个维度来帮助开发者保障微服务的稳定性。 SpringbootDubboNacos 集成 Sentinel&…

Flutter笔记:桌面应用 窗口定制库 bitsdojo_window

Flutter笔记 桌面应用窗口管理库 bitsdojo_window 作者&#xff1a;李俊才 &#xff08;jcLee95&#xff09;&#xff1a;https://blog.csdn.net/qq_28550263 邮箱 &#xff1a;291148484163.com 本文地址&#xff1a;https://blog.csdn.net/qq_28550263/article/details/13446…

zookeperkafka学习

1、why kafka 优点 缺点kafka 吞吐量高&#xff0c;对批处理和异步处理做了大量的设计&#xff0c;因此Kafka可以得到非常高的性能。延迟也会高&#xff0c;不适合电商场景。RabbitMQ 如果有大量消息堆积在队列中&#xff0c;性能会急剧下降每秒处理几万到几十万的消息。如果…

如何用继承和多态来打印个人信息

1 问题 在python中的数据类型中&#xff0c;我们常常运用继承和多态。合理地使用继承和多态可以增强程序的可扩展性使代码更简洁。那么如何使用继承和多态来打印个人信息&#xff1f; 2 方法 打印基本信息添加子类&#xff0c;再定义一个class&#xff0c;可以直接从Person类继…

spring cloud openfeign 使用注意点

近期在做项目时给自己挖了一个坑&#xff0c;问题重现如下 使用的组件版本如下 spring boot 2.7.15&#xff0c;对应的 spring cloud 版本为 2021.0.5&#xff0c;其中 spring cloud 适配的 openfeign 版本是 3.1.5。 项目中使用的 feign 接口如下 public interface QueryApi…

高性能音乐流媒体服务Diosic

什么是 Diosic ? Diosic 是一个开源的基于网络的音乐收集服务器和流媒体。主要适合需要部署在硬件规格不高的服务器上的用户。Diosic 是使用 Rust 开发的&#xff0c;具有低内存使用率和高性能以及用于流媒体音乐的非常干净的界面。 安装 在群晖上以 Docker 方式安装。 在注…