Kubernetes—二进制部署k8s集群搭建单机matser和etcd集群(1)

news2025/1/12 1:09:33

目录

组件部署

一、操作系统初始化配置 

二、升级Liunx内核

三、部署docker引擎 

四、部署etcd集群

1.在 master01 节点上操作

2.在 node节点上操作 

检查etcd群集状态

增删查键

备份还原 etcd(拓展)

五.部署 Master 组件

1.上传解压

2.创建目录并修改脚本 

3.上传并解压

4.创建目录

5.复制

6.复制

7.创建文件

8.开启 apiserver 服务并检查进程是否成功

 9.启动 scheduler 服务

10.启动 controller-manager 服务

11.生成文件并查看

六.部署 Worker Node 组件

1.在node01 节点上操作

2.在 master01 节点上操作

拷贝到node 节点上

上传文件并授权

3.在node01 节点上操作

 4.在master01 节点上操作

5.在node02 节点上操作

6.master01 节点查看

7.node01 节点操作

8.node02 节点操作

9.master01 节点查看验证


 

组件部署

mater节点
mater01192.168.80.100kube-apiserver kube-controller-manager kube-scheduler etcd
mater02192.168.80.101
 node节点
node01192.168.80.102kubelet kube-proxy docker (容器引擎)
node02192.168.80.103kubelet kube-proxy docker (容器引擎)
etcd  cluster集群
etcd节点1192.168.80.100(mater01)etcd
etcd节点2

192.168.80.102

(node01)

etcd
etcd节点3

192.168.80.103

(node02)

etcd

一、操作系统初始化配置 

#关闭防火墙

systemctl stop firewalld
systemctl disable firewalld
iptables -F && iptables -t nat -F && iptables -t mangle -F && iptables -X

#关闭selinux

setenforce 0
sed -i 's/enforcing/disabled/' /etc/selinux/config

#关闭swap

swapoff -a
sed -ri 's/.*swap.*/#&/' /etc/fstab 

#根据规划设置主机名

hostnamectl set-hostname master01
hostnamectl set-hostname master02
hostnamectl set-hostname node01
hostnamectl set-hostname node02

#在master添加hosts 

cat >> /etc/hosts << EOF
192.168.80.100 master01
192.168.80.101 master02
192.168.80.102 node01
192.168.80.103 node02
EOF

#调整内核参数

cat > /etc/sysctl.d/k8s.conf << EOF
#开启网桥模式,可将网桥的流量传递给iptables链
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
#关闭ipv6协议
net.ipv6.conf.all.disable_ipv6=1
net.ipv4.ip_forward=1
EOF
sysctl --system

 #时间同步

#时间同步   所有服务器操作
vim /etc/chrony.conf
#server 0.centos.pool.ntp.org iburst
#server 1.centos.pool.ntp.org iburst
#server 2.centos.pool.ntp.org iburst
#server 3.centos.pool.ntp.org iburst
server ntp1.aliyun.com iburst
systemctl restart chronyd.service
chronyc -a makestep

二、升级Liunx内核

vim /etc/yum.repos.d/elrepo.repo   所有服务器操作
[elrepo]
name=elrepo
baseurl=https://mirrors.aliyun.com/elrepo/archive/kernel/el7/x86_64
gpgcheck=0
enabled=1
 
 
cd /etc/yum.repos.d/
mv local.repo repo.bak/
导入阿里云在线源

yum clean all  所有服务器操作
yum install -y kernel-lt kernel-lt-devel  集群升级内核
#查看内核序号
awk -F\' '$1=="menuentry " {print i++ " : " $2}' /etc/grub2.cfg
#设置默认启动内核
grub2-set-default 0
#重启操作系统
reboot
#查看生效版本
hostnamectl

三、部署docker引擎 

所有 node 节点部署docker引擎
yum-config-manager --add-repo https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo 
yum install -y docker-ce docker-ce-cli containerd.io

cat > /etc/docker/daemon.json <<EOF
{
  "registry-mirrors": ["https://6ijb8ubo.mirror.aliyuncs.com"],
  "exec-opts": ["native.cgroupdriver=systemd"],
  "log-driver": "json-file",
  "log-opts": {
    "max-size": "500m", "max-file": "3"
  }
}
EOF
 
systemctl enable --now docker
docker info

四、部署etcd集群

etcd是一个分布式键值存储系统,用于在分布式系统中保存配置信息、元数据以及关键的共享状

态。它是一个开源项目,最初由CoreOS开发并维护,现在由CNCF托管。etcd的设计目标是提供

可靠的分布式存储,以支持分布式系统的一致性和高可用性

关键特性

  • 分布式存储:etcd的数据存储是分布式的,可以跨多个节点进行分布,确保高可用性和可扩展性
  • 强致性:etcd提供强一致性的保证,确保在集群中的所有节点都能看到相同的数据视图
  • 轻量级:etcd采用轻量级的Raft一致性算法,以确保集群中的节点之间达成一致,同时保持相对较低的性能开销
  • API支持:etcd提供简单而强大的HTTP+JSON API,使得开发人员可以轻松地与其进行交互,并集成到各种应用和工具中
  • Watch机制:etcd支持Watch机制,允许客户端监视特定键的变化,并在数据发生变更时得到通知
  • 安全性:etcd支持SSL/TLS加密,以保障数据在传输过程中的安全性,并提供基于角色的访问控制

应用场景

  • 配置管理: etcd常用于存储应用程序和系统的配置信息,允许动态地更新配置而无需重启应用
  • 服务发现: etcd可以用作服务发现的后端存储,帮助服务在动态环境中找到彼此
  • 分布式锁: 通过etcd的分布式锁机制,可以实现分布式系统中的协同工作和资源同步
  • 集群协调: etcd在构建分布式系统中,作为集群协调的关键组件,确保系统的一致性和稳定性

总体而言,etcd在云原生应用和分布式系统中发挥着重要作用,提供了可靠的分布式存储和协调服

务,为应用程序提供一致性、可靠性和高可用性的基础设施支持

etcd 目前默认使用2379端口提供HTTP API服务, 2380端口和peer通信(这两个端口已经被

IANA(互联网数字分配机构)官方预留给etcd)。 即etcd默认使用2379端口对外为客户端提供通讯,

使用端口2380来进行服务器间内部通讯

etcd 在生产环境中一般推荐集群方式部署。由于etcd 的leader选举机制,要求至少为3台或以上的奇数台

准备签发证书环境

  • CFSSL 是 CloudFlare 公司开源的一款 PKI/TLS 工具。 CFSSL 包含一个命令行工具和一个用于签
  • 名、验证和捆绑 TLS 证书的 HTTP API 服务。使用Go语言编写。
  • CFSSL 使用配置文件生成证书,因此自签之前,需要生成它识别的 json 格式的配置文件,CFSSL
  • 提供了方便的命令行生成配置文件。
  • CFSSL 用来为 etcd 提供 TLS 证书,它支持签三种类型的证书

1.在 master01 节点上操作

wget https://pkg.cfssl.org/R1.2/cfssl_linux-amd64 -O /usr/local/bin/cfssl
wget https://pkg.cfssl.org/R1.2/cfssljson_linux-amd64 -O /usr/local/bin/cfssljson
wget https://pkg.cfssl.org/R1.2/cfssl-certinfo_linux-amd64 -O /usr/local/bin/cfssl-certinfo
 
chmod +x /usr/local/bin/cfssl*
------------------------------------------------------------------------------------------
cfssl:证书签发的工具命令
cfssljson:将 cfssl 生成的证书(json格式)变为文件承载式证书
cfssl-certinfo:验证证书的信息
cfssl-certinfo -cert <证书名称>			#查看证书的信息
cd /usr/local/bin
上传所需软件包
chmod +x *

生成etcd证书

mkdir /opt/k8s
cd /opt/k8s/
 
#上传 etcd-cert.sh 和 etcd.sh 到 /opt/k8s/ 目录中
#上传 etcd-v3.4.26-linux-amd64.tar.gz 到 /opt/k8s 目录中,
chmod +x etcd-cert.sh etcd.sh
 
 
#创建用于生成CA证书、etcd 服务器证书以及私钥的目录
mkdir /opt/k8s/etcd-cert
mv etcd-cert.sh etcd-cert/
cd /opt/k8s/etcd-cert/
vim etcd-cert.sh  #修改其中通信地址为本地
./etcd-cert.sh			#生成CA证书、etcd 服务器证书以及私钥

 vim etcd-cert.sh

./etcd-cert.sh     

cd /opt/k8s/
tar xf etcd-v3.4.26-linux-amd64.tar.gz
 
cd /opt
mkdir etcd
cd etcd
mkdir cfg bin ssl
cd /opt/k8s/etcd-v3.4.26-linux-amd64/
mv etcd etcdctl /opt/etcd/bin/
cd ..
cd etcd-cert/
cp *.pem /opt/etcd/ssl/

cd /opt/k8s
./etcd.sh etcd01 192.168.80.100 etcd02=https://192.168.80.102:2380,etcd03=https://192.168.80.103:2380

#进入卡住状态等待其他节点加入,这里需要三台etcd服务同时启动,如果只启动其中一台后,服务会卡在那里,直到集群中所有etcd节点都已启动,可忽略这个情况
 
#可另外打开一个窗口查看etcd进程是否正常
ps -ef | grep etcd
 

#把etcd相关证书文件、命令文件和服务管理文件全部拷贝到另外两个etcd集群节点
scp -r /opt/etcd/ root@192.168.80.102:/opt/
scp -r /opt/etcd/ root@192.168.80.103:/opt/
cd /usr/lib/systemd/system
scp etcd.service root@192.168.80.102:`pwd`
scp etcd.service root@192.168.80.103:`pwd`

2.在 node节点上操作 

在 node01 节点上操作

vim /opt/etcd/cfg/etcd
#[Member]
ETCD_NAME="etcd02"											#修改
ETCD_DATA_DIR="/var/lib/etcd/default.etcd"
ETCD_LISTEN_PEER_URLS="https://192.168.80.102:2380"			#修改
ETCD_LISTEN_CLIENT_URLS="https://192.168.80.102:2379"		#修改
 
#[Clustering]
ETCD_INITIAL_ADVERTISE_PEER_URLS="https://192.168.80.102:2380"		#修改
ETCD_ADVERTISE_CLIENT_URLS="https://192.168.80.102:2379"				#修改
ETCD_INITIAL_CLUSTER="etcd01=https://192.168.80.101:2380,etcd02=https://192.168.80.102:2380,etcd03=https://192.168.80.103:2380"
ETCD_INITIAL_CLUSTER_TOKEN="etcd-cluster"
ETCD_INITIAL_CLUSTER_STATE="new"
 
node2上类似

在 node02 节点上操作

vim /opt/etcd/cfg/etcd
#[Member]
ETCD_NAME="etcd03"											#修改
ETCD_DATA_DIR="/var/lib/etcd/default.etcd"
ETCD_LISTEN_PEER_URLS="https://192.168.80.103:2380"			#修改
ETCD_LISTEN_CLIENT_URLS="https://192.168.80.103:2379"		#修改
 
#[Clustering]
ETCD_INITIAL_ADVERTISE_PEER_URLS="https://192.168.80.103:2380"		#修改
ETCD_ADVERTISE_CLIENT_URLS="https://192.168.80.103:2379"				#修改
ETCD_INITIAL_CLUSTER="etcd01=https://192.168.80.101:2380,etcd02=https://192.168.80.102:2380,etcd03=https://192.168.80.103:2380"
ETCD_INITIAL_CLUSTER_TOKEN="etcd-cluster"
ETCD_INITIAL_CLUSTER_STATE="new"
 
node2上类似

重启服务 

systemctl enable --now etcd.service    #分别启动node2、node3两个节点etcd
三个node节点查看etcd状态
systemctl status etcd.service 

在 master01 节点上操作 

检查etcd群集状态
ETCDCTL_API=3 /opt/etcd/bin/etcdctl --endpoints="https://192.168.80.101:2379,https://192.1

查看当前的 leader

ETCDCTL_API=3 /opt/etcd/bin/etcdctl --endpoints="https://192.168.80.100:2379,https://192.168.80.102:2379,https://192.168.80.103:2379" --cacert=/opt/etcd/ssl/ca.pem --cert=/opt/etcd/ssl/server.pem --key=/opt/etcd/ssl/server-key.pem  endpoint status --write-out=table
 
------------------------------------------------------------------------------------------
--cacert  --ca-file:使用此CA证书验证启用https的服务器的证书
--key   --key-file:使用此TLS密钥文件标识HTTPS客户端
--cert  --cert-file:使用此TLS证书文件标识HTTPS客户端
--endpoints:集群中以逗号分隔的机器地址列表
cluster-health:检查etcd集群的运行状况

查看etcd集群成员列表

ETCDCTL_API=3 /opt/etcd/bin/etcdctl --endpoints="https://192.168.80.100:2379" --cacert=/opt/etcd/ssl/ca.pem --cert=/opt/etcd/ssl/server.pem --key=/opt/etcd/ssl/server-key.pem  --write-out=table member list

增删查键
#插入键值
ETCDCTL_API=3 /opt/etcd/bin/etcdctl --endpoints="https://IP1:2379" --cacert=CA证书 --cert=客户端证书 --key=客户端私钥 put <KEY> '<VALUE>'
 
#查看键值
ETCDCTL_API=3 /opt/etcd/bin/etcdctl --endpoints="https://IP1:2379" --cacert=CA证书 --cert=客户端证书 --key=客户端私钥 get <KEY>
 
#删除键值
ETCDCTL_API=3 /opt/etcd/bin/etcdctl --endpoints="https://IP1:2379" --cacert=CA证书 --cert=客户端证书 --key=客户端私钥 del <KEY>
备份还原 etcd(拓展)
ETCDCTL_API=3 /opt/etcd/bin/etcdctl --endpoints="https://192.168.80.100:2379" --cacert=/opt/etcd/ssl/ca.pem --cert=/opt/etcd/ssl/server.pem --key=/opt/etcd/ssl/server-key.pem  snapshot save /root/etcd_backup-20240729    --#数据备份
 
ETCDCTL_API=3 /opt/etcd/bin/etcdctl --endpoints="https://192.168.80.100:2379" --cacert=/opt/etcd/ssl/ca.pem --cert=/opt/etcd/ssl/server.pem --key=/opt/etcd/ssl/server-key.pem  snapshot status /root/etcd_backup-20240729 -wtable    --#备份状态查看
 
ETCDCTL_API=3 /opt/etcd/bin/etcdctl --endpoints="https://192.168.80.100:2379" --cacert=/opt/etcd/ssl/ca.pem --cert=/opt/etcd/ssl/server.pem --key=/opt/etcd/ssl/server-key.pem  snapshot restore /root/etcd_backup-20240729     --#数据恢复

五.部署 Master 组件

在 master01 节点上操作

1.上传解压

#上传 master.zip 和 k8s-cert.sh 到 /opt/k8s 目录中,解压 master.zip 压缩包
cd /opt/k8s/
unzip master.zip

2.创建目录并修改脚本 

#创建用于生成CA证书、相关组件的证书和私钥的目录
mkdir k8s-cert
mv k8s-cert.sh k8s-cert/
cd k8s-cert/
chmod +x k8s-cert.sh
vim k8s-cert.sh
./k8s-cert.sh				#生成CA证书、相关组件的证书和私钥

 

 

3.上传并解压

#上传 kubernetes-server-linux-amd64.tar.gz 到 /opt/k8s/ 目录中,解压 kubernetes 压缩包
#下载地址:https://github.com/kubernetes/kubernetes/blob/release-1.20/CHANGELOG/CHANGELOG-1.20.md
#注:打开链接你会发现里面有很多包,下载一个server包就够了,包含了Master和Worker Node二进制文件。
 
cd /opt/k8s/
tar zxvf kubernetes-server-linux-amd64.tar.gz

4.创建目录

创建kubernetes工作目录
mkdir -p /opt/kubernetes/{bin,cfg,ssl,logs}

5.复制

#复制master组件的关键命令文件到 kubernetes工作目录的 bin 子目录中
cd /opt/k8s/kubernetes/server/bin
cp kube-apiserver kubectl kube-controller-manager kube-scheduler /opt/kubernetes/bin/
ln -s /opt/kubernetes/bin/* /usr/local/bin/

6.复制

#复制CA证书、apiserver相关证书和私钥到 kubernetes工作目录的 ssl 子目录中
cp apiserver-key.pem apiserver.pem  ca-key.pem ca.pem  /opt/kubernetes/ssl/

7.创建文件

#创建 bootstrap token 认证文件,apiserver 启动时会调用,然后就相当于在集群内创建了一个这个用户,接下来就可以用 RBAC 给他授权
cd /opt/kubernetes/cfg
vim token.csv
#获取随机数前16个字节内容,以十六进制格式输出,并删除其中空格
head -c 16 /dev/urandom | od -An -t x | tr -d ' '
在后面添加,kubelet-bootstrap,10001,"system:kubelet-bootstrap"
unzip master.zip 
chmod +x *.sh

8.开启 apiserver 服务并检查进程是否成功

#二进制文件、token、证书都准备好后,开启 apiserver 服务
cd /opt/k8s/
./apiserver.sh 192.168.80.100 https://192.168.80.100:2379,https://192.168.80.102:2379,https://192.168.80.103:2379
 
#检查进程是否启动成功
ps aux | grep kube-apiserver
 
netstat -natp | grep 6443   #安全端口6443用于接收HTTPS请求,用于基于Token文件或客户端证书等认证

 9.启动 scheduler 服务

cd /opt/k8s/
./scheduler.sh
ps aux | grep kube-scheduler

 

 

10.启动 controller-manager 服务

#启动 controller-manager 服务
 
cd /opt/k8s/kubernetes/server/bin
cp kubectl /usr/local/bin/
cd /opt/k8s/
vim controller-manager.sh 
#修改60行,设置为本机IP
KUBE_APISERVER="https://192.168.80.100:6443"
 

./controller-manager.sh
ps aux | grep kube-controller-manager

11.生成文件并查看

#生成kubectl连接集群的kubeconfig文件
#4行修改ip为本机 
KUBE_APISERVER="https://192.168.9.112:6443"
 
./admin.sh
ls /root/.kube/
 
#通过kubectl工具查看当前集群组件状态
kubectl get cs 
#查看版本信息
kubectl version
 
#查看当前的 leader
kubectl -n kube-system get leases kube-scheduler
kubectl -n kube-system get leases kube-controller-manager

六.部署 Worker Node 组件

1.在node01 节点上操作

#创建kubernetes工作目录
mkdir -p /opt/kubernetes/{bin,cfg,ssl,logs}
cd /opt
mkdir k8s
cd k8s/
 
#上传 node.zip 到 /opt 目录中
#解压 node.zip 压缩包,获得kubelet.sh、proxy.sh
chmod +x *.sh

2.在 master01 节点上操作

拷贝到node 节点上
#把 kubelet、kube-proxy 拷贝到 node01 节点
cd /opt/k8s/kubernetes/server/bin
scp kubelet kube-proxy root@192.168.80.102:/opt/kubernetes/bin/

上传文件并授权
cd /opt/k8s/
#上传kubeconfig.sh文件,生成kubelet初次加入集群引导kubeconfig文件和kube-proxy.kubeconfig文件
mkdir kubeconfig
mv kubeconfig.sh kubeconfig/
cd kubeconfig/
chmod +x kubeconfig.sh
./kubeconfig.sh 192.168.80.101 /opt/k8s/k8s-cert/
scp bootstrap.kubeconfig kube-proxy.kubeconfig root@192.168.80.102:/opt/kubernetes/cfg/
 
 
#RBAC授权,使用户 kubelet-bootstrap 能够有权限发起 CSR 请求证书
kubectl create clusterrolebinding kubelet-bootstrap --clusterrole=system:node-bootstrapper --user=kubelet-bootstrap

3.在node01 节点上操作

node01节点
cd /opt/k8s
vim kubelet.sh 
#11行修改
--hostname-override=node01 \\
 
./kubelet.sh 192.168.80.100
systemctl status kubelet.service 

 

 4.在master01 节点上操作

#检查到 node01 节点的 kubelet 发起的 CSR 请求,Pending 表示等待集群给该节点签发证书
kubectl get csr
kubectl certificate approve node-csr-8FRv8fLCt_WfV6UspXR_1eRKT7jTbENtAKffPYbU08s
kubectl get csr
#查看节点,由于网络插件还没有部署,节点会没有准备就绪 NotReady
kubectl get nodes
 
#自动批准 CSR 请求
kubectl create clusterrolebinding node-autoapprove-bootstrap --clusterrole=system:certificates.k8s.io:certificatesigningrequests:nodeclient --user=kubelet-bootstrap 
 
kubectl create clusterrolebinding node-autoapprove-certificate-rotation --clusterrole=system:certificates.k8s.io:certificatesigningrequests:selfnodeclient --user=kubelet-bootstrap

5.在node02 节点上操作

部署node02节点
node01节点操作
cd /opt/
scp -r k8s/ kubernetes/ root@192.168.80.103:/opt
 
node02节点操作
cd /opt/
cd kubernetes/
rm -rf ssl/*
rm -rf logs/*
 
cd /opt/k8s/
vim kubelet.sh 
#11行修改
--hostname-override=node02 \\
 
./kubelet.sh 192.168.80.103
ls /opt/kubernetes/ssl/

 

6.master01 节点查看

kubectl get csr
kubectl get nodes

7.node01 节点操作

启动kube-proxy
#node01、node02两个节点加载内核模块
cd /usr/lib/modules/5.4.278-1.el7.elrepo.x86_64/kernel/net/netfilter/ipvs
ls | awk -F. '{print $1}'
 
ls | grep -o "^[^.]*" 
for i in $(ls | awk -F. '{print $1}'); do echo $i; modprobe $i; done
 
lsmod | grep ip_vs  #查看
 
 
cd /opt/k8s/
vim proxy.sh
#10行 修改
--hostname-override=node01 \\
 
./proxy.sh 192.168.80.102
systemctl status kube-proxy.service

 

8.node02 节点操作

cd /usr/lib/modules/5.4.278-1.el7.elrepo.x86_64/kernel/net/netfilter/ipvs
ls | awk -F. '{print $1}'
 
ls | grep -o "^[^.]*" 
for i in $(ls | awk -F. '{print $1}'); do echo $i; modprobe $i; done
 
lsmod | grep ip_vs  #查看
 
 
cd /opt/k8s/
vim proxy.sh
#10行 修改
--hostname-override=node01 \\
 
./proxy.sh 192.168.80.103
systemctl status kube-proxy.service

9.master01 节点查看验证

kubectl get cs
kubectl get nodes

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1959638.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

git查看记录详解

文章目录 git查看记录查看文件修改列表查看修改差异友好的查看修改记录结合多个选项查看记录示例输出 git查看记录 使用 git log 你不仅可以查看提交记录&#xff0c;还可以通过一些选项查看文件的修改列表、修改差异&#xff0c;并以更友好的方式查看修改记录。以下是一些常用…

ROS2入门到精通—— 2-14 ROS2实战:远程可视化实车上的文件

0 前言 ROS车的外接屏幕很小&#xff0c;在上面鼠标操作和键盘操作都比较麻烦&#xff0c;想要远程可视化ROS车上的文件&#xff0c;可以在本文学到一些用到实际工作中 1 ssh 终端操作远程桌面 ssh -Y pi192.168.33.200输入密码登陆&#xff0c;这样还是不能可视化文件&…

CS224W—02 Node Embeddings

CS224W—02 Node Embeddings Node Embeddings概念 传统的图机器学习&#xff1a; 给定一个输入图&#xff0c;抽取节点、边和图级别特征, 学习一个能将这些特征映射到标签的模型(像SVM&#xff0c; NN…)这个抽取不同级别特征的过程&#xff0c;就是特征工程feature enginee…

华为NetEngine AR1000V虚拟路由器 nfv

华为NetEngine AR1000V虚拟路由器 华为NetEngine AR1000V虚拟路由器彩页 - 华为企业业务 华为NetEngine AR1000V虚拟路由器 NetEngine AR1000V是华为公司在传统企业网络向SD-WAN转型的趋势下推出的虚拟路由器。 AR1000V基于NFV技术&#xff0c;可以部署在X86硬件平台的服务…

我出一道面试题,看看你能拿 3k 还是 30k!

大家好&#xff0c;我是程序员鱼皮。欢迎屏幕前的各位来到今天的模拟面试现场&#xff0c;接下来我会出一道经典的后端面试题&#xff0c;你只需要进行 4 个简单的选择&#xff0c;就能判断出来你的水平是新手&#xff08;3k&#xff09;、初级&#xff08;10k&#xff09;、中…

HarmonyOs~ArkUI进阶 之 状态管理

合理选择装饰器 最小化状态共享范围 在没有强烈的业务需求下&#xff0c;尽可能按照状态需要共享的最小范围选择合适的装饰器。 应用开发过程中&#xff0c;按照组件颗粒度&#xff0c;状态一般分为组件内独享的状态和组件间需要共享的状态 组件间需要共享的状态 组件间需…

细说MCU的DAC1和DAC2各自输出一通道模拟信号的方法

目录 一、参考硬件 二、 建立新工程 1.配置DAC1 2.配置DAC1的DMA 3.配置DAC2 4.配置DAC2的DMA 5.配置定时器 6.配置时钟和Debug 三、修改代码 四、 查看结果 一、参考硬件 本项目依赖的软件和硬件工程参考本文作者写的文章&#xff1a; 细说MCU的DAC1实现…

【中项第三版】系统集成项目管理工程师 | 第 11 章 规划过程组⑧ | 11.21 - 11.22

前言 第11章对应的内容选择题和案例分析都会进行考查&#xff0c;这一章节属于10大管理的内容&#xff0c;学习要以教材为准。本章上午题分值预计在15分。 目录 11.21 实施定量风险分析 11.21.1 主要输入 11.21.2 主要工具与技术 11.21.3 主要输出 11.22 规划风险应对 …

UPLOAD-LABS靶场[超详细通关教程,通关攻略]

---------------------------------------- 靶场环境&#xff1a; 下载链接&#xff1a; https://codeload.github.com/c0ny1/upload-labs/zip/refs/heads/master 使用小皮集成环境来完成这个靶场 将文件放到WWW目录下就可以进行访问 ------------------------------------…

【JavaEE】HTTP(3)

&#x1f921;&#x1f921;&#x1f921;个人主页&#x1f921;&#x1f921;&#x1f921; &#x1f921;&#x1f921;&#x1f921;JavaEE专栏&#x1f921;&#x1f921;&#x1f921; 文章目录 1.HTTP响应1.2状态码 2.HTTPS协议2.1概念2.2引入对称加密2.2.1概念2.2.2图解…

Ribbon-微服务注册中心(Ribbon概述 基于Ribbon实现订单调⽤商品服务 服务调⽤Ribbon⾼级 )

目录 一、Ribbon概述 1. 什么是Ribbon 2. Ribbon的主要作⽤ 二、基于Ribbon实现订单调⽤商品服务 1. 坐标依赖 2. ⼯程改造 三、服务调⽤Ribbon⾼级 1. 负载均衡概述 2. 客户端负载均衡与服务端负载均衡 3. 基于Ribbon实现负载均衡 3.1 搭建多服务实例 3.2 负载均衡…

完蛋!我把AI喂吐了!

当我们用 [RAG] 构建一个知识库问答应用的时候&#xff0c;总是希望知识库里面灌的数据越多&#xff0c;问答的效果越好&#xff0c;事实真是如此吗&#xff1f;这篇文章给大家答案。 引言 在人工智能问答系统的发展中&#xff0c;RAG&#xff08;Retrieval-Augmented Generat…

努比亚开局连发两款旗舰机,其中一款还能卫星通话?

在智能手机市场竞争日益激烈的当下&#xff0c;努比亚作为国内知名手机品牌&#xff0c;始终致力于为消费者带来兼具创新性和实用性的产品。 近日&#xff0c;努比亚正式发布了两款备受瞩目的旗舰手机——努比亚Z60 Ultra领先版和努比亚Z60S Pro。两款手机不仅在硬件配置上实现…

Macbook Pro升级macOS 10.15及以上的全过程

Author : Spinach | GHB Link : http://blog.csdn.net/bocai8058文章目录 前言升级步骤选择指定macOS版本并下载安装升级macOS安装过程安装完成 前言 由于现在更多软件安装所需系统要求10.15及以上&#xff0c;导致很多app应用不能使用&#xff0c;如edge mac的操作系统要求…

LlamaIndex vs LangChain: 理解关键差异

LLM&#xff08;大型语言模型&#xff09;已成为各行各业不可或缺的工具&#xff0c;用于生成类人文本、翻译语言和回答问题等任务。有时&#xff0c;LLM的响应令人惊叹&#xff0c;因为它们比人类更迅速、更准确。这表明了它们对当今技术格局的重大影响。 今天让我们聊聊 Llam…

i2c中结构体 数据传输 i2c Tools使用

I2C中重要结构体 在I2C&#xff08;Inter-Integrated Circuit&#xff09;通信中&#xff0c;涉及的主要结构体通常用于描述设备、消息和传输的配置。以下是一些常见的I2C结构体及其作用&#xff1a; i2c_adapter: 这是一个代表I2C总线适配器的结构体。它包含与该I2C总线相关的…

【Django5】模型定义与使用

系列文章目录 第一章 Django使用的基础知识 第二章 setting.py文件的配置 第三章 路由的定义与使用 第四章 视图的定义与使用 第五章 二进制文件下载响应 第六章 Http请求&HttpRequest请求类 第七章 会话管理&#xff08;Cookies&Session&#xff09; 第八章 文件上传…

【ai】 2005年 rule based expert system学习笔记1

PPT 是2005年的? Negnevitsky, Pearson Education 使用两种推理引擎的选择 backward chaining(逆向链接)推理过程 backward chaining(逆向链接)推理过程的GPT解释 这幅图展示了一个基于规则的专家系统如何通过backward chaining(逆向链接)推理过程来达到最终的推理目标…

[tomato]靶机复现漏洞详解!

靶机地址&#xff1a; https://download.vulnhub.com/tomato/Tomato.ova 靶机环境&#xff1a;Vmware 网络&#xff1a;NAT模式 信息收集&#xff1a; arp-scan -l 扫描靶机ip地址 扫描开放的端口信息 nmap -sS -sV -p- 192.168.77.135 发现开放端口21&#xff…

Matplotlib柱形图大揭秘:让数据‘站’起来,比增高鞋垫还管用!

1. Matplotlib绘制柱形图/柱状图/条形图 柱状图是一种用矩形柱来表示数据分类的图表&#xff0c;柱状图可以垂直绘制&#xff0c;也可以水平绘制&#xff0c;它的高度与其表示的数据成正比关系 # 导包 import numpy as np import pandas as pd import matplotlib.pyplot as p…