k8s 二进制安装 优化架构之 部署负载均衡,加入master02

news2024/9/22 5:42:57

目录

一    实验环境

二    部署 CoreDNS

1,所有node加载coredns.tar 镜像   

2,在 master01 节点部署 CoreDNS 

3, DNS 解析测试

4, 报错分析

5,重新  DNS 解析测试

三       master02 节点部署

1,从master01 传etcd 目录到 master02 节点

2,从master01 传  kubernetes  目录到 master02 节点

3,从master01传/root/.kube到 master02 节点

4, 从master01 传服务管理文件到 master02 节点

5,修改配置文件kube-apiserver中的IP

6, master02 节点上启动各服务并设置开机自启

7, master02  将 可执行文件都做软连接

8,验证 master02 是否安装成功

四     负载均衡部署

1,架构图

2,k8s 集群做 nginx +keepalive 负载均衡高可用 的必要性

3, 部署两台nginx 负载均衡服务器

3.1,配置nginx的官方在线yum源,配置本地nginx的yum源

3.2, 安装nginx

3.3,修改nginx配置文件,配置四层反向代理负载均衡,指定k8s群集2台master的节点ip和6443端口

3.4  检查配置文件语法

3.5 启动nginx服务,查看已监听6443端口

4,部署keepalived服务 解决nginx 单点故障

4.1  安装keepalived

4.2 修改keepalived配置文件

4.3 创建nginx状态检查脚本

4.4 启动keepalived服务

5,  使用一个VIP把node节点与master节点都关联起来

5.1 修改node节点上的bootstrap.kubeconfig  配置文件为VIP

5.2 修改node节点上的kubelet.kubeconfig  配置文件为VIP

5.3  修改node节点上的kube-proxy.kubeconfig配置文件为VIP

5.4  重启kubelet和kube-proxy服务

6,  查看nginx 和 node 、 master 节点的连接状态

7,测试创建pod

7.1 测试创建pod

7.2 查看Pod的状态信息

7.3 curl命令访问

7.4 查看nginx日志

7.5  查看service

五    部署 Dashboard

1,Dashboard 介绍

2, 准备Dashboard 和 metrics-scraper.tar

3,master01 节点上传 recommended.yaml 文件到 /opt/k8s 目录中

4, 执行 ymal 文件

5,创建service account并绑定默认cluster-admin管理员集群角色

6, 查看token 令牌

7, 浏览器登录Dashboard 

8,在Dashboard  创建6台pod

六   总结


一    实验环境

k8s集群master01:192.168.217.66    kube-apiserver kube-controller-manager kube-scheduler etcd
k8s集群master02:192.168.217.77

 k8s集群node01:192.168.217.88    kubelet kube-proxy docker 
 k8s集群node02:192.168.217.99 

etcd集群节点1:192.168.217.66    etcd
etcd集群节点2:192.168.217.88    etcd

etcd集群节点3:192.168.217.99    etcd

 负载均衡nginx+keepalive01(master):192.168.217.22
 负载均衡nginx+keepalive02(backup):192.168.217.44

二    部署 CoreDNS

CoreDNS:可以为集群中的 service 资源创建一个域名 与 IP 的对应关系解析

node加载coredns.tar 镜像    

master 执行ymal 文件

1,所有node加载coredns.tar 镜像   

拖入压缩包

docker load -i coredns.tar 载入镜像

2,在 master01 节点部署 CoreDNS 

上传 coredns.yaml 文件到 /opt/k8s 目录中,部署 CoreDNS

查看 kube-system  的命名空间

3, DNS 解析测试

kubectl run -it --rm dns-test --image=busybox:1.28.4 sh

####################
--rm: 这个选项告诉 Kubernetes 当Pod中的容器终止时,自动删除该Pod。这对于一次性任务特别有用,可以避免遗留不再需要的Pod。

dns-test: 这是给新创建的 Pod 指定的名字

sh: 这部分指定了在容器启动后要执行的命令。在这里,sh 是Shell的命令,意味着启动容器后会直接进入一个Shell环境。用户可以通过这个Shell与容器内部进行交互,执行各种命令等

4, 报错分析

如果出现以下报错

需要添加 rbac的权限  直接使用kubectl绑定  clusteradmin 管理员集群角色  授权操作权限

在master01:

 kubectl create clusterrolebinding cluster-system-anonymous --clusterrole=cluster-admin --user=system:anonymous


############   
返回结果
clusterrolebinding.rbac.authorization.k8s.io/cluster-system-anonymous created

kubectl create clusterrolebinding 命令用于在 Kubernetes 集群中创建一个新的 ClusterRoleBinding 资源。ClusterRoleBinding 将ClusterRole(一组权限)绑定到用户、组或其他实体,决定了这些实体在集群范围内能够执行的操作。下面是给定命令的详细解释:

  • kubectl create clusterrolebinding: 指令部分,表示要创建一个新的 ClusterRoleBinding 对象。

  • cluster-system-anonymous: 这是新创建的 ClusterRoleBinding 的名称。你可以自定义此名称,以便于管理和识别该ClusterRoleBinding的目的或作用。

  • --clusterrole=cluster-admin: 这个选项指定了要绑定的ClusterRole。在这个例子中,使用的是 cluster-admin,这是Kubernetes内置的ClusterRole,拥有对整个集群的完全管理权限。这意味着通过此ClusterRoleBinding关联的用户或组将拥有所有可能的权限。

  • --user=system:anonymous: 这个选项指定了ClusterRoleBinding将应用到的用户。在这个命令中,用户是 system:anonymous。在Kubernetes中,system:anonymous 是一个特殊用户,代表未认证的请求者,即任何未提供有效认证信息的访问尝试都会被视为这个用户。通过这种方式,此命令实际上是在赋予所有未经身份验证的访问者集群管理员权限,这是一个非常危险的配置,通常不推荐在生产环境中使用,因为这会极大地降低集群的安全性。

总结起来,这条命令创建了一个名为 cluster-system-anonymous 的ClusterRoleBinding,将集群管理员(cluster-admin)权限赋予了匿名用户(system:anonymous)。这是一种极端情况下的配置,实际操作中应谨慎使用此类权限分配,以免造成安全风险。

5,重新  DNS 解析测试

三       master02 节点部署

在企业里 master最少3台 有个leader

大体思路 是传 master需要的

etcd    kubernetes  目录   以及/root/.kube(kubectl 的配置文件以及缓存)     以及所有服务的system 单元文件

最后一个一个启动

1,从master01 传etcd 目录到 master02 节点

2,从master01 传  kubernetes  目录到 master02 节点

3,从master01传/root/.kube到 master02 节点

  • cache: 这个目录通常用于存放由kubectl命令行工具缓存的各种数据,比如API资源的本地副本或者上次查询的结果,以便提高后续命令的执行速度。这些信息帮助减少不必要的API服务器查询,提升交互效率。

  • config: 这是一个非常重要的文件,全名为config.yamlconfig(取决于操作系统显示设置),它包含了Kubernetes配置信息,尤其是与集群连接相关的设置。这个文件定义了如何连接到Kubernetes API服务器(apiserver)、认证凭据(如token或client证书)、上下文(clusters)、用户(users)以及默认的命名空间(namespace)等。当你使用kubectl命令行工具时,它会默认查找这个文件来确定如何与Kubernetes集群进行通信。

简而言之,.kube/cache是kubectl用于缓存数据以提高效率的目录,而.kube/config则是一个关键的配置文件,用于存储与Kubernetes集群交互所需的认证和配置细节

4, 从master01 传服务管理文件到 master02 节点

scp /usr/lib/systemd/system/{kube-apiserver,kube-controller-manager,kube-scheduler}.service root@master02:/usr/lib/systemd/system/

5,修改配置文件kube-apiserver中的IP

去master02

vim /opt/kubernetes/cfg/kube-apiserver

将第5行   7行   改成自己的ip


 

6, master02 节点上启动各服务并设置开机自启

systemctl start kube-apiserver.service
systemctl enable kube-apiserver.service
systemctl start kube-controller-manager.service
systemctl enable kube-controller-manager.service
systemctl start kube-scheduler.service
systemctl enable kube-scheduler.service

7, master02  将 可执行文件都做软连接

8,验证 master02 是否安装成功

查看node节点状态

-o=wide:输出额外信息;对于Pod,将输出Pod所在的Node名
//此时在master02节点查到的node节点状态仅是从etcd查询到的信息,而此时node节点实际上并未与master02节点建立通信连接,因此需要使用一个VIP把node节点与master节点都关联起来

四     负载均衡部署

1,架构图

2,k8s 集群做 nginx +keepalive 负载均衡高可用 的必要性

负载均衡器 :

分摊master流量

且 node回包的时候  也是经过负载均衡器

所有master 不需要指向node

3, 部署两台nginx 负载均衡服务器

3.1,配置nginx的官方在线yum源,配置本地nginx的yum源

两个nginx服务器

cat > /etc/yum.repos.d/nginx.repo << 'EOF'
[nginx]
name=nginx repo
baseurl=http://nginx.org/packages/centos/7/$basearch/
gpgcheck=0
EOF

3.2, 安装nginx

两个nginx服务器

3.3,修改nginx配置文件,配置四层反向代理负载均衡,指定k8s群集2台master的节点ip和6443端口

两个nginx服务器

vim /etc/nginx/nginx.conf

stream {
    log_format  main  '$remote_addr $upstream_addr - [$time_local] $status $upstream_bytes_sent';
    
	access_log  /var/log/nginx/k8s-access.log  main;

    upstream k8s-apiserver {
        server 192.168.217.66:6443;
        server 192.168.217.77:6443;
    }
    server {
        listen 6443;
        proxy_pass k8s-apiserver;
    }
}

解释:

这段配置是Nginx的一个配置片段,用于设置一个反向代理和负载均衡,特别是针对Kubernetes(k8s)API服务器的流量管理。下面逐行解释各部分:

  • stream: 这里其实有一个小误解,正确的配置应该是放在http块中而非stream,因为log_format, access_log, upstream, 和 server 配置都是HTTP相关的,而不是TCP/UDP流处理。stream模块用于处理四层协议(TCP/UDP)的负载均衡,而这里明显是在配置HTTP七层协议的负载均衡。因此,下面的解释基于它是HTTP配置的假设。

  • log_format main ...: 定义了名为main的日志格式,用于记录客户端IP地址(remote_addr),上游服务器地址(remotea​ddr),上游服务器地址(upstream_addr),请求时间(time_local),HTTP响应状态码(timel​ocal),HTTP响应状态码(status),以及发送给客户端的字节数($upstream_bytes_sent)。

  • access_log /var/log/nginx/k8s-access.log main;: 指定了访问日志的存储位置/var/log/nginx/k8s-access.log并且使用前面定义的main日志格式来记录日志

  • upstream k8s-apiserver {...}: 定义了一个名为k8s-apiserver的上游服务器组(可以理解为真实服务器),包含两个Kubernetes API服务器的地址:192.168.10.80:6443 和 192.168.10.20:6443。Nginx会根据负载均衡策略(默认是轮询)将请求分发到这两个地址之一。

  • server {...}: 定义了一个监听在6443端口上的Nginx服务器块。

    • listen 6443;: 指定该Nginx服务器监听在6443端口,这通常是Kubernetes API服务器的默认端口。
    • proxy_pass k8s-apiserver;: 设置代理传递目标为之前定义的k8s-apiserver上游服务器组,这意味着所有到达Nginx此端口的请求会被转发到这两个Kubernetes API服务器之一

总结来说,这段配置的作用是设置了一个Nginx作为Kubernetes API服务器的反向代理和负载均衡器,它监听在6443端口,接收对Kubernetes API的请求,并将这些请求透明地分发到两个Kubernetes API服务器实例上,同时记录相关访问日志。这样不仅提升了Kubernetes API服务的可用性和响应能力,还便于日志审计和故障排查。

3.4  检查配置文件语法

两个nginx服务器

3.5 启动nginx服务,查看已监听6443端口

两个nginx服务器

4,部署keepalived服务 解决nginx 单点故障

4.1  安装keepalived

两个nginx服务器

4.2 修改keepalived配置文件

ng01

vim /etc/keepalived/keepalived.conf

注意此处vip 地址  需要与master01   /opt/k8s/k8s-cert/k8s-cert.sh 中的vip 一致

vim /etc/keepalived/keepalived.conf
! Configuration File for keepalived

global_defs {
   # 接收邮件地址
   notification_email {
     acassen@firewall.loc
     failover@firewall.loc
     sysadmin@firewall.loc
   }
   # 邮件发送地址
   notification_email_from Alexandre.Cassen@firewall.loc
   smtp_server 127.0.0.1
   smtp_connect_timeout 30
   router_id NGINX_MASTER       #ng01节点的为 NGINX_MASTER,ng02节点的为 NGINX_BACKUP
}

#添加一个周期性执行的脚本
vrrp_script check_nginx {
    script "/etc/nginx/check_nginx.sh"  #指定检查nginx存活的脚本路径
}

vrrp_instance VI_1 {
    state MASTER                        #ng01节点的为 MASTER,ng02节点的为 BACKUP
    interface ens33                     #指定网卡名称 ens33
    virtual_router_id 51        #指定vrid,两个节点要一致
    priority 100                        #ng01节点的为 100,ng02节点的为 90
    advert_int 1
    authentication {
        auth_type PASS
        auth_pass 1111
    }
    virtual_ipaddress {
        192.168.217.100/24      #指定 VIP
    }
    track_script {
        check_nginx                     #指定vrrp_script配置的脚本
    }
}

ng02
 

vim /etc/keepalived/keepalived.conf
! Configuration File for keepalived

global_defs {
   # 接收邮件地址
   notification_email {
     acassen@firewall.loc
     failover@firewall.loc
     sysadmin@firewall.loc
   }
   # 邮件发送地址
   notification_email_from Alexandre.Cassen@firewall.loc
   smtp_server 127.0.0.1
   smtp_connect_timeout 30
   router_id NGINX_BACKUP       #ng01节点的为 NGINX_MASTER,ng02节点的为 NGINX_BACKUP
}

#添加一个周期性执行的脚本
vrrp_script check_nginx {
    script "/etc/nginx/check_nginx.sh"  #指定检查nginx存活的脚本路径
}

vrrp_instance VI_1 {
    state BACKUP                        #ng01节点的为 MASTER,ng02节点的为 BACKUP
    interface ens33                     #指定网卡名称 ens33
    virtual_router_id 51        #指定vrid,两个节点要一致
    priority 90                 #ng01节点的为 100,ng02节点的为 90
    advert_int 1
    authentication {
        auth_type PASS
        auth_pass 1111
    }
    virtual_ipaddress {
        192.168.217.100/24      #指定 VIP
    }
    track_script {
        check_nginx                     #指定vrrp_script配置的脚本
    }
}

4.3 创建nginx状态检查脚本

两个nginx服务器

vim /etc/nginx/check_nginx.sh

#!/bin/bash
#egrep -cv "grep|$$" 用于过滤掉包含grep 或者 $$ 表示的当前Shell进程ID,即脚本运行的当前进程ID号
count=$(ps -ef | grep nginx | egrep -cv "grep|$$")

if [ "$count" -eq 0 ];then
    systemctl stop keepalived
fi

加执行 权限

4.4 启动keepalived服务

两个nginx服务器

(一定要先启动了nginx服务,再启动keepalived服务)

查看VIP是否生成 ng01

5,  使用一个VIP把node节点与master节点都关联起来

所有node

5.1 修改node节点上的bootstrap.kubeconfig  配置文件为VIP

vim bootstrap.kubeconfig 

5.2 修改node节点上的kubelet.kubeconfig  配置文件为VIP

vim kubelet.kubeconfig

5.3  修改node节点上的kube-proxy.kubeconfig配置文件为VIP

vim kube-proxy.kubeconfig

5.4  重启kubelet和kube-proxy服务

6,  查看nginx 和 node 、 master 节点的连接状态

ng01

ng02

7,测试创建pod

master01 节点

7.1 测试创建pod

创建nginx pod

7.2 查看Pod的状态信息

//READY为1/1,表示这个Pod中有1个容器
 

7.3 curl命令访问

在对应网段的node节点上操作,可以直接使用浏览器或者curl命令访问

node01

7.4 查看nginx日志

master01节点

网关访问


 

7.5  查看service

master01节点

五    部署 Dashboard

1,Dashboard 介绍

仪表板是基于Web的Kubernetes用户界面。您可以使用仪表板将容器化应用程序部署到Kubernetes集群,对容器化应用程序进行故障排除,并管理集群本身及其伴随资源。您可以使用仪表板来概述群集上运行的应用程序,以及创建或修改单个Kubernetes资源(例如deployment,job,daemonset等)。例如,您可以使用部署向导扩展部署,启动滚动更新,重新启动Pod或部署新应用程序。仪表板还提供有关群集中Kubernetes资源状态以及可能发生的任何错误的信息。

2, 准备Dashboard 和 metrics-scraper.tar

node01  node02

准备压缩包

加载Dashboard  镜像(可视化工具)

这是监控数据的

3,master01 节点上传 recommended.yaml 文件到 /opt/k8s 目录中

master01

#默认Dashboard只能集群内部访问,修改Service为NodePort类型,暴露到外部:
kind: Service
apiVersion: v1
metadata:
  labels:
    k8s-app: kubernetes-dashboard
  name: kubernetes-dashboard
  namespace: kubernetes-dashboard
spec:
  ports:
    - port: 443
      targetPort: 8443
      nodePort: 30001     #添加
  type: NodePort          #添加
  selector:
    k8s-app: kubernetes-dashboard

4, 执行 ymal 文件

master01

5,创建service account并绑定默认cluster-admin管理员集群角色

创建service account

kubectl create serviceaccount dashboard-admin -n kube-system

kubectl create serviceaccount dashboard-admin -n kube-system 是一个 Kubernetes 命令,用于在 Kubernetes 集群中创建一个新的服务账户(service account)。下面是对这个命令各部分的详细解释:

  • kubectl: 这是 Kubernetes 的命令行工具,用于与 Kubernetes 集群进行交互,执行各种管理任务,如部署应用、检查集群状态等。

  • create: 这是一个 kubectl 动作,表示你要创建一个新的资源对象,如 Pod、Service、Deployment 或者在这个情况下,是 ServiceAccount。

  • serviceaccount: 这个关键词告诉 kubectl 你要创建的资源类型是 ServiceAccount。ServiceAccount 是 Kubernetes 中的一个特殊类型的对象,它用来为Pods提供身份和凭证,以便Pod内的进程能够与Kubernetes API进行安全通信。

  • dashboard-admin: 这是你要创建的服务账户的名称。在这个场景中,"dashboard-admin" 暗示这个服务账户可能被设计用来给 Kubernetes Dashboard 或其他需要访问API权限的组件提供管理员级别的访问权限,但具体权限由关联的Role或ClusterRole决定。

  • -n kube-system: -n--namespace 是一个选项,用于指定资源将被创建在哪个命名空间(namespace)中。在这里,命名空间是 kube-systemkube-system 是 Kubernetes 集群中的一个特殊命名空间,通常用于存放集群的核心组件和服务,如DNS、网络插件、监控系统等。选择 kube-system 表示这个服务账户将专用于该命名空间内的资源和服务。

综上所述,这个命令的作用是在 Kubernetes 集群的 kube-system 命名空间中创建一个名为 dashboard-admin 的服务账户,它可能被设计用于为Kubernetes Dashboard或类似应用提供必要的API访问权限。但请注意,实际的权限配置需要通过附加的Role或ClusterRole以及RoleBinding或ClusterRoleBinding来实现。

管理员账号 并赋权

kubectl create clusterrolebinding dashboard-admin --clusterrole=cluster-admin --serviceaccount=kube-system:dashboard-admin

kubectl create clusterrolebinding dashboard-admin --clusterrole=cluster-admin --serviceaccount=kube-system:dashboard-admin 是 Kubernetes 中的一个命令,用于创建一个集群角色绑定(ClusterRoleBinding)。这个命令的目的是赋予之前创建的服务账户特定的权限。下面是各部分的详细解释:

  • kubectl create clusterrolebinding: 该命令用于创建一个新的集群角色绑定。ClusterRoleBinding 是 Kubernetes 中的一种授权机制,它将 ClusterRole(定义了一组权限)绑定到用户、组或服务账户上,并在整个集群范围内生效。

  • dashboard-admin: 这是新创建的集群角色绑定的名称。它作为一个标识符,方便后续管理和理解这个绑定的用途,这里暗示它与之前创建的 dashboard-admin 服务账户相关联,用于给该服务账户分配权限。

  • --clusterrole=cluster-admin: 这个选项指定了要绑定的 ClusterRole 名称。cluster-admin 是 Kubernetes 内置的一个超级管理员角色,拥有对整个集群的完全访问权限。通过此选项,你实际上是将 cluster-admin 这一最广泛的权限集赋予了即将绑定的对象。

  • --serviceaccount=kube-system:dashboard-admin: 这个选项指定了要授予上述ClusterRole的服务账户及其所在的命名空间。格式为 <namespace>:<serviceaccount-name>。在这个例子中,服务账户名为 dashboard-admin,位于 kube-system 命名空间。这意味着 kube-system 命名空间下的 dashboard-admin 服务账户将获得 cluster-admin 角色所包含的所有权限。

综上所述,这个命令的作用是创建一个集群角色绑定,它将 cluster-admin 这个拥有集群管理员权限的角色绑定给了 kube-system 命名空间下的 dashboard-admin 服务账户,从而使该服务账户在 Kubernetes 集群中具有了非常广泛的管理权限。这通常用于需要高度访问权限的组件,比如 Kubernetes Dashboard 的后端服务,但需要注意的是,这样的设置应谨慎使用,以避免潜在的安全风险。

6, 查看token 令牌

这个就是Dashboard 令牌

查看token 令牌 复制

kubectl describe secrets -n kube-system $(kubectl -n kube-system get secret | awk '/dashboard-admin/{print $1}')

这条命令是用来查询 Kubernetes 集群中与 dashboard-admin 服务账户相关的秘密(secrets)详细信息的。命令分为两部分,我们逐一解析:

  1. 获取 Secret 名称:

    • kubectl -n kube-system get secret: 这部分命令用于列出 kube-system 命名空间中的所有秘密。
    • | awk '/dashboard-admin/{print $1}': 这里使用管道 (|) 将前一个命令的输出作为 awk 命令的输入。awk 是一个强大的文本分析工具,这里使用的规则是,如果输出行中包含 "dashboard-admin"(这通常意味着与 dashboard-admin 服务账户相关的秘密),则打印该行的第一列(即Secret的名称)。
  2. 描述 Secret 信息:

    • kubectl describe secrets -n kube-system $(...): 这部分利用上一步得到的 Secret 名称(通过命令替换 $() 实现),在 kube-system 命名空间中执行 describe 命令来展示这些秘密的详细信息。describe 命令提供了关于资源的更详尽视图,包括其元数据、标签、选择器等属性,对于秘密来说,还会展示其类型、数据等敏感内容的加密表示。

总结来说,整个命令的作用是查找 kube-system 命名空间中与 dashboard-admin 服务账户相关的所有秘密,并详细描述这些秘密的信息。这对于调试、审计或理解服务账户认证和授权设置特别有用。

7, 浏览器登录Dashboard 

谷歌好像不太行

使用输出的token登录Dashboard
https://NodeIP:30001

展示:

8,在Dashboard  创建6台pod

在master01  可查看到刚刚创建的pod

六   总结

多master集群架构的部署过程

首先 部署master02等其他master节点  master01配置文件拷贝(私钥、服务、执行文件)到master02

搭建nginx/Haproxy + keepalived 高可用负载均衡器对master节点

修改 node节点上kubelet kube-proxy的 kubeconfig配置文件对接VIP

kubectl 的配置文件也要对接VIP或者当前的节点

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1679954.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

Python数据分析与数据可视化 概念

考试题型&#xff1a; 一、填空题&#xff08;1分*10&#xff09; 二、程序代码填空&#xff08;1分*20&#xff09; 三、读程序写结果&#xff08;10分*4&#xff09; 四、程序设计&#xff08;10分*1&#xff09; 五、问答题&#xff08;20分*1&#xff09; 考试范围&#x…

【Pytorch】10.CIFAR10模型搭建

CIFAR10模型 是torchvision中官方给出的一个数据集,可以通过 dataset torchvision.datasets.CIFAR10(./data, trainFalse, downloadTrue, transformtorchvision.transforms.ToTensor())来下载到指定文件夹 搭建CIFAR10模型 首先我们先去搜一下CIFAR10 model structure 可以看…

51单片机超声波测距_液位检测_温度检测原理图PCB仿真代码

目录 实物图&#xff1a; PCB ​原理图​ 仿真图 ​编辑 程序 资料下载地址&#xff1a;51单片机超声波测距-液位检测-温度检测原理图PCB仿真代码 主控为stc89c52,通过ds18b20进行温度采集&#xff0c;超声波测距&#xff0c;距离不可以超过1m&#xff0c;通过按键可以设…

揭秘未来工厂核心:智慧大屏引领可视化管理新潮流

在数字化浪潮席卷全球的今天&#xff0c;智慧工厂已不再是科幻小说中的概念&#xff0c;而是成为了现代工业发展的新引擎。 智慧工厂可视化大屏&#xff0c;不仅仅是一块显示屏&#xff0c;更是工厂运行的“大脑”。通过这块屏幕&#xff0c;我们可以实时掌握工厂的每一个角落、…

【Linux进程通信 —— 管道】

Linux进程通信 —— 管道 进程间通信介绍进程间通信的概念进程间通信的目的进程间通信的本质进程间通信的分类 管道什么是管道匿名管道匿名管道的原理pipe用fork来共享管道原理站在文件描述符角度-深度理解管道站在内核角度-管道本质管道读写规则管道的特点管道的四种特殊情况管…

shell脚本之sort,uniq,tr,cut,sphit,paste,ecal与正则表达式

sort命令 uniq命令 tr命令 cut命令 sphit命令 paste命令 ecal命令 正则表达式 sort命令 sort命令---以行为单位对文件内容进行排序&#xff0c;也可以根据不同的数据类型来排序 比较原则是从首字符向后&#xff0c;依次按ASCII码值进行比较&#xff0c;最后将他们按升序…

C语言——预处理详解

目录 ​编辑 一、预定义符号 二、#define定义符号&#xff08;常量&#xff09; 三、define定义宏 四、带有副作⽤的宏参数 五、宏替换的规则 六、宏函数的对比 七、#和## 7.1 #运算符 7.2 ##运算符 八、命名约定 九、#undef 十、命令行定义 十一、条件编译 十二…

MP3解码入门(基于libhelix)

主要参考资料: 【Arduino Linux】基于 Helix 解码库实现 MP3 音频播放: https://blog.csdn.net/weixin_42258222/article/details/122640413 libhelix-mp3: https://github.com/ultraembedded/libhelix-mp3/tree/master 目录 一、MP3文件二、MP3 解码库三、libhelix-mp3库3.1 …

苹果新款 M4 芯片专注于 AI

爆炸性消息&#xff01;苹果的新一代 M4 芯片来了&#xff01;这家伙拥有 38 万亿次操作的超强神经引擎&#xff0c;速度比苹果 A11 芯片的 NPU 快 60 倍&#xff01;虽然它的速度还没有达到 Snapdragon X Elite 的 45 TOPS&#xff0c;但苹果自夸 M4 将提供与最新 PC 芯片相同…

并发-sleep更优雅的实现方案:TimeUnit.枚举常量.sleep()

首先给出结论&#xff1a;线程使用中的暂停&#xff0c;建议优先使用TimeUnit类中的sleep()但需要注意传入时间小于0的异常情况TimeUnit是java.util.concurrent包下的一个类名主要功能是暂停线程的操作拥有与Thread.sleep()一样的功能都是暂停线程&#xff0c;但TimeUnit提供了…

TINA 使用教程

常用功能 分析-电气规则检查&#xff1a;短路&#xff0c;断路等分析- 直流分析 交流分析 瞬态分析 视图-分离曲线 由于输出的容性负载导致的振荡 增加5欧电阻后OK 横扫参数 添加横扫曲线的电阻&#xff0c;选择R3&#xff1a;8K-20K PWL和WAV文件的支持 示例一&#xff1a;…

基于微信小程序+JAVA Springboot 实现的【房屋租赁管理系统】app+后台管理系统 (内附设计LW + PPT+ 源码+ 演示视频 下载)

项目名称 项目名称&#xff1a; 基于微信小程序的房屋租赁管理系统 在本次项目开发中&#xff0c;我们成功构建了一款基于微信小程序的房屋租赁管理系统&#xff0c;旨在通过现代化信息技术提升房屋租赁服务的效率和质量。以下是对本项目的全面总结&#xff1a; 项目背景与目…

C语言学习【printf函数和scanf函数】

C语言学习【printf函数和scanf函数】 printf()函数和scanf()函数可以让用户与程序交流&#xff0c;是输入/输出函数 printf()函数 请求printf()函数打印数据的指令要与待打印数据的类型相匹配。例如&#xff0c;打印整数时使用%d&#xff0c;打印字符时使用%c。这些符号被称…

Invalid bound statement (not found) 六种解决方法

前五种参考博文&#xff1a; Invalid bound statement (not found) 五种解决方法-CSDN博客 第六种&#xff1a; 在启动类上加上MapperScan&#xff0c;指定扫描包

day08|字符串题目part01

相关题目&#xff1a; ● 344.反转字符串 ● 541. 反转字符串II ● 卡码网&#xff1a;54.替换数字 ● 151.翻转字符串里的单词 ● 卡码网&#xff1a;55.右旋转字符串 344.反转字符串—双指针的应用 力扣链接 思路&#xff1a;创建两个指针分别指向头部和尾部&#xff0c;首…

IP代理中的SOCKS5代理是什么?安全吗?

在互联网世界中&#xff0c;网络安全和个人隐私保护变得日益重要。SOCKS5代理作为一种安全高效的网络工具&#xff0c;不仅可以保护个人隐私安全&#xff0c;还可以提供更稳定、更快度的网络连接。本文将带大家深入了解SOCKS5代理在网络安全领域中的应用。 什么是SOCKS5代理 …

vue3.0+antdv的admin管理系统vue-admin-beautiful推荐

前言 几年前&#xff0c;笔者自学了vue这一优秀的前端框架&#xff0c;但苦于没项目练手&#xff0c;无意间发现了vue-admin-beautiful这一优秀的前端集成框架。当时就使用它做了一很有意思的小项目---终端监控云平台&#xff0c;实现了前端和后台的整体功能。整体方案介绍参见…

python:SunMoonTimeCalculator

# encoding: utf-8 # 版权所有 2024 ©涂聚文有限公司 # 许可信息查看&#xff1a; # 描述&#xff1a; https://github.com/Broham/suncalcPy # Author : geovindu,Geovin Du 涂聚文. # IDE : PyCharm 2023.1 python 3.11 # Datetime : 2024/5/14 21:59 # User …

在抖音做电商,没有货源,不懂直播怎么办?分享一种解决方案!

大家好&#xff0c;我是电商糖果 糖果做电商的时间也挺久了&#xff0c;天猫&#xff0c;京东&#xff0c;闲鱼都搞过。 从学校进入社会工作&#xff0c;创业&#xff0c;一直都是围绕电商打转。 做的时间久了&#xff0c;好像只会做这一件事儿了。 2020年开始专攻抖音小店&…

大模型日报2024-05-15

大模型日报 2024-05-15 大模型资讯 OpenAI推出全新AI模型GPT-4o&#xff0c;具备文本、图像和音频处理能力 摘要: OpenAI公司继ChatGPT后&#xff0c;最新推出了名为GPT-4o的AI模型。这一模型不仅能够理解和生成文本&#xff0c;还新增了图像和音频的解释及生成功能。GPT-4o作为…