阿里云公网部署openyurt集群添加本地边缘节点并支持metrics-server和prometheus

news2024/11/16 11:30:18

公网部署openyurt集群并支持metrics-server和prometheus

  • 删除以前的集群
  • 创建虚拟网卡
  • 初始化主节点
    • 安装kubeadm等
    • 初始化
    • 安装网络插件flannel
    • 根据官方文档调整
    • 部署OpenYurt的Control-Plane组件
      • 部署openyurt/openyurt组件
  • 部署kuboard方便可视化
  • 主节点改造使其可以部署metrics-server和prometheus
    • 部署YurtHub
  • 部署metrics-server
  • 边缘节点加入
    • 编译yurtadm
      • 安装go环境
      • 编译
    • join命令
  • 部署prometheus
  • 某些问题解决
    • 主节点初始化失败
    • 无法使用kubectl logs命令
    • 通用问题解决方法

删除以前的集群

最好重启一下
主节点:

kubeadm reset
rm -rf /etc/cni/net.d
rm -rf $HOME/.kube/config
rm -rf /etc/kubernetes/
reboot

从节点:

yurtadm reset
rm -rf /etc/cni/net.d
rm -rf $HOME/.kube/config
reboot

开机后记得

swapoff -a

创建虚拟网卡

因为阿里云服务器内部网卡没有对应公网ip地址,需要创建虚拟网卡
每次重启后必须重新执行

ifconfig eth0:0 [公网ip] up

初始化主节点

安装kubeadm等

参考 https://blog.csdn.net/weixin_43168190/article/details/107223600

初始化

kubeadm init --apiserver-advertise-address=[公网ip] --image-repository=registry.aliyuncs.com/google_containers --pod-network-cidr=10.244.0.0/16 --kubernetes-version=v1.22.8 --service-cidr=10.96.0.0/12

如果出现问题看日志:

journalctl -u kubelet -xe

翻到文章最后面也会汇总一些问题。

初始化完成后

mkdir -p $HOME/.kube
sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
sudo chown $(id -u):$(id -g) $HOME/.kube/config

安装网络插件flannel

参考 https://blog.csdn.net/weixin_43168190/article/details/127774243?spm=1001.2014.3001.5501
用这篇文章里面的flannel文件和镜像。

根据官方文档调整

https://openyurt.io/zh/docs/installation/manually-setup/

kubectl label node center openyurt.io/is-edge-worker=false
vim /etc/kubernetes/manifests/kube-controller-manager.yaml
    - --controllers=-nodelifecycle,*,bootstrapsigner,tokencleaner

等待重启

cd openyurt
kubectl apply -f config/setup/yurt-tunnel-dns.yaml
kubectl -n kube-system get svc yurt-tunnel-dns

记住ClusterIP

vim /etc/kubernetes/manifests/kube-apiserver.yaml
:set paste # 设置为粘贴模式,然后插入在spec下面,缩进不要改
  dnsPolicy: "None" # 1. dnsPolicy修改为None
  dnsConfig:        # 2. 增加dnsConfig配置
    nameservers:
      - 10.99.148.17 # 使用yurt-tunnel-dns service的clusterIP替换
    searches:
      - kube-system.svc.cluster.local
      - svc.cluster.local
      - cluster.local
    options:
      - name: ndots
        value: "5"
    # 3. 下面还要改
    - --kubelet-preferred-address-types=Hostname,InternalIP,ExternalIP
kubectl annotate svc kube-dns -n kube-system openyurt.io/topologyKeys='openyurt.io/nodepool'

创建ds

vim coredns-ds.yaml 
apiVersion: apps/v1
kind: DaemonSet
metadata:
  labels:
    k8s-app: kube-dns
  name: coredns
  namespace: kube-system
spec:
  selector:
    matchLabels:
      k8s-app: kube-dns
  template:
    metadata:
      labels:
        k8s-app: kube-dns
    spec:
      containers:
      - args:
        - -conf
        - /etc/coredns/Corefile
        image: registry.aliyuncs.com/google_containers/coredns:1.9.3
        livenessProbe:
          failureThreshold: 5
          httpGet:
            path: /health
            port: 8080
            scheme: HTTP
          initialDelaySeconds: 60
          periodSeconds: 10
          successThreshold: 1
          timeoutSeconds: 5
        name: coredns
        ports:
        - containerPort: 53
          name: dns
          protocol: UDP
        - containerPort: 53
          name: dns-tcp
          protocol: TCP
        - containerPort: 9153
          name: metrics
          protocol: TCP
        readinessProbe:
          failureThreshold: 3
          httpGet:
            path: /ready
            port: 8181
            scheme: HTTP
          periodSeconds: 10
          successThreshold: 1
          timeoutSeconds: 1
        resources:
          limits:
            memory: 170Mi
          requests:
            cpu: 100m
            memory: 70Mi
        securityContext:
          allowPrivilegeEscalation: false
          capabilities:
            add:
            - NET_BIND_SERVICE
            drop:
            - all
          readOnlyRootFilesystem: true
        volumeMounts:
        - mountPath: /etc/coredns
          name: config-volume
          readOnly: true
      dnsPolicy: Default
      nodeSelector:
        kubernetes.io/os: linux
      priorityClassName: system-cluster-critical
      serviceAccount: coredns
      serviceAccountName: coredns
      tolerations:
      - operator: Exists
      - key: CriticalAddonsOnly
        operator: Exists
      - effect: NoSchedule
        key: node-role.kubernetes.io/master
      volumes:
      - configMap:
          defaultMode: 420
          items:
          - key: Corefile
            path: Corefile
          name: coredns
        name: config-volume
kubectl apply -f coredns-ds.yaml
kubectl delete deployment -n kube-system coredns
kubectl edit cm -n kube-system kube-proxy

注释掉 # kubeconfig: /var/lib/kube-proxy/kubeconfig.conf

部署OpenYurt的Control-Plane组件

克隆openyurt/yurt-app-manager仓库
cd进去

helm install yurt-app-manager -n kube-system ./charts/yurt-app-manager/

确认成功:

kubectl get pod -n kube-system | grep yurt-app-manager
kubectl get svc -n kube-system | grep yurt-app-manager
cat <<EOF | kubectl apply -f -
apiVersion: apps.openyurt.io/v1beta1
kind: NodePool
metadata:
  name: master
spec:
  type: Cloud
EOF
cat <<EOF | kubectl apply -f -
apiVersion: apps.openyurt.io/v1beta1
kind: NodePool
metadata:
  name: worker
spec:
  type: Edge
EOF
kubectl label node center apps.openyurt.io/desired-nodepool=master

部署openyurt/openyurt组件

在openyurt/openyurt中的组件包括:

yurt-controller-manager: 防止apiserver在断开连接时驱逐运行在边缘节点上的pod
yurt-tunnel-server: 在云端构建云边隧道
yurt-tunnel-agent: 在边缘侧构建云边隧道

如果你的云边节点不在同一网络平面内, 请手动修改values.yaml中tunnel相关参数:

cd openyurt/charts/openyurt/
vim values.yaml
yurtTunnelAgent.parameters.tunnelserverAddr="[公网ip]:31008": #用于tunnel agent连接tunnel server的公网IP与端口
yurtTunnelServer.parameters.certIps="[公网ip]": # tunnel server的公网IP

部署之前删除以前的东西:

rm -rf /var/lib/yurttunnel-server/pki
cd ../..
helm install openyurt -n kube-system ./charts/openyurt/
helm list -A 

部署kuboard方便可视化

https://kuboard.cn/install/v3/install-built-in.html#%E5%AE%89%E8%A3%85

sudo docker run -d \
  --restart=unless-stopped \
  --name=kuboard \
  -p 80:80/tcp \
  -p 10081:10081/tcp \
  -e KUBOARD_ENDPOINT="http://内网IP:80" \
  -e KUBOARD_AGENT_SERVER_TCP_PORT="10081" \
  -v /root/kuboard-data:/data \
  eipwork/kuboard:v3
  # 也可以使用镜像 swr.cn-east-2.myhuaweicloud.com/kuboard/kuboard:v3 ,可以更快地完成镜像下载。
  # 请不要使用 127.0.0.1 或者 localhost 作为内网 IP \
  # Kuboard 不需要和 K8S 在同一个网段,Kuboard Agent 甚至可以通过代理访问 Kuboard Server \

在浏览器输入 http://your-host-ip:80 即可访问 Kuboard v3.x 的界面,登录方式:
用户名: admin
密 码: Kuboard123
按要求复制.kube/config内容进去即可导入集群,然后请选择访问集群时所使用的身份,就进入集群了

主节点改造使其可以部署metrics-server和prometheus

主节点用ip是访问不到边缘节点的,因为边缘节点都是内网ip,主节点在外网无法访问,所以要利用openyurt的能力来访问。参考https://openyurt.io/zh/docs/user-manuals/monitoring/prometheus
如果metrics-server在主节点上,需要访问边缘节点的hostname,就需要dns解析,但是后面边缘节点加进来后,dns的解析可能会被负载均衡到自己的的coredns,而不是自己的coredns上,所以需要服务拓扑能力,参考https://openyurt.io/zh/docs/user-manuals/network/service-topology。而这个能力是YurtHub组件提供的,但是云端现在没有yurthub,只有在边缘端加入集群时才会自动部署yurthub。因此要手动部署yurthub。
详细的讨论可以看GitHub issue: https://github.com/openyurtio/openyurt/issues/1087

部署YurtHub

可以参考https://openyurt.io/zh/docs/installation/yurtadm-join#22-%E9%83%A8%E7%BD%B2edge%E5%B7%A5%E4%BD%9C%E6%A8%A1%E5%BC%8F%E7%9A%84yurthub
不过我们这里是要部署cloud模式的yurthub
从openyurt repo获取yurthub.yaml,执行如下修改后上传到边缘节点的/etc/kubernets/manifests目录。我粘贴在下面了。
获取 apiserver 的地址 (即ip:port) 和 bootstrap token ,用于替换模板文件 yurthub.yaml 中的对应值
获取 token 用命令:

kubeadm token list

最后要加上一行 - --working-mode=cloud

apiVersion: v1
kind: Pod
metadata:
  labels:
    k8s-app: yurt-hub
  name: yurt-hub
  namespace: kube-system
spec:
  nodeName: center
  volumes:
  - name: hub-dir
    hostPath:
      path: /var/lib/yurthub
      type: DirectoryOrCreate
  - name: kubernetes
    hostPath:
      path: /etc/kubernetes
      type: Directory
  - name: pem-dir
    hostPath:
      path: /var/lib/kubelet/pki
      type: Directory
  containers:
  - name: yurt-hub
    image: openyurt/yurthub:latest
    imagePullPolicy: IfNotPresent
    volumeMounts:
    - name: hub-dir
      mountPath: /var/lib/yurthub
    - name: kubernetes
      mountPath: /etc/kubernetes
    - name: pem-dir
      mountPath: /var/lib/kubelet/pki
    command:
    - yurthub
    - --v=2
    - --server-addr=https://127.0.0.1:6443
    - --node-name=$(NODE_NAME)
    - --join-token=vbiai7.npup027fe0m7woei
    - --working-mode=cloud
    livenessProbe:
      httpGet:
        host: 127.0.0.1
        path: /v1/healthz
        port: 10267
      initialDelaySeconds: 300
      periodSeconds: 5
      failureThreshold: 3
    resources:
      requests:
        cpu: 150m
        memory: 150Mi
      limits:
        memory: 300Mi
    securityContext:
      capabilities:
        add: ["NET_ADMIN", "NET_RAW"]
    env:
    - name: NODE_NAME
      valueFrom:
        fieldRef:
          fieldPath: spec.nodeName
  hostNetwork: true
  priorityClassName: system-node-critical
  priority: 2000001000

然后复制到静态pod目录,k8s会自动创建pod

cp yurthub.yaml /etc/kubernetes/manifests/

在kuboard里可以看容器信息:
http://[公网ip]/kubernetes/openyurt/namespace/kube-system/pods/yurt-hub-center
可以看看日志有没有出问题,如果出现start proxying就说明启动成功了

然后要配置kubelet,让它通过yurthub访问api-server,主节点上就可以拥有服务拓扑能力了。

mkdir -p /var/lib/openyurt
cat << EOF > /var/lib/openyurt/kubelet.conf
apiVersion: v1
clusters:
- cluster:
    server: http://127.0.0.1:10261
  name: default-cluster
contexts:
- context:
    cluster: default-cluster
    namespace: default
    user: default-auth
  name: default-context
current-context: default-context
kind: Config
preferences: {}
EOF

修改kubelet服务,使其使用刚刚创建的配置
为了让 kubelet 使用新的 kubeconfig,我们编辑 kubelet 服务的 drop-in 文件(即 /etc/systemd/system/kubelet.service.d/10-kubeadm.conf 或者 /usr/lib/systemd/system/kubelet.service.d/10-kubeadm.conf 在 CentOS 系统上))。

sed -i "s|KUBELET_KUBECONFIG_ARGS=--bootstrap-kubeconfig=\/etc\/kubernetes\/bootstrap-kubelet.conf\ --kubeconfig=\/etc\/kubernetes\/kubelet.conf|KUBELET_KUBECONFIG_ARGS=--kubeconfig=\/var\/lib\/openyurt\/kubelet.conf|g" \
    /etc/systemd/system/kubelet.service.d/10-kubeadm.conf

然后,我们重启 kubelet 服务。

systemctl daemon-reload && systemctl restart kubelet

为了激活kube-proxy和coredns的服务拓扑能力,重启这两个pod。(因为是daemonset部署的,删除pod之后kubelet会自动重建新的pod,相当于重启,可以在kuboard里面删除pod,或者用命令删除。)
用kuboard删除pod

部署metrics-server

使用kuboard自动部署
部署metrics-server
最后一步勾选副本数为1
勾选副本数
刷新页面就可以看到节点监控信息:
节点信息
但是现在只是主节点能看到,后面加上边缘节点是看不到的,需要修改yaml配置,在kuboard进入kube-system命名空间,进入metrics-server,修改yaml:
修改metrics-server配置
把参数中kubelet的地址中Hostname提到最前面:
修改配置
这时会发现看不到监控信息了,查看日志可以看到它无法解析hostname,所以要配置dns。可以参考openyurt中搭建prometheus中如何配置dns的:https://openyurt.io/zh/docs/user-manuals/monitoring/prometheus#1%E4%BF%AE%E6%94%B9coredns%E9%85%8D%E7%BD%AE

  1. yurt-tunnel-nodes挂载至coreDNS中,patch命令相当于修改yaml,可以去看看coredns的yaml是不是被改了。官方文档给的patch的是deployment,记得我们是daemonset部署的,所以要改成daemonset。
    kubectl patch daemonset coredns -n kube-system  -p '{"spec": {"template": {"spec": {"volumes": [{"configMap":{"name":"yurt-tunnel-nodes"},"name": "edge"}]}}}}'
    kubectl patch daemonset coredns -n kube-system  -p '{"spec": { "template": { "spec": { "containers": [{"name":"coredns","volumeMounts": [{"mountPath": "/etc/edge", "name": "edge", "readOnly": true }]}]}}}}'
    
    可以看到确实修改了
    修改了
  2. 修改coredns的configmap
    这一步可以用他给的命令修改,也可以用kuboard修改,我这里用可视化界面:
    修改configmap
    添加
        hosts /etc/edge/tunnel-nodes {    # add hosts plugin
            reload 300ms
            fallthrough
        }
    
    最后重启coredns,还是直接删除pod就行。

这下就会发现metrics-server不会报错了,可以解析hostname了,原理就是coredns里面添加了
yurt-tunnel-nodes configmap里面记录的ip,可以自己去看看这个configmap,相信可以理解原理。

prometheus后面再部署,现在可以先添加边缘节点了。

边缘节点加入

首先要安装好docker,不用花里胡哨的命令,用apt就行

apt install docker.io

然后要配置好docker的驱动为systemd

编译yurtadm

安装go环境

add-apt-repository ppa:longsleep/golang-backports
sudo apt-get install golang-1.16-go

/home/用户名目录下打开,root用户就在/root

vim .bashrc
# 添加
export GOROOT=/usr/lib/go-1.16/
export PATH=$PATH:$GOROOT/bin
# 编译
source .bashrc

重启之后需要重新执行,设置国内镜像

go env -w GO111MODULE=on
go env -w GOPROXY=https://goproxy.cn,direct

编译

git clone https://github.com/openyurtio/openyurt.git
cd openyurt
git checkout release-v1.1
make build WHAT="yurtadm" ARCH="amd64" REGION=cn
# arm64: make build WHAT="yurtadm" ARCH="arm64" REGION=cn

复制到bin目录下:(arm64记得改前面的目录)

cp _output/local/bin/linux/amd64/yurtadm /usr/local/bin/

一个节点编译好后,复制到其他节点需要修改权限:

cp yurtadm /usr/local/bin/
chmod 777 /usr/local/bin/yurtadm

join命令

apt install conntrack

不记得token在主节点用kubeadm token list

swapoff -a
yurtadm join [公网ip]:6443 --token=vbiai7.npup027fe0m7woei --node-type=edge --discovery-token-unsafe-skip-ca-verification --v=5

如果出现问题就看日志

journalctl -u kubelet -xe

还可以参考https://blog.csdn.net/weixin_43168190/article/details/127774243

重启节点后记得还需要关闭swap,然后重启kubelet

swapoff -a
systemctl restart kubelet

加入成功后记得看看能不能看每个pod的日志,在命令行随便看一个边缘节点:

kubectl get pods -n kube-system -o wide | grep dell2018

然后随便看一个pod的日志:

kubectl logs kube-flannel-ds-l8bxl -n kube-system

如果出现问题,翻到最后面

部署prometheus

首先注意兼容性:
兼容性
我们使用0.10版本

git clone https://github.com/prometheus-operator/kube-prometheus.git
cd kube-prometheus
git checkout release-0.10

Prometheus的安装方式参考:https://github.com/prometheus-operator/kube-prometheus#quickstart

# Create the namespace and CRDs, and then wait for them to be available before creating the remaining resources
# Note that due to some CRD size we are using kubectl server-side apply feature which is generally available since kubernetes 1.22.
# If you are using previous kubernetes versions this feature may not be available and you would need to use kubectl create instead.
kubectl apply --server-side -f manifests/setup
kubectl wait \
	--for condition=Established \
	--all CustomResourceDefinition \
	--namespace=monitoring
kubectl apply -f manifests/

由于网络原因,会有两个拉取不下来镜像:
失败
进入编辑,进入容器信息,修改镜像,我在dockerhub找到两个镜像,跟k8s官方是一样的,修改成这两个:

kubesphere/kube-state-metrics
v5cn/prometheus-adapter

修改后就能成功拉取了
成功
然后把prometheus-k8s和grafana的ip改为nodePort,就能访问了。

某些问题解决

主节点初始化失败

error execution phase upload-config/kubelet: Error writing Crisocket information for the control-plane node: timed out waiting for the condition

看日志

journalctl -u kubelet -xe

我发现它去请求10261端口了,这是yurthub的端口,我上次修改了配置忘记还原了
参考这里的修改,还原配置文件就好了,如果以前没部署过openyurt那就跟我问题不一样,自己去搜一搜吧。
https://openyurt.io/zh/docs/installation/yurtadm-join#23-%E9%85%8D%E7%BD%AEkubelet
为了部署metrics-server后面还会再改回来。。。

无法使用kubectl logs命令

显示:

You must be logged in to the server (the server has asked for the client to provide credentials ( pods/log kube-flannel-ds-l8bxl))

很可能是上次的没删干净,看这个issue:https://github.com/openyurtio/openyurt/issues/984
解决方法:

rm -rf /var/lib/yurttunnel-server/pki

然后要重启yurt-tunnel-server和agent,我们是用helm部署的:

helm list -A
helm delete openyurt -n kube-system

进入openyurt仓库目录重新部署:

helm install openyurt -n kube-system ./charts/openyurt/

过一会儿kubectl logs或者exec命令就能用了。

通用问题解决方法

一个是看kubelet日志

journalctl -u kubelet -xe

一个是看docker的日志,用

docker ps -a

可以看到全部的docker容器,看有没有状态是Exit的,然后看这个容器的日志,在根据日志里的东西去搜索。

docker logs 容器id

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/73379.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

字节算法中了80%!靠着这份GitHub上的算法小抄,成功斩获字节Offer

最近&#xff0c;GitHub上的算法小抄又火了&#xff01;已经有不少人靠它手撕算法题&#xff0c;拿下了字节、腾讯等大厂offer&#xff01; 不问不知道&#xff0c;这份刷题笔记来自FB高级架构师、ACM金牌选手。 这位大佬在刷题和打ACM比赛中总结出了经验和套路&#xff0c;又…

C#基础知识体系框架图,及起对应我发过的博客

自己工作开发C#上位机总结的&#xff0c;不好勿喷&#xff0c;更多资料去微软官网搜索就好 下面按照从基础到开发使用的顺序&#xff0c;对应我以前发过的链接&#xff08;后面再附上我自己的框架图&#xff09;&#xff1a; C#与C不同的一些基础命令_花开莫与流年错_的博客-…

深入理解Java中的三个修饰符(抽象(abstract)、静态(static)和最终的,不可变(final))【配视频】

&#x1f345;程序员小王的博客&#xff1a;程序员小王的博客 &#x1f345; 欢迎点赞 &#x1f44d; 收藏 ⭐留言 &#x1f4dd; &#x1f345; 如有编辑错误联系作者&#xff0c;如果有比较好的文章欢迎分享给我&#xff0c;我会取其精华去其糟粕 &#x1f345;java自学的学习…

Linux文件系统上的特殊权限

Linux 的文件权限&#xff0c;远不止 rwx 那么简单&#xff0c;还有一些特殊权限是用来打破限制和默认的安全上下文规则的&#xff0c;除了之前介绍过的隐藏属性&#xff0c;还有几个显式的特殊权限。下面就来说说 Linux 文件系统上的 SUID&#xff0c;SGID 和 Sticky 权限。 …

Vue2基础篇-20-生命周期回调函数

1.vue2的生命周期 beforeCreate &#xff1a;在实例初始化之后,进行数据侦听和事件/侦听器的配置之前同步调用&#xff1b; created: 在实例创建完成后被立即同步调用; beforeMount: 在挂载开始之前被调用 mounted : 实例被挂载后调用; beforeUpdate&#xff1a; 在数据发生…

2023最新SSM计算机毕业设计选题大全(附源码+LW)之java民生租赁车辆管理信息系统w29s0

如果你自己基础不好或者是小白的情况下那就建议你选择网站、系统类的去做&#xff0c;但是还得问问你们导师&#xff0c;如果你们导师没问题就可以&#xff0c;因为有的导师是不愿意你们选择做网站、系统的&#xff0c;毕竟做的人比较多&#xff0c;重复率调高&#xff0c;选择…

springboot中统一日志管理

Springboot中统一日志管理 一、为什么要用日志&#xff1f; 一般分为两个大类&#xff1a;操作日志和系统日志 **操作日志&#xff1a;**用户在操作软件时记录下来的操作步骤&#xff0c;便于用户自己查看。主要针对的是用户。 **系统日志&#xff1a;**系统日志是记录系统…

zeno封装子图

选中想要封装的节点&#xff0c;点击编辑->简易子图 2. 设置输入输出&#xff08;可以有多个&#xff09; 最后&#xff0c;在main图中测试

CDGA|6大核心环节,详解医疗机构如何做好数据治理

医疗机构进行数据治理的过程&#xff0c;就是对其数据资产进行管理和控制&#xff0c;支撑并保障数据被安全高效地交换与应用的过程。 我们接下来主要从6个核心环节来详解医疗机构如何做好数据治理。 环节一&#xff1a;设立数据治理组织结构 设计健全的数据治理组织结构&…

网络配置(桥接仅主机自定义网络)

目录 一、网络模式简介 1.bridge模式&#xff08;默认桥接模式&#xff09; 总结&#xff1a;桥接模式的特点就在于&#xff0c;它所虚拟的服务器都有独立的IP 初始网络模式 2.host模式&#xff08;仅主机模式&#xff09; 总结&#xff1a;仅主机它不会分配IP&#xff0c…

java计算机毕业设计ssm校园考研互助网站71747(附源码、数据库)

java计算机毕业设计ssm校园考研互助网站71747&#xff08;附源码、数据库&#xff09; 项目运行 环境配置&#xff1a; Jdk1.8 Tomcat8.5 Mysql HBuilderX&#xff08;Webstorm也行&#xff09; Eclispe&#xff08;IntelliJ IDEA,Eclispe,MyEclispe,Sts都支持&#xff0…

基于Android的校园二手闲置物品交易系统设计与实现

一、选题背景和意义 随着商品经济的快速发展&#xff0c;人们的生活中出现了大量的闲置物品&#xff0c;这种现象在当代大学生中尤为显著。大多数学生是通过摆地摊的方式来交易闲置物品&#xff0c;这种交易方式效率低下并且信息滞后。还有一部分学生通过BBS论坛来交易闲置物品…

springboot--web开发

使用springboot开发web项目 1&#xff09;、创建SpringBoot应用&#xff0c;选中我们需要的模块&#xff1b; web 2&#xff09;、SpringBoot会默认将这些场景配置好了&#xff0c;只需要在配置文件中指定少量配置就可以将项目运行起来 &#xff1b;/ 3&#xff09;、自己编…

Paddle 点灯人 之 Paddle介绍

Paddle 点灯人 之 Paddle介绍 文章目录Paddle 点灯人 之 Paddle介绍选择Paddle学习的原因Paddle免费提供的强大算力资源Paddle简单介绍Paddle的优势Paddle相关资料汇总选择Paddle学习的原因 首先&#xff0c;我想讲一下&#xff0c;为什么我想学习paddle&#xff0c;或者说为什…

【C++】STL——vector的模拟实现

vector的模拟实现 文章目录vector的模拟实现一、vector模拟实现总览二、模拟实现vector函数接口1. 默认成员函数1.1. 构造函数1.2. 析构函数1.3.拷贝构造函数&#xff08;深拷贝&#xff09;1.4. 赋值运算符重载函数2. 容量操作函数2.1. size和capacity2.2. resize2.3. reserve…

高数 | 【数一专项】真题回顾整理及知识点总结

本文摘录于周洋鑫2023考研数学真题刷题班串讲~ 均为自用笔记整理。 ヾ(◍∇◍)ノ゙ 加油! 对密度的积分 一、空间几何 1.1、旋转面方程 ☆ 常见二次曲面

MINRES(极小残差算法)求解线性系统详细解读

本博客参考了添加链接描述这篇知乎 先看我这篇博客介绍添加链接描述 QkRk−1Q_k R_{k}^{-1}Qk​Rk−1​的处理 假设Dk[d1,d2,…,dk]QkRk−1D_k [d_1,d_2, \ldots, d_k] Q_k R_{k}^{-1}Dk​[d1​,d2​,…,dk​]Qk​Rk−1​&#xff0c;假设RkR_kRk​的第iii行第jjj列元素为ri,…

在无控制点的条件下如何用RTK定线定位

作为测量人的你&#xff0c;是否遇到过暂时没有测区范围内的控制点资料&#xff0c;或者虽然有控制点资料&#xff0c;但没有这些点的 WGS84坐标的情况&#xff1f;这时候如何处理呢&#xff1f; 其实在没有控制点的情况下&#xff0c;可以利用RTK技术提供的在任意点上地方化功…

JavaSe-泛型机制详解

1 理解泛型的本质 JDK 1.5开始引入Java泛型&#xff08;generics&#xff09;这个特性&#xff0c;该特性提供了编译时类型安全检测机制&#xff0c;允许程序员在编译时检测到非法的类型。 泛型的本质是参数化类型&#xff0c;即给类型指定一个参数&#xff0c;然后在使用时再…

2022最后一个月如何快速发表一篇SCI

距2022年结束仅剩不到1个月&#xff0c;年终考核迫在眉睫&#xff0c;您的年初计划是否都已完成&#xff1f;2023年的科研计划是否也已提上日程&#xff1f;想要在2023年论文发表快人一步&#xff0c;早安排才是关键&#xff01; 进入12月&#xff0c;我处EA-ISET协会重点SCI/…