使用 kind 集群实现 all-in-one 在线安装 DCE 5.0 社区版

news2025/1/12 5:53:34

文章目录

    • 一、什么是DCE 5.0
    • 二、部署先决条件
    • 三、创建云服务器实例
      • 3.1 实例节点配置[最低配置要求]
      • 3.2 远程连接云实例
      • 3.3 更新系统
    • 四、安装Docker-CE
    • 五、使用 Kind 搭建 Kubernetes 集群
    • 六、安装依赖包
      • 6.1 helm安装
      • 6.2 skopeo安装
      • 6.3 kubectl安装
      • 6.4 yq安装
    • 七、安装 DCE 5.0 社区版
    • 八、登录DaoCloud
      • 8.1 容器管理
      • 8.2 可观测性
      • 8.3 全局管理
    • 九、常见问题
      • 9.1 安装报错问题
      • 9.2 依赖包版本问题
      • 9.3 系统兼容性问题
    • 十、参考链接

image-20230829102255960

一、什么是DCE 5.0

DaoCloud Enterprise 5.0 是一款高性能、可扩展的云原生操作系统。 它能够在任何基础设施和任意环境中提供一致、稳定的体验,支持异构云、边缘云和多云编排。 DCE 5.0 集成了最新的服务网格和微服务技术,能够跟踪每一个流量的生发始终, 帮助您洞察集群、节点、应用和服务的详细指标,并通过动态仪表盘和拓扑大图可视化掌握应用健康状态。

二、部署先决条件

1、准备节点

为了顺利安装DCE社区版,节点应满足如下要求:

  • CPU > 8核
  • 内存 > 12GB
  • 磁盘大小 > 100GB

2、安装Docker

3、安装kubectl

4、安装kind

5、使用kind创建集群

6、安装依赖包(helm、skopeo、kubectl、yq)

7、安装DCE 5.0

8、后续完善

三、创建云服务器实例

3.1 实例节点配置[最低配置要求]

操作系统CentOS 7.9
内存大小> 12GB
CPU核数> 8核
磁盘大小> 100GB
实例类型m5.2xlarge

3.2 远程连接云实例

C:\Users\xyb>ssh -i <密钥> centos@16.163.127.49
[centos@ip-172-18-16-59 ~]$ cat /etc/redhat-release
CentOS Linux release 7.9.2009 (Core)
[centos@ip-172-18-16-59 ~]$

3.3 更新系统

# 获取管理员权限
$ sudo -i

# 更新操作系统
# yum update -y

四、安装Docker-CE

  • 安装Docker
# sudo yum install -y yum-utils device-mapper-persistent-data lvm2

# sudo yum-config-manager --add-repo https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo

# sudo sed -i 's+download.docker.com+mirrors.aliyun.com/docker-ce+' /etc/yum.repos.d/docker-ce.repo

# sudo yum makecache fast

# sudo yum -y install docker-ce

# sudo service docker start

# sudo systemctl enable docker

# sudo systemctl status docker
  • 查看Docker版本信息
# docker version
Client: Docker Engine - Community
 Version:           24.0.5
 API version:       1.43
 Go version:        go1.20.6
 Git commit:        ced0996
 Built:             Fri Jul 21 20:39:02 2023
 OS/Arch:           linux/amd64
 Context:           default

Server: Docker Engine - Community
 Engine:
  Version:          24.0.5
  API version:      1.43 (minimum version 1.12)
  Go version:       go1.20.6
  Git commit:       a61e2b4
  Built:            Fri Jul 21 20:38:05 2023
  OS/Arch:          linux/amd64
  Experimental:     false
 containerd:
  Version:          1.6.22
  GitCommit:        8165feabfdfe38c65b599c4993d227328c231fca
 runc:
  Version:          1.1.8
  GitCommit:        v1.1.8-0-g82f18fe
 docker-init:
  Version:          0.19.0
  GitCommit:        de40ad0

五、使用 Kind 搭建 Kubernetes 集群

kind 是 Kubernetes 官方推荐用于快速搭建测试集群的工具,全称为 Kubernetes in Docker,指通过Docker 来运行Kubernetes。

  • 下载 kind 的二进制文件包
# curl -Lo ./kind https://qiniu-download-public.daocloud.io/kind/v0.17.0/kind-linux-amd64

# chmod +x ./kind

# old_kind=$(which kind)

# if [ -f "$old_kind" ]; then mv ./kind $old_kind; else mv ./kind /usr/bin/kind ; fi

# kind version
kind v0.17.0 go1.19.2 linux/amd64
  • 创建kind_cluster.yaml,暴露端口8888。
apiVersion: kind.x-k8s.io/v1alpha4
kind: Cluster
nodes:
- role: control-plane
  extraPortMappings:
  - containerPort: 32088
    hostPort: 8888
  • 创建xyb-kind-cluster集群
kind create cluster --image release.daocloud.io/kpanda/kindest-node:v1.25.3 --name=xyb-kind-cluster --config=kind_cluster.yaml
# kind create cluster --image release.daocloud.io/kpanda/kindest-node:v1.25.3 --name=xyb-kind-cluster --config=kind_cluster.yaml
Creating cluster "xyb-kind-cluster" ...
 ✓ Ensuring node image (release.daocloud.io/kpanda/kindest-node:v1.25.3) 🖼
 ✓ Preparing nodes 📦
 ✓ Writing configuration 📜
 ✓ Starting control-plane 🕹️
 ✓ Installing CNI 🔌
 ✓ Installing StorageClass 💾
Set kubectl context to "kind-xyb-kind-cluster"
You can now use your cluster with:

kubectl cluster-info --context kind-xyb-kind-cluster

Have a nice day! 👋

image-20230827230200327

[root@dce ~]# kubectl cluster-info --context kind-xyb-kind-cluster
Kubernetes control plane is running at https://127.0.0.1:34915
CoreDNS is running at https://127.0.0.1:34915/api/v1/namespaces/kube-system/services/kube-dns:dns/proxy

To further debug and diagnose cluster problems, use 'kubectl cluster-info dump'.
[root@dce ~]# kubectl get nodes -A
NAME                             STATUS   ROLES           AGE   VERSION
xyb-kind-cluster-control-plane   Ready    control-plane   23m   v1.25.3
[root@dce ~]# kubectl get pods --all-namespaces
NAMESPACE            NAME                                                     READY   STATUS    RESTARTS   AGE
kube-system          coredns-565d847f94-nmwdk                                 1/1     Running   0          23m
kube-system          coredns-565d847f94-qmrxb                                 1/1     Running   0          23m
kube-system          etcd-xyb-kind-cluster-control-plane                      1/1     Running   0          23m
kube-system          kindnet-tflqd                                            1/1     Running   0          23m
kube-system          kube-apiserver-xyb-kind-cluster-control-plane            1/1     Running   0          23m
kube-system          kube-controller-manager-xyb-kind-cluster-control-plane   1/1     Running   0          23m
kube-system          kube-proxy-s744f                                         1/1     Running   0          23m
kube-system          kube-scheduler-xyb-kind-cluster-control-plane            1/1     Running   0          23m
local-path-storage   local-path-provisioner-684f458cdd-2znp7                  1/1     Running   0          23m

六、安装依赖包

在安装完Kind集群后,需要确保集群中已安装所有依赖项,且确保依赖包的版本符合以下要求:

  • helm ≥ 3.11.1
  • skopeo ≥ 1.11.1
  • kubectl ≥ 1.25.6
  • yq ≥ 4.31.1

6.1 helm安装

# curl https://raw.githubusercontent.com/helm/helm/master/scripts/get-helm-3 > get_helm.sh

# chmod 700 get_helm.sh

# yum install -y git

# ./get_helm.sh

# helm version
version.BuildInfo{Version:"v3.12.3", GitCommit:"3a31588ad33fe3b89af5a2a54ee1d25bfe6eaa5e", GitTreeState:"clean", GoVersion:"go1.20.7"}

🎇https://helm.sh/docs/intro/install/

6.2 skopeo安装

# yum -y install skopeo

# skopeo --version
skopeo version 1.11.2-dev

📶 https://github.com/containers/skopeo/blob/main/install.md

6.3 kubectl安装

  • 添加 Kubernetes 的 yum 仓库。如果你想使用 v1.28 之外的 Kubernetes 版本, 将下面命令中的 v1.28 替换为所需的次要版本。
# cat <<EOF | sudo tee /etc/yum.repos.d/kubernetes.repo
[kubernetes]
name=Kubernetes
baseurl=https://pkgs.k8s.io/core:/stable:/v1.28/rpm/
enabled=1
gpgcheck=1
gpgkey=https://pkgs.k8s.io/core:/stable:/v1.28/rpm/repodata/repomd.xml.key
EOF
  • 使用 yum 安装 kubectl:
# sudo yum install -y kubectl
  • 验证kubectl配置
# kubectl version
Client Version: v1.28.1
Kustomize Version: v5.0.4-0.20230601165947-6ce0bf390ce3
Server Version: v1.25.3

🔎https://kubernetes.io/zh-cn/docs/tasks/tools/install-kubectl-linux/

6.4 yq安装

# wget https://github.com/mikefarah/yq/releases/latest/download/yq_linux_amd64 -O /usr/bin/yq && chmod +x /usr/bin/yq

# yq --version
yq (https://github.com/mikefarah/yq/) version v4.35.1

✅https://github.com/mikefarah/yq

七、安装 DCE 5.0 社区版

  • 在 kind 主机下载 dce5-installer 二进制文件
# export VERSION=v0.9.0

# curl -Lo ./dce5-installer  https://proxy-qiniu-download-public.daocloud.io/DaoCloud_Enterprise/dce5/dce5-installer-$VERSION

# chmod +x ./dce5-installer
  • 获取 kind 所在主机的 IP,然后开始安装 DCE 5.0
## 若选择使用本地虚拟机安装,执行如下命令:

# myIP=$(ip -o route get 1.1.1.1 | cut -d " " -f 7)
# ./dce5-installer install-app -z -k $myIP:8888

---

## 若选择使用云服务器实例进行安装,执行如下命令:

# ./dce5-installer install-app -z -k <公网IP地址>:8888

安装完成,结果如下图所示。

image-20230828130006545

八、登录DaoCloud

输入主机IP地址:8888

image-20230828135921764

输入用户名和密码。

  • 用户名:admin
  • 密码:changeme

image-20230828135915571

初次登录需要获取离线授权码。

image-20230828140625601

  • 获取离线授权码

获取离线授权码链接:https://license.daocloud.io/dce5-license

image-20230828170231773

apiVersion: ghippo.io/v1alpha1
kind: GProductLicense
metadata:
  name: kpanda
spec:
  code: eyJhbGciOiJSUzI1NiIsInR5cCI6IkpXVCJ9.eyJ0aW1lc3RhbXAiOiAxNjkzMjAyNzM5LCAibGljZW5zZSI6IHsidGllciI6ICIiLCAicmVzb3VyY2VfZGF0YSI6IHsia3BhbmRhIjoge319LCAidXBkYXRlZF9hdCI6IDE2OTMyMDI2NTYsICJjcmVhdGVkX2F0IjogMTY5MzIwMjY1NiwgInByb2R1Y3Rpb25fbmFtZSI6ICJcdTViYjlcdTU2NjhcdTdiYTFcdTc0MDYiLCAiYWxpYXMiOiAiXHU0ZjFmXHU0ZWQ1XHU0ZjczXHU2NzcwIiwgIm1ldGFfZGF0YSI6ICJ7XCJjbHVzdGVyX2lkXCI6IFwiMDY4OTMzNDctNTFiZS00YjU1LTg3MjMtMTg5ZDQ5OTNhZTZlXCJ9IiwgImV4cGlyYXRpb24iOiAxNzU2NjU2MDAwLCAia2V5IjogIkJDMTg2LTQ0Q0I1LUE0QkU1LTg1ODgxLTAxRjRDIiwgImxpY2Vuc2VfdHlwZSI6ICJvZmZsaW5lIn0sICJrZXkiOiAiQkMxODYtNDRDQjUtQTRCRTUtODU4ODEtMDFGNEMifQ.YF4G_h6Pu-k0WePtW_uk1SzSj25oNEC9pDX7KODBm0cQCendSJ5OgA_B6Jaq-XMnR2Uk6XQmyDMzaeoAr4wswwgf4o0opRn27RkDB5WC3Texem5Qd5gdjRJ8BsTnbtvaA1j3gOv1Q5SGSOdP2kPAGk3hKbsN6KlFuN3uclK87Uyrp4A37ySfkPJzZwAZ7s0nTUs00gpkhdoodYHikM2cP_CCoEmzvC-VDk5iJ4aQdtmMDynDKVQnh4ws43InXS8PDuuBY4bltpvzffxz5zUIdpGzpEt1_dKvBLao-gSL8DInzniLHbmh6bmwrR8o9EBZSVBuBOpnwgK_-4KhIRsSKQ

---

apiVersion: ghippo.io/v1alpha1
kind: GProductLicense
metadata:
  name: insight
spec:
  code: eyJhbGciOiJSUzI1NiIsInR5cCI6IkpXVCJ9.eyJ0aW1lc3RhbXAiOiAxNjkzMjAyNzM5LCAibGljZW5zZSI6IHsidGllciI6ICIiLCAicmVzb3VyY2VfZGF0YSI6IHsiaW5zaWdodCI6IHt9fSwgInVwZGF0ZWRfYXQiOiAxNjkzMjAyNjU2LCAiY3JlYXRlZF9hdCI6IDE2OTMyMDI2NTYsICJwcm9kdWN0aW9uX25hbWUiOiAiXHU1M2VmXHU4OWMyXHU2ZDRiXHU2MDI3IiwgImFsaWFzIjogIlx1NGYxZlx1NGVkNVx1NGY3M1x1Njc3MCIsICJtZXRhX2RhdGEiOiAie1wiY2x1c3Rlcl9pZFwiOiBcIjA2ODkzMzQ3LTUxYmUtNGI1NS04NzIzLTE4OWQ0OTkzYWU2ZVwifSIsICJleHBpcmF0aW9uIjogMTc1NjY1NjAwMCwgImtleSI6ICJBM0YyQy1CN0EyMy02NEZFNi1BREI5NC1GNUMwRiIsICJsaWNlbnNlX3R5cGUiOiAib2ZmbGluZSJ9LCAia2V5IjogIkEzRjJDLUI3QTIzLTY0RkU2LUFEQjk0LUY1QzBGIn0.hoA9rKzsiHw3SIHF7kV5px6CLaTZTELMu5Db78eUvYr9kSo0VX1uJdOrwGbhFlco7n9ppbJSsBupPajZ4UUC3JB9OLpJ8mCm1Skp5MeYKNIsLUOMd0w2vNsIXCsZ62LNCkn6veMag5pBqvkEEeqNzdpD9pSXqWNBWSLtXkI_eUYoAyqoZhQ8l9vzjmEzBiLZzHM_6KrylOjzM6kFCZXQApoAxnfcpktiLoJFe4E8_r6pfbi8520ErEUWDgrYYCtxy8w4eC0dRPFmQb0eHjyYp3tueVe-X1-8XvhbmhkHLIW0jvVcnf4Ij8a9YXWX57T2Ua_BG_e1zqeNd15NY21ZdQ

---

apiVersion: ghippo.io/v1alpha1
kind: GProductLicense
metadata:
  name: ghippo
spec:
  code: eyJhbGciOiJSUzI1NiIsInR5cCI6IkpXVCJ9.eyJ0aW1lc3RhbXAiOiAxNjkzMjAyNzM5LCAibGljZW5zZSI6IHsidGllciI6ICIiLCAicmVzb3VyY2VfZGF0YSI6IHsiZ2hpcHBvIjoge319LCAidXBkYXRlZF9hdCI6IDE2OTMyMDI2NTYsICJjcmVhdGVkX2F0IjogMTY5MzIwMjY1NiwgInByb2R1Y3Rpb25fbmFtZSI6ICJcdTUxNjhcdTVjNDBcdTdiYTFcdTc0MDYiLCAiYWxpYXMiOiAiXHU0ZjFmXHU0ZWQ1XHU0ZjczXHU2NzcwIiwgIm1ldGFfZGF0YSI6ICJ7XCJjbHVzdGVyX2lkXCI6IFwiMDY4OTMzNDctNTFiZS00YjU1LTg3MjMtMTg5ZDQ5OTNhZTZlXCJ9IiwgImV4cGlyYXRpb24iOiAxNzU2NjU2MDAwLCAia2V5IjogIjkxNzhFLTMwMTk4LTM0Mzk5LUE4MUE1LTY3RDFCIiwgImxpY2Vuc2VfdHlwZSI6ICJvZmZsaW5lIn0sICJrZXkiOiAiOTE3OEUtMzAxOTgtMzQzOTktQTgxQTUtNjdEMUIifQ.q0BRq9sKSWmnnWwr1-9LWl5K0Qz_rjtfqCa56p_gntLu2FwQam-o4Ag6aW1_utuT6j2Squih2f5xnqQX8c5ovoGdQNNoj8SyLher88RY4EEYqkSRJSMBgVhM3bz7I1k0jo-ThyGXtS4MjYPZLWMbK-WbYnu_Oy9lLbpCWunylCynj5L4wFz9-dasNLoYzJCuIZR3yjut_dOdWTLGx08nuepT49Dq4OG_1KApI8lhW2BLZgU3HgYH3Str3B1nVul6iy1wfhqQprCXfHNVlZvCt63bvHvr0v3wwe995XixrC6Vw_Okkzv6VmLwH_ONombRNkzHhVzU_AlQuzg36NOIKA

选择激活许可证

image-20230828140645738

容器管理等授权被激活。

image-20230828140717184

成功登录至DCE 5.0社区版管理后台。

image-20230828140931263

[root@ip-172-18-16-59 ~]# kubectl get pods -A
NAMESPACE            NAME                                                           READY   STATUS    RESTARTS       AGE
ghippo-system        ghippo-anakin-69df9779d7-nhlt5                                 2/2     Running   0              136m
ghippo-system        ghippo-apiserver-558d9c4674-bk94x                              2/2     Running   0              136m
ghippo-system        ghippo-auditserver-5f9fd89668-5b2g8                            2/2     Running   0              136m
ghippo-system        ghippo-controller-manager-575dfc6fb8-6nc8c                     2/2     Running   0              136m
ghippo-system        ghippo-keycloakx-0                                             2/2     Running   0              136m
ghippo-system        ghippo-ui-85dd696b6-z65hf                                      2/2     Running   0              136m
insight-system       grafana-deployment-69467c755f-fd8mn                            1/1     Running   0              128m
insight-system       insight-agent-fluent-bit-hqpd8                                 1/1     Running   0              127m
insight-system       insight-agent-kube-prometh-operator-74d6f98b67-t6frm           1/1     Running   0              127m
insight-system       insight-agent-kube-state-metrics-56b5f9b594-ggsh2              1/1     Running   0              127m
insight-system       insight-agent-kubernetes-event-exporter-658b7dbdc4-mqfnc       1/1     Running   0              127m
insight-system       insight-agent-prometheus-node-exporter-jvplg                   1/1     Running   0              127m
insight-system       insight-agent-tailing-sidecar-operator-759d9fcbdd-75b66        2/2     Running   0              127m
insight-system       insight-grafana-operator-66856b4db7-dtwjl                      1/1     Running   0              130m
insight-system       insight-opentelemetry-collector-7b4976995d-2wjnz               1/1     Running   0              130m
insight-system       insight-runbook-6c89784569-ccqrs                               1/1     Running   0              130m
insight-system       insight-server-864b9cc868-kt728                                1/1     Running   0              130m
insight-system       insight-ui-56fcd89fd7-dgbjn                                    1/1     Running   0              130m
insight-system       insight-victoria-metrics-operator-77bf54cf77-z76zh             1/1     Running   0              130m
insight-system       prometheus-insight-agent-kube-prometh-prometheus-0             2/2     Running   0              126m
insight-system       prometheus-insight-agent-kube-prometh-prometheus-1             2/2     Running   0              126m
insight-system       vmalert-insight-victoria-metrics-k8s-stack-85788775b8-jpjqf    2/2     Running   0              130m
insight-system       vmalertmanager-insight-victoria-metrics-k8s-stack-0            2/2     Running   0              130m
insight-system       vminsert-insight-victoria-metrics-k8s-stack-6bf6d785fb-r64d2   1/1     Running   0              130m
insight-system       vmselect-insight-victoria-metrics-k8s-stack-0                  1/1     Running   0              130m
insight-system       vmstorage-insight-victoria-metrics-k8s-stack-0                 1/1     Running   0              130m
ipavo-system         ipavo-749886b5c6-9tg89                                         2/2     Running   0              126m
ipavo-system         ipavo-749886b5c6-j64cn                                         2/2     Running   0              126m
ipavo-system         ipavo-ui-7d99c68cdf-qlzzd                                      1/1     Running   0              126m
ipavo-system         ipavo-ui-7d99c68cdf-zv6ng                                      1/1     Running   0              126m
istio-system         istio-ingressgateway-5dff699dd7-vszlq                          1/1     Running   0              143m
istio-system         istio-os-init-8qgvx                                            1/1     Running   0              142m
istio-system         istiod-69c59b6bbd-vhzkg                                        1/1     Running   0              143m
kcollie-system       kcollie-apiserver-67f664cdc4-jzjj8                             1/1     Running   0              125m
kcollie-system       kcollie-collector-684496988b-9cvr4                             1/1     Running   0              125m
kcollie-system       kcollie-collector-684496988b-9lbhw                             1/1     Running   0              125m
kcollie-system       kcollie-controller-manager-7798cdbdf7-5bmkn                    1/1     Running   0              125m
kcollie-system       kcollie-controller-manager-7798cdbdf7-jdx42                    1/1     Running   0              125m
kcollie-system       kcollie-ui-5cc7f6459-rd7kt                                     1/1     Running   0              125m
kcollie-system       vmalert-kcollie-receiver-5f775d68cc-7szzz                      2/2     Running   0              125m
kpanda-system        kpanda-apiserver-7d5d8c55d8-cttj8                              2/2     Running   1 (131m ago)   133m
kpanda-system        kpanda-bindings-syncer-5d9cf7d44b-nhmdf                        2/2     Running   1 (132m ago)   133m
kpanda-system        kpanda-cloudtty-controller-manager-855c465bd4-thnwb            2/2     Running   1 (132m ago)   133m
kpanda-system        kpanda-clusterpedia-apiserver-6447888f47-t4wn9                 2/2     Running   0              133m
kpanda-system        kpanda-clusterpedia-clustersynchro-manager-64cb4c49cc-rfxd7    2/2     Running   0              133m
kpanda-system        kpanda-clusterpedia-controller-manager-74b9b5659f-8fskw        2/2     Running   0              133m
kpanda-system        kpanda-controller-manager-bbc8f4994-kp5mc                      2/2     Running   1 (132m ago)   133m
kpanda-system        kpanda-egress-7759b995dc-l9j6k                                 3/3     Running   1 (132m ago)   133m
kpanda-system        kpanda-ingress-f59d6cc4b-xrbjm                                 3/3     Running   1 (132m ago)   133m
kpanda-system        kpanda-ui-c5f65cf5-bt8k2                                       2/2     Running   0              133m
kube-system          coredns-565d847f94-4v5ft                                       1/1     Running   0              145m
kube-system          coredns-565d847f94-vcx9s                                       1/1     Running   0              145m
kube-system          etcd-xyb-kind-cluster-control-plane                            1/1     Running   0              145m
kube-system          kindnet-slc2s                                                  1/1     Running   0              145m
kube-system          kube-apiserver-xyb-kind-cluster-control-plane                  1/1     Running   0              145m
kube-system          kube-controller-manager-xyb-kind-cluster-control-plane         1/1     Running   0              145m
kube-system          kube-proxy-2j5pd                                               1/1     Running   0              145m
kube-system          kube-scheduler-xyb-kind-cluster-control-plane                  1/1     Running   0              145m
local-path-storage   local-path-provisioner-684f458cdd-fsjnh                        1/1     Running   0              145m
mcamel-system        console-5f559b8f77-285w4                                       1/1     Running   0              142m
mcamel-system        elastic-operator-0                                             1/1     Running   0              142m
mcamel-system        mcamel-common-es-cluster-masters-es-data-0                     1/1     Running   0              140m
mcamel-system        mcamel-common-kpanda-mysql-cluster-mysql-0                     4/4     Running   0              140m
mcamel-system        mcamel-common-minio-cluster-pool-0-0                           1/1     Running   0              140m
mcamel-system        mcamel-common-mysql-cluster-mysql-0                            4/4     Running   1 (137m ago)   140m
mcamel-system        minio-operator-69859d5848-xzjsd                                1/1     Running   0              142m
mcamel-system        mysql-operator-0                                               2/2     Running   0              142m
mcamel-system        redis-cluster-operator-cc9d4b5f5-l5mx7                         1/1     Running   0              142m
mcamel-system        redis-cluster-operator-redis-ha-operator-65444cfc84-szmw2      1/1     Running   0              142m
mcamel-system        rfr-mcamel-common-redis-cluster-0                              1/1     Running   0              140m
mcamel-system        rfs-mcamel-common-redis-cluster-7b886475d4-x6bds               1/1     Running   0              140m

image-20230828170403790
image-20230828161210578
image-20230828174314402

image-20230829102334348

image-20230829102715720

8.1 容器管理

image-20230829105315332

image-20230829105611054

8.2 可观测性

image-20230829102820265

8.3 全局管理

image-20230829105827908
image-20230829105853624

九、常见问题

9.1 安装报错问题

image-20230827235808318

9.2 依赖包版本问题

系统依赖包需要设置成指定的版本。

9.3 系统兼容性问题

本实验采用的是CentOS 7.9操作系统进行安装的。之前采用Rocky Linux 9.2操作系统进行安装发现系统不兼容。具体的系统兼容配置请参考如下链接:

DCE 5 声明支持的 OS 类型:https://docs.daocloud.io/install/commercial/deploy-requirements.html

未声明支持的 Other Linux 离线部署 DCE 5.0 商业版: https://docs.daocloud.io/install/os-install/otherlinux.html

十、参考链接

🟢 https://docs.daocloud.io/install/community/kind/online/

🔴 https://www.daocloud.io/

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1137465.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

软考系列(系统架构师)- 2014年系统架构师软考案例分析考点

试题一 软件架构&#xff08;MYC 架构、扩展接口模式&#xff09; MVC架构风格最初是Smalltalk-80中用来构建用户界面时采用的架构设计风格。其中M代表模型&#xff08;Model)&#xff0c;V代表视图&#xff08;View)&#xff0c;C代表控制器&#xff08;Controller)。在该风格…

Transformers实战(一)快速入门命名实体识别、多项选择

Transformers实战&#xff08;一&#xff09;快速入门命名实体识别、多项选择 1、命名实体识别(NER) 1.1 命名实体识别简介 1.1.1 NER数据标注体系 命名实体识别(Named Entity Recognition&#xff0c;简称NER)是指识别文本中具有特定意义的实体&#xff0c;主要包括人名、…

【管理运筹学】第 10 章 | 排队论(4,系统容量有限制和顾客源有限的情形)

文章目录 引言一、系统的容量有限制&#xff08; M / M / 1 / N / ∞ M/M/1/N/\infty M/M/1/N/∞&#xff09;二、顾客源为有限的情形&#xff08; M / M / 1 / ∞ / m M/M/1/\infty/m M/M/1/∞/m&#xff09;写在最后 引言 了解了标准的 M / M / 1 M/M/1 M/M/1 模型后&#…

[UDS] --- DiagnosticSessionControl 0x10 service

1 会话 $10包含3个子功能&#xff0c;01 Default默认会话&#xff0c;02 Programming编程会话&#xff0c;03 Extended扩展会话&#xff0c;ECU上电时&#xff0c;进入的是默认会话&#xff08;Default&#xff09;。 为什么设计三个会话模式呢&#xff1f;因为权限问题。默认…

华为eNSP配置专题-路由策略的配置

文章目录 华为eNSP配置专题-路由策略的配置0、概要介绍1、前置环境1.1、宿主机1.2、eNSP模拟器 2、基本环境搭建2.1、终端构成和连接2.2、终端的基本配置 3、配置路由策略3.1、目标3.2、配置路由策略 华为eNSP配置专题-路由策略的配置 0、概要介绍 路由策略就是通过一系列工具…

Java SE 学习笔记(十四)—— IO流(2)

目录 1 字节流1.1 字节流写数据1.1.1 创建字节输出流对象1.1.2 字节流写数据 1.2 字节流读数据1.2.1 创建字节输入流对象1.2.2 字节流读数据 1.3 字节流复制文件1.4 流的刷新与关闭1.5 资源释放方式1.5.1 try-catch-finally1.5.2 try-with-resource 2 字符流2.1 字符流概述2.2 …

Spring中Bean的作用域

目录 一、什么是Bean的作用域 二、Scope注解 三、Bean的6种作用域 3.1 singleton单例模式 3.2 prototype 原型模式 3.3 request 3.4 session 3.5 application 3.6 websocket 一、什么是Bean的作用域 在之前学习的过程中&#xff0c;我们把作用域定义为&#xff1a;限定程序中变…

关于数字化转型的know how

关于定义——到底什么是“数字化转型”&#xff1f; 关于价值——数字化转型对企业到底有多重要&#xff1f; 关于框架——企业数字化转型的框架必备要素有哪些&#xff1f; 关于执行——企业数字化转型到底怎么做&#xff1f; 一、什么是数字化转型&#xff1f; 现在各种…

Flink将数据写入MySQL(JDBC)

一、写在前面 在实际的生产环境中&#xff0c;我们经常会把Flink处理的数据写入MySQL、Doris等数据库中&#xff0c;下面以MySQL为例&#xff0c;使用JDBC的方式将Flink的数据实时数据写入MySQL。 二、代码示例 2.1 版本说明 <flink.version>1.14.6</flink.version…

2000-2021年上市公司内部薪酬差距数据(原始数据+计算代码Stata do文档+计算结果)

2000-2021年上市公司内部薪酬差距数据&#xff08;原始数据计算代码Stata do文档计算结果&#xff09; 1、时间&#xff1a;2000-2021年 2、来源&#xff1a;上市公司年报 3、指标&#xff1a; 原始数据指标&#xff1a;code、year、证券代码、应付职工薪酬、员工人数、支付…

美国IP代理如何获取?适用于哪些场景?

美国代理IP可以是静态&#xff08;不会改变&#xff09;或动态&#xff08;周期性更改&#xff09;&#xff0c;并且可以由专业的代理服务提供商提供。不同的代理IP服务提供商可能提供不同类型的代理&#xff0c;包括数据中心代理、住宅代理和移动代理&#xff0c;以满足不同用…

RT-Thread 7. RT-Thread Studio ENV修改MCU型号

1. 修改MCU型号 2.在ENV界面输入 scons -c scons --dist3. dist下为更新后完整源代码 4.导入RT-Thread Studio 发现GD32F330已经生效了。 5. 自己编写startup_gd32f3x0.S&#xff0c;准确性待验证 ;/* ; * Copyright (c) 2006-2021, RT-Thread Development Team ; * ; * SPD…

Vue组件样式设置,解决样式冲突问题

如果我们在不同的组件内&#xff0c;使用相同的类名&#xff0c;就会发生样式的冲突&#xff0c;使用后引入的组件中的样式&#xff1a; 一、scoped属性 在一个组件的style标签上添加scoped属性&#xff0c;该组件的所有样式都是该组件独有的&#xff0c;即使其他组件中有相同…

详解傅立叶变换,看这一文足矣!

从听到傅立叶变换这个名词后到现在已经四年了&#xff0c;这次终于对傅立叶变换有了一个基本的初步了解。记录一下&#xff0c;这个傅立叶变换也同时记录了我本科到研究生的四年&#xff0c;一路以来跌跌撞撞&#xff0c;没想到最后还是入了图像的坑 数字图像处理——傅立叶变换…

freeRTOS内部机制——创建任务的内部细节

创建任务的两个核心&#xff1a;栈和任务结构体 函数运行过程中的局部变量保存在哪里&#xff1f;他自己的栈中 任务被切换过后&#xff0c;在切换的瞬间&#xff0c;哪些寄存器的值保存在哪里&#xff1f;保存在任务结构体中 在任务创建函数中&#xff0c;会malloc动态分配…

【Javascript】函数隐藏参数ar

function test(a,b,c){console.log(abc);}test(1,2,3);这里的形参有三个分别是a&#xff0c;b&#xff0c;c分别对应实参1&#xff0c;2&#xff0c;3 假如在调用函数的时候多传入几个实参会怎么样&#xff1f; function test(a,b,c){console.log(arguments);console.log(a…

吃瓜教程3|决策树

ID3算法 假定当前样本集合D中第k类样本所占比例为pk&#xff0c;则样本集合D的信息熵定义为 信息增益 C4.5算法 ID3算法存在一个问题&#xff0c;就是偏向于取值数目较多的属性&#xff0c;因此C4.5算法使用了“增益率”&#xff08;gain ratio&#xff09;来选择划分属性 CA…

第四章 文件管理 六、文件的基本操作

目录 一、创建文件(create系统调用) 1、进行Create系统调用时&#xff0c;需要提供的几个主要参数: 2、操作系统在处理Create系统调用时&#xff0c;主要做了两件事: 二、删除文件(delete系统调用) 1、进行Delete系统调用时&#xff0c;需要提供的几个主要参数: 2、操作系…

【20年VIO梳理】

19-20年VIO 梳理 1. 开源代码介绍&#xff1a; DSM2. FMD Stereo SLAM&#xff1a;融合MVG和直接方法&#xff0c;实现准确&#xff0c;快速的双目SLAM3. 基于VINS-Mono开发的SPVIS4. 改进&#xff1a;一种基于光流的动态环境移动机器人定位方案5. PVIO:基于先验平面约束的高效…

第四章 文件管理 五、文件存储空间管理

目录 一、逻辑结构和物理结构的比较 二、空闲表法 1、磁盘中的空闲块表 2、例子 3、如何回收空闲区间 ①回收区的前后都没有相邻空闲区; ②回收区的前后都是空闲区; ③回收区前面是空闲区; ④回收区后面是空闲区; 三、空闲链表法 1、分类 2、空闲盘块链 &#xff…