国内最大规模上云实践 | 鹅厂如何在云原生2.0时代“挖呀挖”?

news2024/10/7 13:26:26

caccf62afb4c14e69086d616102e20fa.gif

79bf5942501684862e55976cc52530ab.gif

👉腾小云导读

2022 年 10 月,腾讯自研业务产品全面完成云原生上云。自研业务产品云上规模已突破 5000w CPU,借助云原生的技术优势,全面提升了腾讯自研业务产品的运营效率,在此过程中我们也对腾讯云产品进行了打磨和验证。无论是在业务场景、稳定性要求、运维效率等多个方面,大规模容器化过程中都面临不少的技术挑战。本篇将进行分享,希望可以给广大开发爱好者带来灵感。

👉看目录,点收藏

1 项目背景

    1.1 腾讯自研业务产品云原生上云历程简介

    1.2 腾讯有状态服务的共性

2 腾讯大规模业务容器化面临的几个挑战

    2.1 容器快速升级

    2.2 容器原地热升级

    2.3 面向业务产品的全局快速扩缩容

    2.4 对应用屏蔽多样的底层机型,提升资源池利用率

    2.5 从面向集群到面向应用的调度编排

3 总结

腾讯自研业务产品历经三年,包括 QQ、微信、王者荣耀、腾讯会议等亿级用户规模的业务产品,都已全面上云。自研业务产品云上的资源规模已突破 5000 万核,打造了国内最大规模的云原生实践典范。各位读者在后台回复「云原生」可下载鹅厂7w字大规模云原生技术实践案例集、腾讯云技术实践精选文集。

在这个过程中,腾讯做了大量的技术优化和突破,包括优化 K8s 集群、全局的资源管理调度,实现了 65%的 CPU 利用率、提升容器应用链路上各层的稳定性等等。

3 年时间,腾讯最终达成了全面云原生上云的目标。在容器应用管理上,有几个事情非常关键:

  • 最早期需要云原生理念的布道。让所有业务产品”认识“到云原生上云所带来的业务价值。几年前,腾讯内部的 K8s Oteam 联合腾讯学堂推出了第一个面向全公司的 K8s 系列课程。

  • 提供易用性和稳定性的容器管理平台。这解决不同的业务场景容器化上云的痛点并沉淀了产品的能力,让所有腾讯业务产品都真实感受到云原生上云的价值。

  • 资源调度编排能力。底层海量的资源规模,需要打造极好的资源调度编排能力,提升全局的资源利用率,从集团层面达成上云后的降本增效目的。

  • 度量机制。「各个业务产品云原生上云做的怎么样」需要有一套度量机制。例如腾讯的云原生成熟度模型,有效帮助各个业务提升了业务产品的云原生成熟度。

下面将主要介绍开发过程中我们遇到的部分技术挑战和解决方案,各位将能看到我们在此过程中是如何一步步去夯实产品能力的。


01

项目背景

   1.1 腾讯自研业务产品云原生上云历程简介

腾讯自研业务产品容器化上云始终以腾讯云产品为底座,整个过程分为两个阶段,云原生上云 1.0 和 2.0 阶段。2022 年前主要是 1.0 阶段,技术中心在「离线混部、在线混部」场景中,业务产品的容器化形态主要经历了富容器和微容器 2 个形态。

71dccb96a8567470491d9e1da2a6e760.png

经过大规模自研业务产品的容器化,团队沉淀了各种业务场景下容器化上云的最佳实践方案和产品所需的能力,例如容器调度(单集群和多集群)、弹性伸缩、有状态服务容器化、大规模资源管理、稳定性提升、业务运维效率提升等。

b41d5705da4b09b273aeddf0ccd504db.png

上云阶段不仅仅是把业务产品容器化上云,更重要的是要给业务产品带来实际的价值。这里有腾讯云原生的成熟度规则,来考核腾讯自研业务产品和其对应的容器平台。主要从四个维度考核:

最大的权重维度是资源利用率,指业务产品容器利用率、平台资源利用率。还有弹性伸缩能力、容器可调度能力以及申请的 Pod 资源是不是小核心的资源。通过这些核心指标来规范和评估业务产品云原生上云的过程和效果。

   1.2 腾讯有状态服务的共性

  • 使用 IPC 共享内存时,可能有超 GB 的有状态本地数据,升级时不能丢失,而且只允许 ms 级的用户无感知抖动。

  • 部分模块的开发框架需要支持热升级:在容器升级时支持热升级。

  • 海内外多地域部署,单个模块最多的实例数超过 1 万,整个产品的 Workload 十万级,分布在上百个集群中。

  • 底层使用的资源有各代的老旧机型,也有相对较新的机型,但业务产品基本上不筛选机型。

这些业务产品特性使其在 TKE 管理上面临巨大挑战,既要尽量兼容这些业务产品特性,也要保持其使用镜像发布和升级的云原生准则。TKEx 应用管理平台抽象出了这些特性背后的需求,研发了多集群统一灰度发布、多地域多集群工作负载管理、面向应用的多集群协同扩缩容、容器快速升级、容器热升级等通用的平台能力。


02

腾讯大规模业务容器化面临的几个挑战

   2.1 容器快速升级

针对「使用 IPC 共享内存,可能有超 GB 的有状态本地数据,升级时不能丢失,而且只允许 ms 级的用户无感知抖动」 这个业务产品特性,TKEx 应用管理平台开发团队设计研发了使容器快速升级的产品能力,提供像进程重启一样的 ms 级业务抖动体验,这也是腾讯会议容器化上云很有挑战性的点。

容器原地升级,也是一种针对有状态服务进行升级的有效手段。实现在 Pod 不重建的情况下,Pod 内某个 Container 进行重建,保持了 IPC 共享内存,本地有状态数据不丢失。但是原地升级过程中,虽然容器网络和存储不再需要重新分配和挂载,但是仍然需要 ReCreate Container,就会存在 Image Pull 和 Container 销毁和启动的过程。

因此原地升级的整个流程耗费时间一定是秒级的,这会造成服务的秒级不可用。结合 ReadinessGateway 能做到按需添加/剔除路由,实现过程中请求无损。但是用户的有状态数据是在本地的,请求表面无损,而实际上用户对应的长链接服务已经无法正常提供服务了。这会导致会议秒级中断,是不可行的。

Pod 里有 3 个关键容器,它们的职责分别如下:

容器

职责

biz-sidecar: Sidercar

容器职责很简单,提供“ Pod 是否在升级中”的状态维护。通过 Readiness Probe 比较 EmptyDir Volume 中的业务发布版本文件 version1 和 version2 的内容是否相等,相等则 Ready,否则 notReady。

 biz-container

容器启动脚本会将环境变量(预注入)里的一个版本号写到 versionX 文件中,然后开始循环等待文件锁,如果成功获取文件锁则启动业务进程。文件锁是防止 Pod 内同时运行多个版本,是业务 Container 的关键,用文件锁来做不同版本容器的互斥,可以实现业务新旧主进程的 ms 级切换。

biz-pause

这是一个占位容器,容器的启动脚本会将环境变量里的一个版本号写到 versionX 文件里,然后就进入无限 sleep 状态。当业务需要升级时,它就会通过原地升级的方式切换到 biz-container 的角色。

17d74c5a8d5ac2ee13fafb2cfa999f2f.png

接下来,此处我们以业务从版本 V1 升级到版本 V2 为例,阐述升级流程。

  • 用户第一次部署业务,如上最左边的 Pod, 一共有 3 个容器。biz-sidecar,biz-container(配置环境变量版本号为 1)以及 biz-pause(配置环境变量版本号为 1)。所有容器启动后会分别将 version1, version2 文件的内容更新为 1,biz-sidecar 此时为 Ready。

  • 更新 Pod 前的 biz-pause 容器为业务 V2 版本的镜像,同时环境变量版本号为 2,等该容器原地升级后把 version2 文件的内容更新为 2, 之后开始等待文件锁。此时 biz-sidecar 探针转为 notReady 状态。

  • StatefulSet-Operator Watch 待 biz-sidecar 为 notReady 后,再将之前的v1 版本的业务镜像替换成 biz-pause 镜像,同时环境变量版本号为 2。等 pause 镜像容器原地重启后,会将之前 v1 业务镜像所占文件锁释放,同时version1 内容更新为 2。此时 sidecar 探针为 Ready, 整个升级结束。

值得注意的是,原生 K8s apiserver 允许修改 Pod 的 image 等,不支持修改 resource 以及环境变量等,所以该方案需要修改 K8s apiserver 的相关代码。另外为了保证 Pod request 资源以及其 Pod qos 不变,StatefulSetPlus-Operator 在升级时需要对各阶段容器进行 Resource 调整。

最后,基于这个技术原理,我们封装成 TKEx 应用管理平台所需能力的产品,提供简单好用的操作体验。用户按规则编译好镜像后,只需升级时勾选「快速升级」,即可完成整个过程。

通过占位容器、状态机 Sidecar 容器、原地升级、共享 volume、文件锁机制,实现容器升级时业务进程的快速切换。

保持镜像发布的云原生体验,实现方式完全是 K8s 原生,拒绝把容器当虚拟机使用。

   2.2 容器原地热升级

部分模块发布需要保持共享内存数据不变,并且业务自身要有热重启能力,容器化如何提供业务热升级的能力?是云直播等业务模块能否顺利容器化的关键。针对 「部分模块的开发框架支持热升级,需要在容器升级时支持原地热升级」这一业务诉求,TKEx 应用管理平台基于 Kubernetes 原地升级、共享 volume、Probe 和占位容器的关键技术,完成并实现了原生的业务容器原地热升级的技术方案和平台能力。

1ed2e1fdb4a5108ef4808ceb572869b5.png

方案说明:

  • 将业务镜像按职责一拆为二,一个负责业务 bin 文件更新,一个负责业务运行环境。

  • 通过占位容器、原地升级、共享 Volume、探针机制的基础功能,实现容器热升级。

其中,占位容器负责将业务新版本镜像中的新版本业务 bin 复制到共享 volume。业务容器 watch 共享 volume 中相关内容的变化,并可以进行进程 reload 热升级。

而业务容器的探针 Readiness 要负责感知原地热升级的状态,从而支持原地热升级的时候仍然能进行容器流量管理。但实际上,因为原地热升级通常是 ms 级的,通常没有必要去在这 ms 级时间范围内做路由的剔除和添加。

此过程中,需始终保持以镜像发布的云原生体验,实现方式完全 k8s 原生,拒绝把容器当作虚拟机用的方式去做业务进程升级。遗憾的是目前还没有将这些技术原理封装成平台能力,所以业务要做原地热升级的知识门槛仍然较高。

   2.3 面向业务产品的全局快速扩缩容

因接入需求和容灾、多活的需求,有些头部业务产品海内外多地域部署单个模块最多的实例数超过 1 万。整个产品的 Workload 万级,分布在上百个集群,和其类似的自研业务产品其实不少。这种业务产品有一个特点,通常对一段时间的「PCU(同时最大在线人数)」的预估来提前进行扩缩容的决策。

例如当前业务产品的 PCU 是 2kw, 需要扩容到 3kw,核心链路上的大部分模块都需要在当前规模的基础上扩容 50%。在如此复杂的业务分布拓扑中,要提前进行大规模扩缩容会面临很多困难:

  • 因为 Workload 数量万级,如果直接对面向 Kubernetes 集群的 Workload 进行操作,需要投入非常多的运维人力共同参与。

  • 因为扩容规模较大,会出现某些集群的资源不足的问题,包括集群内的计算资源、存储资源、网络资源等。过程中若频繁遇到这类问题,会导致扩容效率极低,沟通成本极高。

  • 在扩缩容失败中遇到的各种问题,很容易被遗漏,缺少自动化收集和聚合整个扩缩容动作出现的所有关键事件和日志的能力。

为此,平台进行了基于业务自建拓扑的全局快速扩缩容产品能力建设,通过任务的形式管理全局扩缩容,核心能力如下:

第一,用户选择一批跨业务、跨集群的 Workload,组成一个全局的业务拓扑 Set,作为业务产品维度的扩缩容任务设计的对象,设置全局扩缩容参数,完成扩缩容下发动作。当前支持「基于步长」和「基于等比例」两种扩缩容策略,支持配置 HPA 的 Workload 和未配置 HPA 的 Workload 的提前全局扩缩容。这里有 2 种情况:

  • 对于配置了 HPA 的 Workload 的全局扩缩容,主要根据步长或比例调整 HPA 对象的 minReplicas 和 maxReplicas;

  • 对于未配置 HPA 的 Workload 的全局扩缩容,主要根据步长或比例调整 Workload Spec 的 Replicas。

第二, 在配置好全局扩容后,资源概览页支持按照「计算资源」、「IP 资源」、「配额」三个维度展示资源需求、资源库存和详细资源缺口等数据,方便按需补充对应资源。

第三,基于业务大盘视图展示的整个扩缩容任务的所有 Workload 和 Pod 实时状态信息,可以快速找出异常 Pod(状态异常、实时利用率异常),快速掌握整体业务服务扩缩容状态。

第四,提供业务产品的全局 Workload 扩缩容状态视图。支持按照业务、集群、地域等维度聚合查看整个扩缩容任务中所有 Workload 的扩缩容进展,并有完整的 Workload 列表页展示各 Workload 运行中副本数量、目标副本数量、库存副本数和异常信息。

853486de2ed492b36247f4d45c650545.png

方案说明:在 TKEx 应用管理平台中,基于 Clusternet 构建的多集群管理方案,业务产品全局快速扩缩容的核心组件 Global Scaler Operator部署在 Clusternet Hub Cluster 中,用户在平台前端构建生成 ScalerJob CR 后,会自动生成ScalerTemplate。

Global Scaler Operator 核心管理着 2 个 CRD,分别是前面提到的扩缩容任务 ScalerJob 和扩缩容模板 ScalerTemplate 。

CRD

解析

ScalerJob

定义全局扩缩容配置,并关联扩缩容模板 ScalerTemplate,为整个全局扩缩容提供按指定策略触发运行、回滚、终止等核心能力的定义和状态管理。

54c3f36d2d40bf2457851e9558904b06.png

ScalerTemplate


义要扩缩容的 Workloads 对象及其 Scale 参数,也提供全局扩缩容回滚模板的能力。

a80efd3a44fb218c68a06de491e5ae77.png

全局快速扩缩容策略:前面提了 2 个业务产品全局扩缩容策略,这里举个例子做简单说明。假如业务产品X有 3 个 Workload,分布在广州、上海、北京,副本数分别是10, 20, 30,当前支持的 PCU 是 10w,需要新增扩容支持 5w PCU。

策略

解析

基于步长策略

当业务产品X每增加 1w PCU 时,Workload A 要增加 2 个副本,Workload B 要增加 4 个副本,Workload C 要增加 5 个副本,这就是每个 Workload 单独的步长。业务产品X扩容 5w PCU,基于 1W PCU 的步长,扩容系数就是 5 倍,就意味着 Workload A 要新增 2*5=10 个副本,以此类推。

7352646f4048e1d7bdddb22564a81e91.png

基于等比例扩容策略

当前业务产品 X 的 PCU 是 10w,需要新增 5w PCU, 核心链路的模块都要等比例扩容 50%, 则所有 Workload 的副本数在当前基础上都要扩容 50%,扩容系数就是 1.5。

        67338baf12c5639a174bcea0a8087318.png

  2.5 对应用屏蔽多样的底层机型,提升资源池利用率

底层使用的资源有各代的老旧机型,也有新代机型。如何让业务能无差异的使用这些资源,是提升整个资源池利用率必须要解决的问题。例如 Application X 的实例分布在北上广 3 个地域,调度在多个集群中使用了腾讯云 S3、S4、S5、S6 多种机型资源。如果不做各个实例的路由权重上的差异化处理,那么必定会出现每个实例的负载不一致。这就容易出现老旧代机型高负载,新代机型低负载的情况。并且平均负载并不高,不能触发原生 HPA,从而导致业务服务质量出现下降。

25e8591af5a2cf88b9a535125fc3bd12.png

如果使用的服务路由系统具备「根据实例负载或者自定义指标动态调整服务权重」的能力,这一问题将得到大幅缓解。

为了解决这个问题,目前有 2 个解决方案,分别应用在不同的业务场景中:

【方案1】

引入机型族的概念。基于计算、存储、网络等方面的关键性能指标,构建综合性模型,将性能接近的机型放入同一个机型族(普通性能机型族、高性能机型族、指定机型),从而大幅收敛原本暴露给用户的底层机型。调度上保证同一个 Workload 都使用一个机型族,最终使得各个业务实例在请求量一致的情况下负载基本均衡。这样业务的平均负载就与各个实例的负载方差很小,HPA 也能正常工作,以保证业务的服务质量。

这种方案主要适用于批量计算型业务,也适用于业务对机型性能有一定要求的业务,或者必须指定某个具体机型的通用计算场景,但是可能会面临一些资源调度上的风险,例如业务指定机型或机型族的资源不足等问题。这个方案本质上是在缓解这类对资源有性能要求的业务问题。机型族应用越多,该方案对提升底层各种好差料的效果就越好。

e39bbb04121b8c69ff050b5d41e66ce4.png

【方案2】

将底层算力标准化、产品化。平台将底层的所有机型算力都按照预设的模型折算到标准算力,平台从底层资源池中按需调度算力组合成业务需要的标准算力需求。应用在部署和扩缩容时需要的资源,都以标准算力为单位,不用再关注任何机型信息。

例如,应用X需要在广州任意 2 个可用区等比例算力部署,共需要 32c*200g* (c* 表示标准 cpu 单位,g* 表示标准内存单位)。假设底层资源池中一共有 3 种机型,机型 A 的算力为标准算力的 50%,机型 B 的算力为标准算力的200%,机型 C 的算力正好是标准算力,则应用X可能的部署拓扑如下。

0bd885cecc8482353dd2325493b93dc2.png

这里还有一个重要的工作,就是需要根据各种底层组合的机型的算力,动态调整对应的服务路由权重。因此 TKEx 应用管理平台联合北极星 Polaris,将各个机型的算力动态折算成路由权重动,实现了基于机型算力的业务全局动态路由权重能力,最终使得同一个 Workload 下不同机型的负载基本保持平衡。

a66ea417b1286c69416eca5103d7fe4e.png

  2.6  从面向集群到面向应用的调度编排

前几年大家更多关注的是怎样给用户提供直接面向 K8s 集群的业务管理能力。在小规模业务场景下,这种方式没有痛点。但随着业务规模的增加,这里的业务管理痛点就逐渐暴露。用户要感知底层大量的可用区和集群,对应大量的 Workload、ConfigMap、Service、Ingress 对象的管理。因此这里要转换思路,由面向集群到面向应用的调度编排,这意味着用户不用再关注集群,不用关注底层资源,不用关注每个集群中的 K8s 对象管理,只需关注应用本身。

举个例子,某个业务产品在全网有上万个 Workloads 和 Pods ,分布在全球十几个地域、近百个集群。要对这个业务某个模块做一次全网升级变更,按照以前面向集群的方式实现效率较低,当然借助上层 的 DevOps 流水线可以提升一些效率。所以要抽象出面向应用的管理能力,简化业务产品在部署、扩缩容、升级变更、配置管理、流量管理、业务看板等方面的操作体验和效率。

2a45607416501b3e3acbb7291f588d0e.png

要实现这一目标,核心的底层能力建设就在多集群编排调度上,可以基于Clusternet 的多集群管理能力来实现。例如,应用想部署同城多活的场景,TKEx 应用管理平台直接提供这种部署策略,不用去指定 Region 去找合适的集群单独部署,直接指定 Region 后,Clusternet 动态拆分调度器 i ,自动根据集群容量、位置拓扑等信息来做调度决策,选择合适的集群并做好最佳的副本分布决策。

5badb6db006ac62847092491b205c8e5.png

再例如,配置应用弹性伸缩时,不需要再面向集群配置 HPA。会有一个全局的多集群 HPA Coordinator Controller 做多集群 HPA 协同,可以根据集群容量、集群的可用性做 HPA 参数的动态调整和协同,保证业务扩容时不会因为某个集群的资源不足无法扩容,会自动在其他可用集群中扩容。

a0086d91fee8076dd608b30c93bec7c6.png

还有很多重要业务场景,需要在多集群编排中解决。例如面向应用灰度升级时,应用对应的 Workloads 分布在底层多个集群中,如何做好多集群的应用灰度发布?ConfigMap 的多集群灰度发布也是一样的道理。另外,给用户提供的大盘视图、监控告警能力等等都不再是面向集群维度的,而是面向应用的多集群聚合维度的。

03

 总结

腾讯拥有国内最大规模的云原生实践案例,过程中大量的技术和产品能力服务了大量业务场景,包括音视频、游戏、电子商务、社交、办公协同、出行等。我们正在将这里积累的各种业务场景的最佳实践经验,例如应用的标准化检测、业务的 QoS 定义、应用多集群灰度发布、应用多集群自愈等等,都输出到云原生应用管理平台这个公有云产品中。

cb345df59c4e28e423008dcc16cb18d3.png

用同样的应用管理平台同时服务好腾讯内部和外部客户,与开发者们一起迈入云原生 2.0 时代。以上是本次分享全部内容,欢迎大家在评论区分享交流。如果觉得内容有用,欢迎分享转发~

-End-

原创作者|王涛

技术责编|王涛

883bd8552e3452f0ed9961ed9ef84a9b.png

你怎么看待云原生?云原生未来的发展趋势是什么?欢迎在评论区讨论。我们将选取1则最有创意的分享,送出腾讯云开发者-文化衫1个(见下图)。5月17日中午12点开奖。

8f6160db445808778496be424b3186d1.png


8f09ca830d5db30ec70f3bcae0da063d.png

b74e4cbd587e18f7aab629fdfba4fc81.png

9080b91b12f2ca16ccff85c9107e6e78.png

7e169a58a7803c841543f718f01e1048.png

后台回复「云原生」查看鹅厂离线学习包:

7w字腾讯大规模云原生技术实践案例集

腾讯云技术实践精选集

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/512570.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

适合Python 初学者入门教程和资源

如果您是 Python 的初学者,以下是一些入门教程和资源可以帮助您快速开始: 1、Python 官方教程: Python 官方网站提供了完整的入门教程,包括语言基础、面向对象编程、模块、文件处理等方面的内容。这是一个非常全面和权威的资源。 2、Codecade…

盖雅工场重磅发布「劳动力账户」,助力企业实现全面工时成本管理

2023年5月10日,亚太地区领先的劳动力管理云服务商盖雅工场宣布,在原有的智能排班和实时考勤系统基础之上,正式推出全新模块「劳动力账户」,通过为企业里的每一位员工建立劳动力账户,实现工时与成本的全面管控&#xff…

一文打通原生Shiro使用

目录 环境准备 添加依赖 INI 文件 登录认证 登录认证概念 登录认证基本流程 登录认证实例 身份认证流程 角色、授权 授权概念 授权方式 授权流程 授权实例 Shiro 加密 Shiro 自定义登录认证 环境准备 Shiro不依赖容器,直接创建maven工程即可 添加依…

机器学习——线性回归

机器学习——线性回归 文章目录 机器学习——线性回归[toc]1 模型设定2 训练模型3 模型预测4 交叉验证 基于Python实现线性回归、预测和建模评估。 1 模型设定 以Boston数据集为例,其中MEDV是标签,其余均为特征变量 CRIM per capita crime rate by tow…

玩转ChatGPT:Excel操作初探

一、写在前面 首先还是让小Chat推销下自己: Excel 表格制作是个技术活,你掌握了吗?没关系,现在有了 ChatGPT,让 Excel 辅助操作变得更简单!再也不用苦恼于数据分析和整理了,让 ChatGPT 成为你…

C语言:简单的扫雷游戏

扫雷游戏想必大家都玩过,像一些大佬呀,十几秒能通关,给大佬点赞,那咱们也设计一个扫雷游戏,具体怎么实现呢,跟上我的脚步,看看用C语言怎么实现简单的扫雷游戏。 一:扫雷游戏的框架 二…

【Linux】冯诺依曼体系结构以及操作系统的初步认知

🏖️作者:malloc不出对象 ⛺专栏:Linux的学习之路 👦个人简介:一名双非本科院校大二在读的科班编程菜鸟,努力编程只为赶上各位大佬的步伐🙈🙈 目录 前言一、冯诺依曼体系结构二、操…

HTB靶机010-SolidState-WP

#oscp SolidState.md 靶机IP 10.10.10.51 scan Nmap : ┌──(xavier㉿kali)-[~] └─$ sudo nmap -sSV -T4 -F 10.10.10.51 Starting Nmap 7.93 ( https://nmap.org ) at 2023-04-10 13:14 CST Nmap scan report for 10.10.10.51 Host is up (0.77s latency). Not shown: …

如果你还不知道SAGA,那这篇不容错过!|分布式事务系列(五)

这是分布式事务系列的第五篇,如果之前文章没读请自行前往。精华专题,强烈建议收藏。 ‍本文详细讲解了分布式事务解决方案——SAGA。 点击上方“后端开发技术”,选择“设为星标” ,优质资源及时送达 SAGA事务 什么是SAGA事务 SAGA…

使用maven引入第三方jar包以及打包

我们知道,Maven 是通过仓库对依赖进行管理的,当 Maven 项目需要某个依赖时,只要其 POM 中声明了依赖的坐标信息,Maven 就会自动从仓库中去下载该构件使用。但在实际的开发过程中,经常会遇到一种情况:对接第…

《基于智能手机PPG信号处理和机器学习的非侵入式血糖监测系统》阅读笔记

目录 一、论文摘要 二、论文十问 Q1:论文试图解决什么问题? Q2:这是否是一个新的问题? Q3:这篇文章要验证一个什么科学假设? Q4:有哪些相关研究?如何归类?谁是这一课…

单片机GD32F303RCT6 (Macos环境)开发 (十五)—— i2c1采用DMA方式的读写函数

i2c1采用DMA方式的读写函数 1、关于i2c1的DMA的映射如图 2、关于代码的宏定义配置 Application目录的Makefile中 ENABLE_I2C_TEST yes才会编译I2C1的相关代码。 同时修改i2c.h文件,定义I2C1_MODE为I2C1_MODE_DMA,这样i2c1的配置为dma模式。 #define …

Microelectronic学习章节总结(3)-- gate level to physical level design

文章目录 数字逻辑设计的主要流程logic familyCMOSTransistor实现的时序逻辑 PSUDO-NMOSDCVSL(Differential Cascode Voltage Swing Logic)DOMINOC2MOS(Clocked CMOS)TSPC(True Single Phase Clocking) Transistor behaviorCMOS i…

【C生万物】 指针篇 (进级) 00

欢迎来到 Claffic 的博客 💞💞💞 👉 专栏:《C生万物 | 先来学C》👈 前言: 前面已经带大家学习了初级的指针,先回顾一下重点:指针是用来存…

数据库sql语句(视图的创建)

例题: 建表:要注意各表之间的索引联系,建表先后顺序很重要,不然建不了,例如先建dept,在建其他表,先在dept插入数据,再在其他表插入数据 (1) create table …

SW simulation解算器选取

接下来重点介绍以下4种解算器,并对解算器进行实际的计算测试。1)Direct sparse解算器:稀疏矩阵解算器,目前使用最为广泛也是发展最为成熟的解算器,几乎所有的有限元分析软件都有该解算器。它可以用于大多数计算模型,堪…

<IBM> 《HA网卡确认方法》

《HA网卡确认方法》 1 HA IP地址类型2HA IP地址设置原则3 HA网卡日常查看方法3.1 查看hosts文件3.2 查看网卡和IP 4 通过命令方式直接查看5 直接查看HA配置4 HA网卡SMIT查看方法(暂不完整)4.1 根据hosts文件确认IP对应的别名4.2 根据serviceIP确认Persis…

Django SQL注入漏洞分析(CVE-2022-28346)

漏洞简介 Django 在2022年发布的安全更新&#xff0c;修复了在 QuerySet 的 annotate()&#xff0c; aggregate()&#xff0c; extra() 等函数中存在的 SQL 注入漏洞。 影响版本 2.2< Django Django <2.2.28 3.2< Django Django ❤️.2.13 4.0< Django Django &…

白盒测试的静态和动态

白盒测试的静态和动态 静态白盒测试 检查设计和代码 静态测试是指测试非运行部分——检查和审查。白盒测试是指访问代码&#xff0c;能够查看和审查。静态白盒测试实在不执行的条件下有条理地仔细审查软件设计、体系结构和代码&#xff0c;从而找出软件缺陷的过程。有时也称为结…

SpringBoot中@ControllerAdvice/@RestControlAdvice+@ExceptionHandler实现全局异常捕获与处理

场景 在编写Controller接口时&#xff0c;为避免接口因为未知的异常导致返回不友好的结果和提示。 如果不进行全局异常捕获则需要对每个接口进行try-catch或其他操作。 可以对Controller进行全局的异常捕获和处理&#xff0c;一旦发生异常&#xff0c;则返回通用的500响应码与…