MongoDB 双活集群在运营商的实践

news2024/11/17 15:30:57

在现代电信行业中,订单中心作为核心业务系统之一,承担着处理客户订单、管理订单状态、与各个业务系统进行交互等重要职责。其订单中心的高效运作直接关系到客户体验和业务连续性。为了满足不断增长的业务需求和日益复杂的运营环境,运营商需要自身的订单中心架构具备高可用性及强大的容灾能力。

双活架构作为常见的高可用方案,允许两个数据中心同时提供服务并实现数据的实时同步。当一个数据中心发生故障时,另一个数据中心能够无缝接管其工作,确保业务不中断。这种架构不仅提高了系统的稳定性和可靠性,还能大幅减少灾难恢复的时间和成本。

本文将着重分享某头部运营商订单中心在实现双活架构过程中的最佳实践,提供详细的技术细节和实际案例。通过介绍项目实施过程中的技术细节,提供类似场景需求的方案参考。

运营商订单中心的需求分析

需求背景
随着信息技术的发展以及各行各业数字化转型的加速,近些年来,三大运营商纷纷布局“能力中台”,以提升运营效率和快速响应业务需求。公众中台作为该运营商面向公众客户市场的核心赋能平台,通过横向整合业务、市场、运营和交付等能力,全面提升公众业务运营的效率。其目标是加速资源供给与产品创新,提供卓越的用户线上线下一致体验,实现营销网与交付网的贯通,构建线上线下一体化的客户价值运营体系。架构层面,打破传统的烟囱式,采用“平台+应用”的云化架构模式,实现能力复用、流程拉通和数据共享,全面赋能前端应用。

其中,MongoDB 数据库作为核心组件,广泛应用于该公众中台的多个业务模块,尤其在订单中心所覆盖的订单数据查询、客服订单查询和审单列表查询等场景中发挥了关键作用。为提高系统的高可用性,公众中台需要构建异地双活架构,确保 MongoDB 数据库具备异地双集群部署、双集群双写和数据双向同步能力。

数据双向同步的挑战

在原有设计下,该订单中心的客户数据存在于两个 MongoDB 集群之间,需要实现数据的双向同步。然而,这种双向同步设计面临以下挑战:

  1. 数据循环同步问题:数据的双向同步无法避免数据循环同步的问题,这会导致一条数据变更被无限次放大,最终导致数据的持续不稳定,并耗尽系统资源。
  2. 数据一致性问题:在双向同步过程中,由于更新延迟等原因,可能会导致两个数据中心的数据不一致,进而影响业务的正常运作。
  3. 系统性能问题:在高并发的业务场景下,数据的双向同步可能会增加系统的负载,影响系统的整体性能。

为此,订单中心的双活架构需要具备以下技术特性:

  1. 高可用性:保证两个数据中心在任何一个出现故障时,另一个数据中心能够无缝接管,确保业务不中断。
  2. 实时数据同步:实现数据在两个数据中心之间的实时同步,确保数据的一致性和及时性。
  3. 循环同步避免机制:在双向同步过程中,必须设计有效的机制来避免数据循环同步的问题,确保数据同步的稳定性和可靠性。
  4. 性能优化:在高并发场景下,保证系统性能的稳定,避免由于同步任务导致的系统资源耗尽。

需求描述

有 A, B 两机房,各自部署一套 MongoDB 集群,其中 A1 业务修改 A 机房数据, B1 业务修改 B 机房数据, 由 T1 任务完成 A => B 的数据同步, 由 T2 任务完成 B => A 的数据同步, 并保证:

  1. 由 业务方 修改的数据, 需要能够及时同步到对机房
  2. 由 同步任务 修改的数据, 要避免再次返回应用到本机房
  3. 在 同步任务 断点回放时, 不产生数据问题

直接创建任务不进行任何修改, 会导致如下情况:

  1. A 机房, 对一条记录, 连续产生两条更新, U1, U2, 并同步在 B 机房产生 U1, U2 更新
  2. B 机房产生的更新, 同样会被反向同步到 A 机房
  3. 由于更新延迟, 在 A 机房接收到 U1 的修改时, 自身已经处于 U2 状态, 因此会再次经历 U1 U2 的调整
  4. 以上 1-3 步骤会持续进行, 永不停止

通过上述需求分析,明确了订单中心在实现双活架构过程中面临的主要挑战和技术需求。下一步将详细介绍具体的技术实现方案,包括架构设计、数据同步机制和性能优化方案等内容,以确保系统的高可用性和数据一致性。

集群架构方案

双活整体架构
在这里插入图片描述- 应用按区域

  • A、B 两中心分别对外提供写入入口
  • 应用按区域向不同入口请求写入
  • MongoDB 提供数据库高可用
    • MongoDB 分片集群每个分片节点采用副本集架构,作为数据库高可用解决方案
    • 同时在两中心各部署一套相同架构的 MongoDB 集群,确保每个中心数据库保持持续提供服务状态
  • Tapdata 提供数据同步
    • 确保两数据中心,数据库数据一致性
    • Tapdata 部署在 A 中心
    • 保证 A 中心 <-> Tapdata <-> B 中心数据库访问通畅

双活部署架构
在这里插入图片描述在这里插入图片描述
架构说明

  • MongoDB(蓝色):订单中心MongoDB数据库双活集群
  • Tapdata Management:负责软件各模块调度和网页控制台展现。
  • Tapdata Flow Engine:负责数据同步、清洗、多表关联、聚合计算等。
  • MongoDB(绿色):Tapdata 数据库,中间缓存结果。

工作模式

场景说明:
当 DC A 不可用时,Tapdata 集群也不可用

需要人工干预恢复

  1. 所有业务切到 DC B 写入
  2. 恢复 DC A 服务器
  3. 恢复 DC A MongoDB Cluster
  4. 恢复 DC A tapdata
  5. 重新启动 DC A tapdata 任务

风险

  • 当 DC A 发生不可用时,部分传输数据未写入 DC B Mongo
  • 这部分数据会在 DB B 丢失,但在 DC A 中

所需资源

北京中心
在这里插入图片描述陕西中心
在这里插入图片描述TapData 实施方案

在构建该订单中心双活架构的过程中,TapData 作为核心的数据同步和管理工具,承担了跨数据中心的数据一致性维护任务。为了确保系统的高可用性与数据的一致性,以下将详细介绍该项目中的具体实施方案,包括各个关键步骤的具体操作与技术要点。

  1. 数据源配置

源端数据库

  • 配置充足的 Oplog 存储空间,至少需要容纳 24 * 7 小时的 Oplog。 具体操作,见修改 Oplog 大小。
  • 根据权限管控需求选择下述步骤,创建用于数据同步/开发任务的账号并授予权限。
  • 由于分片服务器不会向 config 数据库获取用户权限,因此,当源库为分片集群架构时,您需要在每个分片的主节点上创建相应的用户并授予权限。
    • 授予指定库的读权限
use admin
db.createUser({
    "user" : "tapdata",
    "pwd"  : "my_password",
    "roles" : [
        {
            "role" : "clusterMonitor",
            "db" : "admin"
        },
        {
            "role" : "read",
            "db" : "order"
        }{
            "role" : "read",
            "db" : "local"
        },
        {
            "role" : "read",
            "db" : "config"
        }
    ]
}
  • 授予所有库的读权限。
use admin
 db.createUser({
    "user" : "tapdata",
    "pwd"  : "my_password",
    "roles" : [
        {
            "role" : "clusterMonitor",
            "db" : "admin"
        },
        {
            "role" : "readAnyDatabase",
            "db" : "admin"
        }
    ]
}
  • 在设置 MongoDB URI 时,推荐将写关注级别设置为大多数,即 w=majority,否则可能因 Primary 节点异常宕机导致的数据丢失文档。
  • 源库为集群架构时,为提升数据同步性能,Tapdata 将会为每个分片创建一个线程并读取数据,在配置数据同步/开发任务前,您还需要执行下述操作。
    • 关闭源库的均衡器(Balancer),避免块迁移对数据一致性的影响。具体操作,见如何停止平衡器。
    • 清除源库中,因块迁移失败而产生的孤立文档,避免 _id 冲突。具体操作,见如何清理孤立文档。

目标端数据库
详情参见文档:MongoDB | Tapdata 文档中心

  • 授予指定库的写权限,并授予 clusterMonitor 角色以供数据验证使用,示例如下:
use admin
> db.createUser({
  "user" : "tapdata",
  "pwd"  : "my_password",
  "roles" : [
      {
          "role" : "clusterMonitor",
          "db" : "admin"
      },
      {
          "role" : "readWrite",
          "db" : "order"
      },
      {
          "role" : "read",
          "db" : "local"
      }
  ]
}
  1. 初始化同步
  • oc_order集合使用mongodump逻辑导出的方式对数据进行初始化。由于磁盘限制,按照CREATE_DATE字段进行分段导出。
  • 由于其余集合较小,可以直接使用Tapdata工具进行初始化同步。

环境准备

1.[陕西]清空已有的测试数据

/home/mongodb/app/mongodb-linux-x86_64-3.4.24/bin/mongo --host 10.173.2.115:20000  
use order
db.dropDatabase()
  1. [陕西]创建集合及其相应的片键索引
use order
// 表order.oc_order创建索引
db.oc_order.createIndex({ "ORDER_ID" : "hashed"})
// 表order.oc_order_dispatch创建索引
db.oc_order_dispatch.createIndex({ "ORDER_ID" : "hashed"})
// 表order.oc_order_low_efficientcy创建索引
db.oc_order_low_efficientcy.createIndex({ "ORDER_ID" : "hashed"})
// 表order.oc_order_pic创建索引
db.oc_order_pic.createIndex({ "PIC_KEY" : "hashed"})
// 表order.oc_order_activate创建索引
db.oc_order_activate.createIndex({ "ORDER_ID" : "hashed"})
  1. [陕西]对集合进行分片
use order
// 实现数据库order分片功能
mongos> sh.enableSharding("order")
// 以"ORDER_ID"作为分片键对集合oc_order进行分片
mongos> sh.shardCollection("order.oc_order",{"ORDER_ID":"hashed"})
// 以"ORDER_ID"作为分片键对集合oc_order_low_efficientcy进行分片
mongos> sh.shardCollection("order.oc_order_low_efficientcy",{"ORDER_ID":"hashed"})
// 以"PIC_KEY"作为分片键对集合oc_order_pic进行分片
mongos> sh.shardCollection("order.oc_order_pic",{"PIC_KEY":"hashed"})
// 以"ORDER_ID"作为分片键对集合oc_order_activate进行分片
mongos> sh.shardCollection("order.oc_order_activate",{"ORDER_ID":"hashed"})
// 以"ORDER_ID"作为分片键对集合oc_order_dispatch进行分片
mongos> sh.shardCollection("order.oc_order_dispatch",{"ORDER_ID":"hashed"})
  1. [北京][陕西]关闭均衡器
/home/mongodb/app/mongodb-linux-x86_64-enterprise-rhel70-3.4.24/bin/mongo --host 10.191.241.218:20000

sh.stopBalancer()
sh.isBalancerRunning()
sh.getBalancerState()
/home/mongodb/app/mongodb-linux-x86_64-3.4.24/bin/mongo --host 10.173.2.115:20000

sh.stopBalancer()
sh.isBalancerRunning()
sh.getBalancerState()
  1. [陕西]检查集群状态
sh.status()
  1. [陕西]回滚操作
use order
db.dropDatabase()

北京中心集群数据导出

  1. 小于20210901–10.173.2.108服务器上操作
nohup /home/mongodb/app/mongodb-linux-x86_64-3.4.24/bin/mongodump --host 10.191.241.128:20000 -u monit -p 'Monit#3' --db order -c oc_order --authenticationDatabase admin -q '{"CREATE_DATE": {"$lt":"2021-09-01"}}' --readPreference='{mode: "secondary", tagSets: [ { "type": "ssd" } ]}' -o /data/oc_order/ > dumpbf0901.log &
  1. 大于等于20210901小于20220201–10.173.2.110服务器上操作
nohup /home/mongodb/app/mongodb-linux-x86_64-3.4.24/bin/mongodump --host 10.191.241.128:20000 -u monit -p 'Monit#3' --db order -c oc_order --authenticationDatabase admin -q '{"CREATE_DATE": {"$gte":"2021-09-01"},"CREATE_DATE": {"$lt":"2022-02-01"}}' --readPreference='{mode: "secondary", tagSets: [ { "type": "ssd" } ]}' -o /data/oc_order/ > dumpbf220201.log &
  1. 大于等于20220201小于20220801–10.173.2.112服务器上操作
nohup /home/mongodb/app/mongodb-linux-x86_64-3.4.24/bin/mongodump --host 10.191.241.128:20000 -u monit -p 'Monit#3' --db order -c oc_order --authenticationDatabase admin -q '{"CREATE_DATE": {"$gte":"2022-02-01"},"CREATE_DATE": {"$lt":"2022-08-01"}}' --readPreference='{mode: "secondary", tagSets: [ { "type": "ssd" } ]}' -o /data/oc_order/ > dumpbf20220801.log &
  1. 大于等于20220801小于20230201–10.173.2.113服务器上操作
nohup /home/mongodb/app/mongodb-linux-x86_64-3.4.24/bin/mongodump --host 10.191.241.128:20000 -u monit -p 'Monit#3' --db order -c oc_order --authenticationDatabase admin -q '{"CREATE_DATE": {"$gte":"2022-08-01"},"CREATE_DATE": {"$lt":"2023-02-01"}}' --readPreference='{mode: "secondary", tagSets: [ { "type": "ssd" } ]}' -o /data/oc_order/ > dumpbf230201.log &
  1. 大于等于20230201–10.173.2.114服务器上操作
nohup /home/mongodb/app/mongodb-linux-x86_64-3.4.24/bin/mongodump --host 10.191.241.128:20000 -u monit -p 'Monit#3' --db order -c oc_order --authenticationDatabase admin -q '{"CREATE_DATE": {"$gte":"2023-02-01"}}' --readPreference='{mode: "secondary", tagSets: [ { "type": "ssd" } ]}' -o /data/oc_order/ > dumpaf230201.log &

陕西中心集群数据导入

  1. 小于20210901–10.173.2.108服务器上操作
nohup /home/mongodb/app/mongodb-linux-x86_64-3.4.24/bin/mongorestore --host 10.173.2.115:20000 --numInsertionWorkersPerCollection=8 -u monit -p 'Monit#3' --db order -c oc_order --authenticationDatabase admin /data/oc_order/order/oc_order.bson > restorebf210901.log 2>&1 &
  1. 大于等于20210901小于20220201–10.173.2.110服务器上操作
nohup /home/mongodb/app/mongodb-linux-x86_64-3.4.24/bin/mongorestore --host 10.173.2.115:20000 --numInsertionWorkersPerCollection=8 -u monit -p 'Monit#3' --db order -c oc_order --authenticationDatabase admin /data/oc_order/order/oc_order.bson > restorebf220201.log 2>&1 &
  1. 大于等于20220201小于20220801–10.173.2.112服务器上操作
nohup /home/mongodb/app/mongodb-linux-x86_64-3.4.24/bin/mongorestore --host 10.173.2.115:20000 --numInsertionWorkersPerCollection=8 -u monit -p 'Monit#3' --db order -c oc_order --authenticationDatabase admin /data/oc_order/order/oc_order.bson > restorebf220801.log 2>&1 &
  1. 大于等于20220801小于20230201–10.173.2.113服务器上操作
nohup /home/mongodb/app/mongodb-linux-x86_64-3.4.24/bin/mongorestore --host 10.173.2.115:20000 --numInsertionWorkersPerCollection=8 -u monit -p 'Monit#3' --db order -c oc_order --authenticationDatabase admin /data/oc_order/order/oc_order.bson > restorebf230201.log 2>&1 &
  1. 大于等于20230201–10.173.2.114服务器上操作
nohup /home/mongodb/app/mongodb-linux-x86_64-3.4.24/bin/mongorestore --host 10.173.2.115:20000 --numInsertionWorkersPerCollection=8 -u monit -p 'Monit#3' --db order -c oc_order --authenticationDatabase admin /data/oc_order/order/oc_order.bson > restoreaf230201.log 2>&1 &
  1. 集群状态检查
sh.status()
db.printSlaveReplicationInfo()
  1. 回滚操作
use order
db.dropDatabase()
  1. 实时同步

初始化同步完成后,可以配置 TapData 进行实时数据同步,以确保两个数据中心之间的数据实时一致。在此阶段,TapData 将实时捕获并同步 A 中心和 B 中心的 MongoDB 数据库中的数据变更,确保两个数据中心之间的数据持续保持一致。

实时同步是确保源数据库和目标数据库之间数据一致性的重要步骤,尤其是在高并发和复杂业务场景下。通过实时同步,订单中心的数据能够在不同的数据中心之间进行及时传输和更新,确保所有业务系统使用的都是最新的数据。TapData 在实时同步中发挥了核心作用,通过创建数据复制任务并设置增量同步点,系统能够实现数据的无缝同步。在执行实时同步时,还需要考虑可能出现的流量过大问题,并制定相应的应对措施,确保系统的稳定性和数据同步的连续性。

接下来将详细介绍如何配置和管理实时同步任务,以及应对流量过大情况的操作步骤。

操作步骤

  1. 创建 TapData 数据复制任务
    在这里插入图片描述2. 任务设置:增量
    在这里插入图片描述3. 设置增量同步时间点为最后一次初始化导出的数据时间点
    在这里插入图片描述4. 保存任务
    在这里插入图片描述5. 启动任务
    在这里插入图片描述流量过大处理
  • 停止同步任务
#登录到服务器查看状态
cd /data/tapdata_v1.51.1 
./tapdata status
#强制停止所有服务
./tapdata stop -f
./tapdata status
  • kill掉Tapdata同步进程
登录到tapdata服务器
ps -ef|grep tapdata
kill -9 $pid
  1. 数据校验

在实时同步运行过程中,定期进行数据校验,确保两个数据中心的数据库始终保持一致。数据校验的目的是检测和修复因网络延迟、系统故障等原因导致的数据不一致问题,是确保数据同步任务成功执行的关键步骤,通过对比源数据库与目标数据库的数据,验证同步的准确性和完整性。

在 TapData 实施方案中,数据校验功能可以帮助用户快速检测并解决可能出现的数据不一致问题。特别是在双活架构中,数据的实时同步任务上,数据校验能够确保两个数据中心的数据保持一致,避免因数据不一致导致的业务中断。以下是具体操作示例:

  • 通过 TapData 的数据校验功能中的条数校验进行快速检查
    在这里插入图片描述- 对一定时间范围内的数据进行抽查以检验一致性
    在这里插入图片描述基于此,该运营商成功实现了订单中心的高可用、高性能双活架构,确保业务的连续性和数据的一致性,为客户提供更加稳定和高效的服务。

双活场景演练

双活架构在确保系统高可用性和数据一致性方面扮演着关键角色,但在实际运行中,可能会遇到各种数据同步和写入的挑战。为了验证和优化双活架构的稳定性,必须进行多种场景演练。这些测试不仅有助于发现潜在的问题,还可以通过配置和功能调整来优化系统的响应和恢复能力。

下面将通过对多种典型场景的分析和演练,帮助团队识别潜在问题,并通过合理的配置和机制优化,确保系统在不同情况下都能保持业务的连续性和数据的一致性。

  1. 业务成功写入数据库,TapData 未正确同步到目标

中心 A:DCA
中心 B:DCB
同步任务 A:JobA,A -> B
同步任务 B:JobB,B -> A
业务 A 向 DCA 写入数据:DataA
业务 B 向 DCB 写入数据:DataB

10:00,启动 JobA,JobB
10:30,有一笔订单 Order1(oid=1,status=create) 向 DCA 写入,且成功写入。
10:31,JobA 由于某种原因未将 Order1 正确同步到 DCB 中。
10:32,业务 B 在 DCB 查询不到 Order1
这里可以通过 tapdata 的“任务自动重试”及“断点续传”来避免因为某种原因未同步到目标数据库的情况。

可能原因

  • 因为网络抖动,导致这笔订单未成功同步到 DCB。
  • 解决方案:自动重试。(默认 1 分钟重试 1 次,一共重试 5 次,可配置)
  • 因为数据库故障、高可用等行为,导致同步任务中断,这笔订单未成功写入 DCB。
  • 解决方案:断点续传。在数据库恢复后,可直接启动,在中断的日志点继续同步。

验证

1 分钟查询 1 次 DCB,最终可以在 DCB 查询到 Order1

  1. 正常双活运行情况下

中心 A:DCA
中心 B:DCB
同步任务 A:JobA,A -> B
同步任务 B:JobB,B -> A
业务 A 向 DCA 写入数据:DataA
业务 B 向 DCB 写入数据:DataB

10:00, 启动 JobA,JobB
10:30, 有一笔订单 Order1(oid=1,status=create) 写入 DCA,通过 JobA 同步到 DCB
10:31,业务 B 可以在 DCB 访问到 Order1
10:32,业务 B 在 DCB 对 Order1 进行数据更新,修改 status=active
10:33,业务 A 在 DCA 可以查询到 Order1(status=active)

总结与延展

在本案例中,我们详细探讨了双活架构在实现高可用性和数据一致性方面的最佳实践。关键要点包括:

  1. 双活架构设计:通过在两个数据中心部署相同的 MongoDB 集群和 Tapdata 同步引擎,实现数据的实时双向同步,确保任一数据中心发生故障时,另一个数据中心能够无缝接管,确保业务不中断。
  2. 数据同步机制:设计有效的循环同步避免机制和数据一致性检查机制,解决数据循环同步和数据一致性问题,确保系统的稳定性和可靠性。
  3. 性能优化措施:在高并发业务场景下,通过优化同步任务、合理配置 MongoDB 和 Tapdata 集群资源,确保系统的整体性能。
  4. 风险控制:通过详细的故障处理方案和数据恢复机制,确保在数据中心故障时能够快速恢复,减少业务中断时间和数据丢失风险。

最佳实践

  1. 数据同步策略设计
    在双向数据同步的设计中,建议采用数据标识机制,确保每条数据的变更都有明确的来源标识,防止数据循环同步问题。同步任务的设计应包括清晰的逻辑判断,确保同步过程中的数据一致性。
  2. 断点回放和容错机制
    同步任务应具备断点回放功能,以确保在任务中断后可以从中断点继续执行,避免数据不一致问题。容错机制的设计对于提高系统的可靠性至关重要,应在设计初期予以充分考虑。
  3. 高并发场景下的性能优化
    在高并发业务场景中,建议采用多线程和批处理技术提高同步效率。系统应具备动态调优能力,能够根据实际业务负载情况进行调整,确保同步任务的高效执行。
  4. 实时监控与预警
    建立全面的实时监控系统,对数据同步过程中的各项性能指标进行监控,及时发现和处理异常情况。预警机制应能够在问题发生前发出警报,提前进行干预,确保系统的稳定运行。
  5. 系统测试和演练
    定期进行系统测试和演练,模拟各种故障场景,验证系统的高可用性和容灾能力。通过不断的测试和演练,及时发现和解决潜在问题,提高系统的可靠性和稳定性。
  6. 文档和知识分享
    在项目实施过程中,及时记录各种问题和解决方案,形成详细的文档。通过知识分享和经验总结,不仅提升团队的整体技术水平,也为后续项目提供宝贵的参考。

该方案的成功实施不仅提升了该订单中心的业务连续性和数据可靠性,还为更多构建高可用性和容灾能力的系统架构的类似需求提供了经验和参考。未来,我们将继续优化和提升双活架构的性能和稳定性,以应对更加复杂和多变的业务需求。

推荐阅读】:

  • 制造业数字化转型创新思路 |《数智新时代制造业数字化创新实践白皮书》上线!
  • TapData 信创数据源 | 国产信创数据库 OceanBase数据同步指南,加速国产化进程,推进自主创新建设
  • TapData 信创数据源 | 国产信创数据库 TiDB数据迁移指南,加速国产化进程,推进自主创新建设
  • TapData 信创数据源 |国产信创数据库达梦(Dameng)数据迁移指南,加速国产化进程,推进自主创新建设
  • ETL vs. ELT:数据集成的最佳实践是什么?

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2168081.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

微调大模型(Finetuning Large Language Models)—Where finetuning fits in(二)

1.什么时候适合用finetune 微调&#xff08;finetuning&#xff09;对人的作用包括行为改变和知识获取。行为改变方面&#xff0c;包括学习更一致地回应、学会专注&#xff08;如适度&#xff09;以及发挥能力&#xff08;如更擅长对话&#xff09;&#xff1b;知识获取方面&am…

三、人物骨骼介绍

一、迁移骨骼包 注意&#xff1a;要迁移所有骨骼压缩包&#xff08;单独可能会有问题&#xff09; 二、认识骨骼 点击骨骼 进入骨骼页面

尚庭公寓-接口定义

5. 接口定义 5.1 后台管理系统接口定义 5.1.1 公寓信息管理 5.1.1.1 属性管理 属性管理页面包含公寓和房间各种可选的属性信息&#xff0c;其中包括房间的可选支付方式、房间的可选租期、房间的配套、公寓的配套等等。其所需接口如下 房间支付方式管理 页面如下 所需接口如…

【Linux】Linux 的 权限

一、 Linux 权限的概念 Linux下有两种用户&#xff1a;超级用户&#xff08;root&#xff09;、普通用户。 超级用户&#xff1a;可以在 linux 系统下做任何事情&#xff0c;不受限制普通用户&#xff1a;在 linux 下做有限的事情。超级用户的命令提示符是“#”&#xff0c;普…

每日一题|2535. 数组元素和与数字和的绝对差|数位运算

简单题。先加后减&#xff0c;可以剪枝。 先加后减就是对于每一个数字之间完成该数字的值-数位和&#xff0c;然后再去下一个数字。 特别的&#xff0c;对于小于10的数字&#xff0c;减自身就是0&#xff0c;没必要计算&#xff0c;可以跳过。 class Solution(object):def d…

C++之美:代码整洁、安全又跑得快的30个要诀(好书推荐)

在编程领域&#xff0c;C 以其高效性和灵活性著称&#xff0c;但同时也因其复杂性和易出错性而闻名。如何写出既整洁、又安全且高效的 C 代码&#xff0c;是每个 C 开发者都需要思考的问题。《C之美&#xff1a;代码整洁、安全又跑得快的30个要诀》这本书为我们提供了宝贵的指导…

git clone代码报错Permission denied (publickey)

git clone gerrit SSH的Clone with commit-msg hook代码连接&#xff0c;报错Permission denied (publickey). 一般在C:\Users\用户名.ssh文件夹下有一个id_rsa.pub文件 把文件里的内容复制 到gerrit网站上User Settings的SSH keys里 在New SSH key里粘贴刚刚复制的内容&…

【递归】6.LPC 44 开幕式火焰

1 题目描述 题目链接&#xff1a;开幕式火焰 2 解答思路 递归分为三步&#xff0c;接下来就按照这三步来思考问题 第一步&#xff1a;挖掘出相同的子问题 &#xff08;关系到具体函数头的设计&#xff09; 第二步&#xff1a;只关心具体子问题做了什么 &#xff08;关系…

那些年我和 ChatGPT 合谋摸鱼的日子

文章目录 那些年我和 ChatGPT 合谋摸鱼的日子1 序个言2 说正事3 这次是真正的正事4 总个结 那些年我和 ChatGPT 合谋摸鱼的日子 1 序个言 看到 CSDN 出这个活动有段时间了&#xff0c;奈何俗务缠身&#xff0c;一直没静下心来想想怎么写。今天碰巧赶上了&#xff0c;就顺便聊聊…

【Linux扩容根分区】LVM分区扩容过程踩坑记录

最近想要给自己使用的Linux操作系统的根分区进行扩容&#xff0c;解决完发现&#xff0c;原来问题如此简单。 特此记录&#xff0c;希望能帮助到有需要的人。 通过df -Th查看系统磁盘分区情况 通过vgdisplay 查看内容 实操过程中&#xff0c;原来红框中&#xff0c;Free PE …

2024年双十一买啥最划算?双十一好物推荐闭眼入!

一年一度的双十一购物狂欢节已悄然临近&#xff0c;这不仅是一场消费者的盛宴&#xff0c;更是各大品牌竞相展示实力、推出优惠的绝佳时机。在这个全民狂欢的日子里&#xff0c;数码产品作为科技与生活的桥梁&#xff0c;相信已经有不少朋友想要大买特买了。无论是追求极致性能…

《python语言程序设计》2018版第8章18题几何circle2D类(下部)

前言、从9.20激动发言到现在一直没有克制住的心情中,回到编程 比如删掉我设计的导入第二个园的x,y,radius的函数我做了之前设计的变化.建立了两个可以将x,y拿出来的函数out计算两个坐标之间的距离利用已知的两个坐标之间的距离来比对第1个园里的半径,看第2个园的坐标是否在第一…

Linux文本内容管理命令_2

find&#xff1a;-查找命令执行文件 which 命令 whereis 命令 type 命令----查看命令类型 alias &#xff08;命令别名&#xff09; cat 查看文件--更新文件时间&#xff0c;再次cat&#xff0c;时间不会改变 touch--会更新所有属性的时间&#xff0c;文件诞生时间不会改变 …

求n的阶乘的相反数(c语言)

1./请编写函数fun&#xff0c;其功能是:计算并输出下列多项式的值: // s11/1!1/2!1/3!1/4!1/5!1/6!1/7!...1/n! //例如&#xff0c;在主函数中从键盘给n输入15&#xff0c;则输出为:s 2.718282。 //注意:要求n的值大于1但不大于100。 2.我们先输入数字n,然后先讲n!的阶乘计算…

NMOS的原理

NMOS&#xff08;N型金属氧化物半导体场效应晶体管&#xff09;是常见的场效应晶体管&#xff08;FET&#xff09;的一种&#xff0c;其主要电极包括D极&#xff08;Drain&#xff09;、S极&#xff08;Source&#xff09;和G极&#xff08;Gate&#xff09;&#xff0c;每个电…

JavaSE——lombok、juint单元测试、断言

一、lombok的使用 默认jvm不解析第三方注解&#xff0c;需要手动开启 链式调用 二、juint单元测试 下载juint包 public class TestDemo {// 在每一个单元测试方法执行之前执行Beforepublic void before() {// 例如可以在before部分创建IO流System.out.println("befor…

【数据结构】栈和队列(Stack Queue)

引言 在对顺序表&#xff0c;链表有了充分的理解之后&#xff0c;现在让我们学习栈和队列&#xff01;&#xff01;&#xff01; 【链表】 &#x1f448;链表 【顺序表】&#x1f448;顺序表 目录 &#x1f4af;栈 1.栈的概念及结构 2.栈的实现 ⭐初始化栈 ⭐入栈 ⭐…

【C++】入门基础知识-1

&#x1f36c;个人主页&#xff1a;Yanni.— &#x1f308;数据结构&#xff1a;Data Structure.​​​​​​ &#x1f382;C语言笔记&#xff1a;C Language Notes &#x1f3c0;OJ题分享&#xff1a; Topic Sharing 目录 前言&#xff1a; C关键字 命名空间 命名空间介…

【论文翻译】AFLGuard: Byzantine-robust Asynchronous Federated Learning

提示&#xff1a;该论文标题为AFLGuard: Byzantine-robust Asynchronous Federated Learning&#xff0c;我将对其进行部分翻译&#xff0c;便于后续阅读。 文章目录 AFLGuard&#xff1a;拜占庭鲁棒的异步联邦学习一、摘要二、引言三、知识前提拜占庭鲁棒联邦学习 四、问题表述…

JVM(HotSpot):程序计数器(Program Counter Register)

文章目录 一、内存结构图二、案例解读三、工作流程四、特点 一、内存结构图 二、案例解读 我们使用javap对字节码进行反编译&#xff0c;来看下程序计数器怎么体现的。 IDEA写一个简单的Java代码 反编译命令 javap -verbose InitTest.class $ javap -verbose InitTest.clas…