013、MongoDB常用操作命令与高级特性深度解析

news2024/11/18 18:58:06

目录

MongoDB常用操作命令与高级特性深度解析

1. 数据库操作的深入探讨

1.1 数据库管理

1.1.1 数据库统计信息

1.1.2 数据库修复

1.1.3 数据库用户管理

1.2 数据库事务

2. 集合操作的高级特性

2.1 固定集合(Capped Collections)

2.2 集合验证(Schema Validation)

2.3 Time-To-Live (TTL) 索引

3. 文档操作的高级技巧

3.1 复杂查询

3.1.1 正则表达式查询

3.1.2 数组查询

3.1.3 嵌套文档查询

3.2 高级更新操作

3.2.1 数组操作

3.2.2 条件更新

3.3 批量写操作

4. 索引策略与优化

4.1 复合索引

4.2 文本索引

4.3 地理空间索引

4.4 索引优化技巧

5. 高级聚合操作

5.1 复杂的聚合管道

5.2 使用 $lookup 进行关联查询

5.3 使用 $graphLookup 进行图形查询

5.4 使用 $bucket 进行数据分桶

6. MongoDB的高级特性和最佳实践

6.1 变更流(Change Streams)

6.2 数据加密

6.3 分片策略

6.4 性能优化

6.5 数据模型设计最佳实践

7. 实际应用案例深度剖析:基因组数据库系统

7.1 系统架构

7.2 数据模型优化

7.3 索引策略

7.4 分片策略

7.5 查询优化

7.6 数据导入优化

7.7 性能测试结果


MongoDB常用操作命令与高级特性深度解析

1. 数据库操作的深入探讨

1.1 数据库管理

1.1.1 数据库统计信息
db.stats()

这个命令会返回当前数据库的详细统计信息,包括数据大小、索引大小、集合数量等。输出示例:

{
  "db" : "mydb",
  "collections" : 5,
  "views" : 0,
  "objects" : 1000,
  "avgObjSize" : 255.0,
  "dataSize" : 255000,
  "storageSize" : 290816,
  "numExtents" : 0,
  "indexes" : 7,
  "indexSize" : 151552,
  "fsUsedSize" : 4383506432,
  "fsTotalSize" : 62725623808,
  "ok" : 1
}

这些信息对于监控数据库性能和容量规划非常有用。

1.1.2 数据库修复
db.repairDatabase()

这个命令用于修复损坏的数据库。它会重建所有的集合和索引,但可能会很耗时。在执行此操作之前,建议先进行备份。

1.1.3 数据库用户管理
// 创建用户
db.createUser({
  user: "myuser",
  pwd: "mypassword",
  roles: [ { role: "readWrite", db: "mydb" } ]
})
​
// 删除用户
db.dropUser("myuser")
​
// 修改用户密码
db.changeUserPassword("myuser", "newpassword")
​
// 授予角色
db.grantRolesToUser("myuser", [ { role: "dbAdmin", db: "mydb" } ])
​
// 撤销角色
db.revokeRolesFromUser("myuser", [ { role: "dbAdmin", db: "mydb" } ])

这些命令用于管理数据库用户,对于实现细粒度的访问控制非常重要。MongoDB支持基于角色的访问控制(RBAC),可以精确控制用户对数据库的访问权限。

1.2 数据库事务

从MongoDB 4.0开始,支持多文档事务。以下是一个事务示例:

const session = db.getMongo().startSession();
session.startTransaction();
​
try {
  const accounts = session.getDatabase("mydb").getCollection("accounts");
  accounts.updateOne({ owner: "Alice" }, { $inc: { balance: -100 } });
  accounts.updateOne({ owner: "Bob" }, { $inc: { balance: 100 } });
  
  session.commitTransaction();
  console.log("Transaction successfully committed.");
} catch (error) {
  session.abortTransaction();
  console.log("Transaction aborted due to error: " + error);
} finally {
  session.endSession();
}

这个例子展示了如何在一个事务中执行多个操作,确保数据的一致性。事务特别适用于需要原子性的复杂操作,如资金转账。

注意事项:

  • 事务在副本集和分片集群中都可用,但在分片环境中可能会影响性能。

  • 事务有时间限制,默认为60秒。

  • 事务中的操作应尽量精简,以减少锁定时间。

2. 集合操作的高级特性

2.1 固定集合(Capped Collections)

固定集合是一种特殊类型的集合,它有固定的大小,当达到最大值时,新的文档会覆盖最旧的文档。

db.createCollection("logs", {
  capped: true,
  size: 5242880,
  max: 5000
})

这个命令创建了一个最大大小为5MB,最多包含5000个文档的固定集合。固定集合特别适合存储日志等需要按插入顺序保存并且可以被覆盖的数据。

固定集合的特点:

  • 插入顺序就是自然顺序,非常适合某些类型的日志。

  • 支持高吞吐量的插入操作。

  • 不支持删除操作,但可以调用drop()方法删除整个集合。

  • 不支持分片。

2.2 集合验证(Schema Validation)

MongoDB允许为集合定义验证规则:

db.createCollection("users", {
  validator: {
    $jsonSchema: {
      bsonType: "object",
      required: [ "name", "email", "age" ],
      properties: {
        name: {
          bsonType: "string",
          description: "must be a string and is required"
        },
        email: {
          bsonType: "string",
          pattern: "^[a-zA-Z0-9._%+-]+@[a-zA-Z0-9.-]+\\.[a-zA-Z]{2,}$",
          description: "must be a valid email address and is required"
        },
        age: {
          bsonType: "int",
          minimum: 18,
          maximum: 99,
          description: "must be an integer in [ 18, 99 ] and is required"
        },
        gender: {
          enum: [ "Male", "Female", "Other" ],
          description: "can only be one of the enum values and is optional"
        }
      }
    }
  },
  validationAction: "error"
})

这个例子定义了一个带有字段验证的用户集合,确保插入的数据符合预定义的模式。

验证的好处:

  • 确保数据一致性和完整性。

  • 减少应用层的验证逻辑。

  • 提高数据质量。

注意:

  • 验证只在插入和更新操作时执行。

  • 可以设置validationAction为"warn"以允许插入不符合规则的文档,但会记录警告。

  • 对已存在的文档不会进行验证,除非它们被更新。

2.3 Time-To-Live (TTL) 索引

TTL索引允许MongoDB自动删除过期的文档:

db.sessions.createIndex( { "lastModifiedDate": 1 }, { expireAfterSeconds: 3600 } )

这个命令创建了一个TTL索引,文档将在lastModifiedDate字段指定的时间一小时后被自动删除。

TTL索引的应用场景:

  • 会话管理

  • 缓存数据

  • 日志数据

注意:

  • TTL索引只能在单个字段上创建。

  • 删除操作是后台进行的,可能有一定的延迟。

3. 文档操作的高级技巧

3.1 复杂查询

3.1.1 正则表达式查询
db.users.find({ name: /^A/ }) // 查找名字以A开头的用户

正则表达式查询允许进行复杂的字符串匹配。

3.1.2 数组查询
// 查找兴趣包含both "reading" 和 "hiking" 的用户
db.users.find({ interests: { $all: ["reading", "hiking"] } })
​
// 查找至少有3个兴趣的用户
db.users.find({ interests: { $size: 3 } })
​
// 使用$elemMatch查询数组中的元素
db.inventory.find({
  dim_cm: { $elemMatch: { $gt: 22, $lt: 30 } }
})

这些查询展示了MongoDB强大的数组查询能力。

3.1.3 嵌套文档查询
// 查找居住在New York的用户
db.users.find({ "address.city": "New York" })
​
// 使用$elemMatch查询嵌套数组
db.schools.find({
  zipcode: "63109",
  students: { $elemMatch: { school: 102, age: { $gt: 15 } } }
})

这些例子展示了如何查询嵌套文档和数组。

3.2 高级更新操作

3.2.1 数组操作
// 向数组添加元素(如果不存在)
db.users.updateOne(
  { name: "Alice" },
  { $addToSet: { interests: "gardening" } }
)
​
// 从数组中移除元素
db.users.updateOne(
  { name: "Alice" },
  { $pull: { interests: "hiking" } }
)
​
// 更新数组中的特定元素
db.users.updateOne(
  { name: "Alice", "scores.type": "exam" },
  { $set: { "scores.$.value": 95 } }
)

这些操作展示了如何高效地管理文档中的数组字段。

3.2.2 条件更新
// 只有在年龄小于30时才更新
db.users.updateOne(
  { name: "Bob", age: { $lt: 30 } },
  { $set: { status: "young" } }
)
​
// 使用$inc和$min组合
db.products.updateOne(
  { sku: "abc123" },
  {
    $inc: { quantity: -2 },
    $min: { quantity: 0 }
  }
)

这些例子展示了如何进行有条件的更新和原子操作。

3.3 批量写操作

const bulkOps = [
  { insertOne: { document: { name: "Dave", age: 28 } } },
  { updateOne: { filter: { name: "Alice" }, update: { $inc: { age: 1 } } } },
  { deleteOne: { filter: { name: "Charlie" } } },
  { replaceOne: { filter: { name: "Bob" }, replacement: { name: "Robert", age: 32 }, upsert: true } }
];
​
db.users.bulkWrite(bulkOps, { ordered: false });

这个例子展示了如何在一个操作中执行多个写入任务,提高效率。ordered: false选项允许MongoDB并行执行这些操作,进一步提高性能。

注意:

  • 批量写操作可以大大提高写入效率,特别是在需要执行大量小型写操作时。

  • 使用ordered: false可以提高性能,但要注意操作之间的依赖关系。

  • 批量写操作支持原子性,即使部分操作失败,也可以回滚所有更改。

4. 索引策略与优化

4.1 复合索引

db.users.createIndex({ age: 1, name: 1 })

这个索引支持按年龄排序的查询,以及年龄和姓名的组合查询。

复合索引的设计原则:

  1. 最常用的查询字段放在前面。

  2. 等值查询的字段放在范围查询字段之前。

  3. 排序字段应包含在索引中。

4.2 文本索引

db.articles.createIndex({ content: "text" })
​
// 使用文本索引进行全文搜索
db.articles.find({ $text: { $search: "MongoDB tutorial" } })
​
// 文本搜索并按相关性排序
db.articles.find(
  { $text: { $search: "MongoDB tutorial" } },
  { score: { $meta: "textScore" } }
).sort({ score: { $meta: "textScore" } })

文本索引支持高效的全文搜索。

注意:

  • 每个集合只能有一个文本索引。

  • 文本索引可能会占用大量存储空间。

4.3 地理空间索引

db.places.createIndex({ location: "2dsphere" })
​
// 查找附近的地点
db.places.find({
  location: {
    $near: {
      $geometry: {
        type: "Point",
        coordinates: [ -73.9667, 40.78 ]
      },
      $maxDistance: 1000
    }
  }
})
​
// 查找在多边形内的地点
db.places.find({
  location: {
    $geoWithin: {
      $geometry: {
        type: "Polygon",
        coordinates: [[
          [ -73.9, 40.8 ],
          [ -73.9, 40.7 ],
          [ -74.0, 40.7 ],
          [ -74.0, 40.8 ],
          [ -73.9, 40.8 ]
        ]]
      }
    }
  }
})

地理空间索引支持基于位置的查询,对于开发位置服务的应用非常有用。

4.4 索引优化技巧

  • 使用 explain() 分析查询性能

db.users.find({ age: { $gt: 30 } }).explain("executionStats")

这会提供详细的查询执行统计信息,帮助识别性能瓶颈。

  • 定期检查索引使用情况,删除未使用的索引

db.collection.aggregate([
  { $indexStats: {} }
])

这个命令可以显示每个索引的使用统计信息。

  • 对于大集合,考虑在后台创建索引

db.users.createIndex({ email: 1 }, { background: true })

后台创建索引不会阻塞其他数据库操作。

  • 使用覆盖索引来提高查询效率

db.users.find({ age: { $gt: 30 } }, { _id: 0, name: 1, age: 1 })

如果有一个包含agename字段的索引,这个查询可以完全由索引覆盖,无需访问文档。

  • 使用部分索引减少索引的大小

db.restaurants.createIndex(
  { cuisine: 1, name: 1 },
  { partialFilterExpression: { rating: { $gt: 5 } } }
)

这个索引只包含评分大于5的餐厅,可以显著减少索引大小。

部分索引的优势:

  • 减少索引的存储空间

  • 提高索引的效率

  • 降低索引维护的开销

注意:使用部分索引时,查询必须包含索引的过滤条件才能使用该索引。

5. 高级聚合操作

5.1 复杂的聚合管道

db.orders.aggregate([
  { $match: { status: "completed", orderDate: { $gte: new Date("2023-01-01") } } },
  { $group: {
      _id: { $dateToString: { format: "%Y-%m-%d", date: "$orderDate" } },
      totalRevenue: { $sum: "$total" },
      averageOrder: { $avg: "$total" },
      orderCount: { $sum: 1 }
  }},
  { $sort: { totalRevenue: -1 } },
  { $limit: 10 },
  { $project: {
      date: "$_id",
      totalRevenue: { $round: ["$totalRevenue", 2] },
      averageOrder: { $round: ["$averageOrder", 2] },
      orderCount: 1,
      _id: 0
  }}
])

这个聚合管道执行以下操作:

  1. 筛选已完成的订单和2023年之后的订单

  2. 按日期分组,计算每天的总收入、平均订单金额和订单数量

  3. 按总收入降序排序

  4. 限制结果为前10条

  5. 重塑输出格式,包括四舍五入金额到小数点后两位

5.2 使用 $lookup 进行关联查询

db.orders.aggregate([
  {
    $lookup: {
      from: "customers",
      localField: "customerId",
      foreignField: "_id",
      as: "customerInfo"
    }
  },
  { $unwind: "$customerInfo" },
  {
    $project: {
      orderId: 1,
      total: 1,
      "customerInfo.name": 1,
      "customerInfo.email": 1
    }
  }
])

这个例子展示了如何使用 $lookup 来关联订单和客户信息。

$lookup 的高级用法:

db.orders.aggregate([
  {
    $lookup: {
      from: "inventory",
      let: { order_item: "$item", order_qty: "$quantity" },
      pipeline: [
        { $match:
           { $expr:
              { $and:
                 [
                   { $eq: [ "$item",  "$$order_item" ] },
                   { $gte: [ "$instock", "$$order_qty" ] }
                 ]
              }
           }
        },
        { $project: { item: 1, instock: 1 } }
      ],
      as: "inventoryDocs"
    }
  }
])

这个高级 $lookup 示例展示了如何使用管道在关联过程中执行复杂的匹配和转换。

5.3 使用 $graphLookup 进行图形查询

db.employees.aggregate([
  {
    $graphLookup: {
      from: "employees",
      startWith: "$reportsTo",
      connectFromField: "reportsTo",
      connectToField: "_id",
      as: "reportingHierarchy",
      maxDepth: 5,
      depthField: "level"
    }
  }
])

这个聚合操作可以查询员工的完整报告链,最多追溯5级,并记录每个员工在层级中的深度。

$graphLookup 的应用场景:

  • 组织结构查询

  • 社交网络关系分析

  • 产品类别层次结构

5.4 使用 $bucket 进行数据分桶

db.sales.aggregate([
  {
    $bucket: {
      groupBy: "$amount",
      boundaries: [ 0, 100, 500, 1000, Infinity ],
      default: "Other",
      output: {
        "count": { $sum: 1 },
        "total": { $sum: "$amount" },
        "avg": { $avg: "$amount" }
      }
    }
  }
])

这个聚合操作将销售数据按金额分成不同的桶,并计算每个桶的统计信息。

6. MongoDB的高级特性和最佳实践

6.1 变更流(Change Streams)

变更流允许应用程序实时监控数据库的变化:

const changeStream = db.collection('users').watch();
changeStream.on('change', (change) => {
  console.log(change); // 输出变更信息
});

变更流的高级用法:

const pipeline = [
  { $match: { 'fullDocument.status': 'active' } },
  { $project: { 'fullDocument.name': 1, 'fullDocument.email': 1 } }
];
​
const changeStream = db.collection('users').watch(pipeline);
changeStream.on('change', (change) => {
  console.log(change.fullDocument);
});

这个例子展示了如何使用聚合管道来过滤和转换变更事件。

变更流的应用场景:

  • 实时数据同步

  • 缓存失效

  • 事件驱动架构

6.2 数据加密

MongoDB企业版提供静态加密和传输加密:

db.createCollection("sensitiveData", {
  encryptedFields: {
    fields: [
      {
        path: "ssn",
        keyId: UUID("12345678-1234-1234-1234-123456789012"),
        bsonType: "string",
        queries: { "equalTo": true }
      }
    ]
  }
})

这个例子创建了一个集合,其中的 ssn 字段会被自动加密。

加密的最佳实践:

  • 使用强密钥管理系统

  • 定期轮换加密密钥

  • 只加密真正敏感的数据,以平衡性能和安全性

6.3 分片策略

对于大规模数据,MongoDB的分片功能可以提供水平扩展能力:

sh.enableSharding("mydb")
sh.shardCollection("mydb.users", { "userId": "hashed" })

这个命令对 users 集合按 userId 的哈希值进行分片。

分片的考虑因素:

  • 选择合适的分片键(shard key)

  • 避免热点分片

  • 考虑数据本地性

  • 平衡查询分布和写入分布

6.4 性能优化

  • 使用适当的写入关注(Write Concern)和读取关注(Read Concern)

db.collection.insertOne(
  { item: "example" },
  { writeConcern: { w: "majority", wtimeout: 5000 } }
)
​
db.collection.find().readConcern("majority")
  • 使用投影来减少网络传输

db.users.find({}, { name: 1, email: 1, _id: 0 })
  • 使用 $hint 强制使用特定索引

db.users.find({ age: { $gt: 30 }, city: "New York" })
         .hint({ age: 1, city: 1 })
  • 使用 allowDiskUse 处理大型聚合操作

db.orders.aggregate([
  // 复杂的聚合管道
], { allowDiskUse: true })
  • 定期运行 db.runCommand({ compact: 'collectionName' }) 来碎片整理和回收空间

6.5 数据模型设计最佳实践

  1. 嵌入 vs 引用:根据数据访问模式选择适当的模型

  2. 避免过深的嵌套:通常不超过3层

  3. 适当反规范化:提高读取性能

  4. 考虑文档增长:预留足够空间或使用桶设计模式

  5. 使用数组时要小心:大型数组可能导致性能问题

7. 实际应用案例深度剖析:基因组数据库系统

让我们深入探讨Wang等人(2019)的GenomeDB系统[1],并讨论其架构设计和实现细节。

7.1 系统架构

GenomeDB采用了分布式架构,主要包括以下组件:

  1. 数据导入模块

  2. 查询处理模块

  3. 数据存储层(MongoDB分片集群)

  4. 缓存层(Redis)

  5. 负载均衡器(HAProxy)

7.2 数据模型优化

研究人员对基因变异数据模型进行了优化,以平衡查询效率和存储效率:

{
  _id: ObjectId("..."),
  chrom: "1",
  pos: 1000000,
  ref: "A",
  alt: "G",
  freq: 0.01,
  anno: {
    gene: "BRCA1",
    effect: "missense_variant",
    impact: "MODERATE"
  },
  samples: [
    { id: "SAMPLE001", gt: "0/1" },
    { id: "SAMPLE002", gt: "0/0" }
  ]
}

注意事项:

  • 使用简短的字段名(如 chrom 而不是 chromosome)来减少存储空间

  • 将频繁一起查询的字段(如注释信息)组合到子文档中

  • 对于样本数据,只存储必要的信息

7.3 索引策略

GenomeDB使用了多层次的索引策略:

// 主索引
db.variants.createIndex({ chrom: 1, pos: 1 })
​
// 频率索引
db.variants.createIndex({ freq: 1 })
​
// 基因索引
db.variants.createIndex({ "anno.gene": 1 })
​
// 复合索引用于常见查询模式
db.variants.createIndex({ chrom: 1, pos: 1, "anno.effect": 1, freq: 1 })
​
// 文本索引用于全文搜索
db.variants.createIndex({ "anno.gene": "text", "anno.effect": "text" })

7.4 分片策略

GenomeDB采用了基于染色体的分片策略:

sh.enableSharding("genomdb")
sh.shardCollection("genomdb.variants", { chrom: 1, pos: 1 })

这确保了同一染色体的数据位于同一分片,提高了局部查询的效率。

7.5 查询优化

研究人员实现了一些高级的查询优化技术:

  1. 查询重写:将复杂查询转化为更高效的形式

  2. 结果缓存:使用Redis缓存常见查询的结果

  3. 并行查询执行:将大型查询拆分成多个子查询并行执行

例如,对于跨越多个染色体的查询:

async function parallelChromosomeQuery(query, chromosomes) {
  const promises = chromosomes.map(chrom => 
    db.variants.find({ ...query, chrom: chrom }).toArray()
  );
  const results = await Promise.all(promises);
  return results.flat();
}

7.6 数据导入优化

为了处理大规模数据导入,研究人员采用了以下策略:

  1. 批量插入:使用insertMany而不是单条插入

  2. 并行导入:按染色体分割数据,并行导入不同分片

  3. 索引预创建:在导入数据之前创建所需的索引

  4. 写入关注点优化:在导入阶段使用较低的写入关注点,提高性能

const bulkOps = [];
for (const variant of variantBatch) {
  bulkOps.push({ insertOne: { document: variant } });
  if (bulkOps.length === 1000) {
    await db.variants.bulkWrite(bulkOps, { ordered: false, w: 0 });
    bulkOps.length = 0;
  }
}
if (bulkOps.length > 0) {
  await db.variants.bulkWrite(bulkOps, { ordered: false, w: 0 });
}

7.7 性能测试结果

Wang等人的研究报告了以下性能指标:

  1. 数据导入速度:平均每秒插入50,000个变异记录

  2. 点查询响应时间:< 10ms

  3. 范围查询响应时间(1Mb区域):< 100ms

  4. 全基因组扫描:< 5分钟

这些结果表明,基于MongoDB的GenomeDB系统能够有效处理大规模基因组数据,为研究人员提供快速、灵活的数据访问能力。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1890640.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

如何批量创建、提取和重命名文件夹!!!

你是否还在一个一个手动创建文件名&#xff01; 你是否还在一个一个手动提取文件名&#xff01; 你是否还在一个一个手动修改文件名&#xff01; 请随小生一起批量自动创建、提取、重命名&#xff01; 1、批量创建文件夹 【案例】创建1日-31日共31个文件夹 【第一步】在A列…

VirtualBox Ubuntu Sever配置双网卡

Ubuntu 版本&#xff1a;Ubuntu Server 2404 vitrualBox 网卡配置&#xff1a; 如上配置后&#xff0c;ifconfig 只能看到 网卡1 应用了。要应用 网卡2 需要更改文件 /etc/netplan/50-cloud-init.yaml&#xff08;不同的ubuntu版本这个文件名可能不同&#xff09; 首先 ifcon…

如何在Linux上删除Systemd服务

Systemd是Linux 操作系统的系统和服务管理器&#xff0c;提供控制系统启动时启动哪些服务的标准流程。 有时&#xff0c;您可能出于各种原因需要删除systemd服务&#xff0c;例如不再需要、与其他服务冲突&#xff0c;或者您只是想清理系统。 Systemd使用单元文件来管理服务&…

OBD诊断(ISO15031) 04服务

文章目录 功能简介ISO 9141-2、ISO 14230-4和SAE J1850的诊断服务定义1、清除/重置与排放相关的诊断信息请求消息定义2、请求与排放相关的DTC响应消息定义3、报文示例 ISO 15765-4的诊断服务定义1、请求与排放相关的DTC请求消息定义2、请求与排放相关的DTC响应消息定义3、否定响…

深入详解RocketMQ源码安装与调试

1.源码下载 http://rocketmq.apache.org/dowloading/releases/ 2. 环境要求 64位系统JDK1.8(64位)Maven 3.2.x

keil5模拟 仿真 报错没有读写权限

debug*** error 65: access violation at 0x4002100C : no write permission 修改为&#xff1a; Dialog DLL默认是DCM3.DLL Parameter默认是-pCM3 应改为 Dialog DLL默认是DARMSTM.DLL Parameter默认是-pSTM32F103VE

计算机网络——数据链路层(点对点协议PPP)

点对点协议PPP的概述 对于点对点的链路&#xff0c;目前使用得最广泛的数据链路层协议是点对点协议 PPP (Point-to-Point Protocol)。 它主要应用于两个场景&#xff1a; 用户计算机与ISP之间的链路层协议就是点对点协议 PPP&#xff0c;1999年公布了回以在以太网上运行的PPP协…

配音软件有哪些?分享五款超级好用的配音软件

随着嫦娥六号的壮丽回归&#xff0c;举国上下都沉浸在这份自豪与激动之中。 在这样一个历史性的时刻&#xff0c;我们何不用声音记录下这份情感&#xff0c;让这份记忆以声音的形式流传&#xff1f; 无论是制作视频分享这份喜悦&#xff0c;还是创作音频讲述探月故事&#xff…

AI 会淘汰程序员吗?

前言 前些日子看过一篇文章&#xff0c;说国外一位拥有 19 年编码经验、会 100% 手写代码的程序员被企业解雇了&#xff0c;因为他的竞争对手&#xff0c;一位仅有 4 年经验、却善于使用 Copilot、GPT-4 的后辈&#xff0c;生产力比他更高&#xff0c;成本比他更低&#xff0c…

【分布式系统】监控平台Zabbix对接grafana

以前两篇博客为基础 【分布式系统】监控平台Zabbix介绍与部署&#xff08;命令截图版&#xff09;-CSDN博客 【分布式系统】监控平台Zabbix自定义模版配置-CSDN博客 一.安装grafana并启动 添加一台服务器192.168.80.104 初始化操作 systemctl disable --now firewalld set…

<电力行业> - 《第16课:电力领域(二)》

3 制造 3.1 电气制造厂 发电厂发电需要发电机&#xff0c;变电站升压降压需要变压器&#xff0c;输电线路输送电能需要电缆&#xff0c;这些主要电气设备的制造商&#xff0c;就是电力设备厂家。 电气设备制造是电力领域市场最基础也是最开放的领域&#xff0c;电力行业内最…

BugKu-WEB-sodirty

目录 前言 正文 信息收集 代码审计 验证 结尾 前言 七月始,暑假副本也正式开启 正文 信息收集 看着貌似没啥意义 看样子是有备份文件 下载下来 快速审计一下 代码审计 来吧 app.js没啥东西,主要是功能是实现error 我们找一找有没有index.js 找到了 \www\routes\in…

ESP32-VScode环境设置

目录 前言 一、安装VSCode 二、安装ESP32环境 1.安装ESP-IDF 2.ESP-IDF设置 3:开始配置环境 4.打开example进行验证 5.烧录 6.调整波特率 总结 前言 环境&#xff1a;Visual Studio Code 芯片&#xff1a;ESP32 说实话&#xff0c;这是我装的时间最长的一个环境&…

【数据分享】《中国金融年鉴》1986-2020年PDF版

而今天要免费分享的数据就是1986-2020年间出版的《中国金融年鉴》并以多格式提供免费下载。&#xff08;无需分享朋友圈即可获取&#xff09; 数据介绍 《中国金融年鉴》自1986年起&#xff0c;逐年记录着中国金融领域的发展历程、政策变化和市场动态。这部年鉴不仅是金融专业…

分析数据不要太老实,有BI方案就用起来——奥威BI软件

在当今数据驱动的时代&#xff0c;企业对于数据分析的需求日益迫切。然而&#xff0c;面对海量的数据和复杂的分析需求&#xff0c;许多企业仍停留在传统的手工分析模式&#xff0c;这不仅效率低下&#xff0c;还容易出错。幸运的是&#xff0c;像奥威BI这样的数据分析软件提供…

【深度学习】【Lora训练3】StabelDiffusion,Lora训练过程,秋叶包,Linux,SDXL Lora训练

为了便于使用&#xff0c;构建一个docker镜像来使用秋叶包。2024年6月26日。 docker run -it --gpus all -v /ssd/xiedong:/datax --net host kevinchina/deeplearning:pytorch2.3.0-cuda12.1-cudnn8-devel-xformers bashgit clone --recurse-submodules https://github.com/A…

SXSSFWorkbook导出百万级数据性能和行数问题解决

先说我的背景:我的情况是从iotdb中查询数据,然后解析成需要的格式 通过SXSSFWorkbook导出到excel,实验数据频次n*5000/s,n表示我本次实验选择的通道数量,可想而知我几分钟的实验就会有几百万的数据,并且要对数据进行解析然后画表导出。 再说遇到的问题: 1.大数据量势必出…

聚焦西安应博会|2024西安城市安全应急产业展9月精彩呈现

2024西安城市安全应急产业博览会 时间&#xff1a;2024年9月12日-14日 地点&#xff1a;西安国际会展中心 运营&#xff1a;西安西部文化产业博览会有限公司 【展会简介】 为推动安全应急装备向智能化、成套化、专业化方向发展&#xff0c;迎接新质生产力在应急产业新技术…

TapData 医疗美容行业数字化白皮书上线

随着颜值经济的发展&#xff0c;人们追求“美”的热情也不断高涨&#xff0c;而作为近年来被资本频频下注的赛道之一&#xff0c;医疗美容逐渐走进大众视野。 一方面&#xff0c;社会对外貌的重视程度不断提升&#xff0c;越来越多的人愿意通过医疗美容来提升自身形象&#xf…

Linux系统之玩转SafeLine防火墙应用

Linux系统之玩转SafeLine防火墙应用 一、SafeLine介绍1.1SafeLine简介1.2 SafeLine功能1.3 SafeLine 的工作原理二、本地环境介绍2.1 本地环境规划2.2 本次实践介绍三、本地环境检查3.1 检查Docker服务状态3.2 检查Docker版本3.3 检查docker compose 版本四、部署SafeLine4.1 安…