Azkaban从入门到精通以及案例实操系列

news2024/11/20 14:31:56

1、Azkaban概论

1.1、Azkaban简介

Azkaban 是一个开源的基于 Web 的工作流调度系统,由 LinkedIn 公司开发并维护。它可以帮助用户在大规模数据处理中来管理和调度作业,提供了简单易用、高效可靠的工作流设计和调度功能。

Azkaban 的主要特点包括:

  • 丰富的用户界面:提供了基于 Web 的交互式用户界面,使得用户可以方便地创建、编辑和执行工作流,同时也提供了丰富的监控和报警功能。

  • 灵活的工作流定义:使用 Azkaban 可以根据需求灵活地定制工作流,支持各种类型的任务(如 Hadoop MapReduce、Spark、Hive、Pig、Shell、Java 等)以及任务之间的依赖、并行和串行执行等功能。

  • 高效的任务调度:Azkaban 提供了高效的任务调度功能,可以根据任务优先级、资源限制等情况智能地分配任务资源,实现高效的任务调度和运行。

  • 安全可靠:Azkaban 支持多用户和多组权限控制,并提供了各种安全措施(如 SSL/TLS 加密、Kerberos 认证等)来确保数据安全和隐私保护。

1.2、为什么需要工作流调度系统

例如,我们可能有这样一个需求,某个业务系统每天产生20G原始数据,我们每天都要对其进行处理,处理步骤如下所示:

  1. 通过Hadoop先将原始数据上传到HDFS上(HDFS的操作);
  2. 使用MapReduce对原始数据进行清洗(MapReduce的操作);
  3. 将清洗后的数据导入到hive表中(hive的导入操作);
  4. 对Hive中多个表的数据进行JOIN处理,得到一张hive的明细表(创建中间表);
  5. 通过对明细表的统计和分析,得到结果报表信息(hive的查询操作);

在这里插入图片描述

要完成这个业务系统需要考虑的角度:

  1. 一个完整的数据分析系统通常都是由大量任务单元组成:shell脚本程序,java程序,mapreduce程序、hive脚本等。
  2. 各任务单元之间存在时间先后及前后依赖关系。
  3. 为了很好地组织起这样的复杂执行计划,需要一个工作流调度系统来调度执行。

像上述需求,特别是在一些涉及多个复杂任务、数据依赖关系复杂、任务之间存在关联和交互等方面,手工调度和管理变得困难且低效。因此,为了保证任务的正常执行,以及简化任务调度管理就显得尤为重要,这也就是需要工作流调度系统的原因。

1.3、常见工作流调度系统

  1. 简单的任务调度:直接使用Linux的Crontab来定义;
  2. 复杂的任务调度:开发调度平台或使用现成的开源调度系统,比如Ooize、Azkaban、 Airflow、DolphinScheduler等。

2、Azkaban入门

2.1、Azkaban的部署方式

Azkaban 可以通过以下两种方式进行部署:

  • 单机部署:将 Azkaban 作为一个 Java 应用程序,通过在一台服务器上运行一个或多个 Azkaban Web 服务器和 Azkaban Executor 服务器来实现。这种部署方式适合用于学习,或者小型数据处理场景,可以快速部署,但面对大规模数据处理时可能会存在性能瓶颈。

  • 分布式部署:将 Azkaban 部署到多个服务器上,可以通过将 Azkaban Web 服务器和 Azkaban Executor 服务器分别分配到不同的服务器上来实现高可用、高性能的工作流调度系统。这种部署方式适合大型数据处理场景,具有更好的扩展性和容错能力。

总之,选择何种部署方式主要取决于实际场景和需求。对于小规模或试验性应用,单机部署可能是更加简便的选择;而对于大规模的生产环境,则需要采用分布式部署以满足高可用、高性能、高扩展性等要求。本文主要使用集群部署。

2.2、Azkaban的集群部署

2.2.1、软件下载

下载地址

2.2.2、软件上传

在这里插入图片描述

2.2.3、解压软件,修改名字

[song@hadoop102 software]$ mkdir /opt/model/azkaban
[song@hadoop102 software]$ tar -zxvf azkaban-db-3.84.4.tar.gz -C /opt/model/azkaban/
[song@hadoop102 software]$ tar -zxvf azkaban-exec-server-3.84.4.tar.gz -C /opt/model/azkaban/
[song@hadoop102 software]$ tar -zxvf azkaban-web-server-3.84.4.tar.gz -C /opt/model/azkaban/
[song@hadoop102 azkaban]$ mv azkaban-exec-server-3.84.4/ azkaban-exec
[song@hadoop102 azkaban]$ mv azkaban-web-server-3.84.4/ azkaban-web

在这里插入图片描述

2.2.4、配置MySQL

2.2.4.1、正常安装即可,电脑上已经安装了,这就不多介绍了

2.2.4.2、登陆MySQL,创建Azkaban数据库

#创建Azkaban用户,任何主机都可以访问Azkaban,密码是azkaban
CREATE USER 'azkaban'@'%' IDENTIFIED BY 'azkaban';

在这里插入图片描述

2.2.4.3、创建azkaban用户并赋予权限

#赋予azkaban用户增删改查权限 
GRANT SELECT,INSERT,UPDATE,DELETE ON azkaban.* to 'azkaban'@'%' WITH GRANT OPTION;

在这里插入图片描述

2.2.4.4、更改MySQL包大小;防止Azkaban连接MySQL阻塞

在这里插入图片描述

在[mysqld]下面加一行max_allowed_packet=1024M

[mysqld]
max_allowed_packet=1024M

在这里插入图片描述

2.2.4.5、重启MySQL

sudo systemctl restart mysqld

2.2.4.6、加载SQL

mysql> source /opt/model/azkaban/azkaban-db-3.84.4/create-all-sql-3.84.4.sql

在这里插入图片描述

2.2.5、配置Executor Server

Executor ServerWeb
hadoop102,hadoop103,hadoop104hadoop102
  1. 编辑azkaban.properties

在这里插入图片描述

[song@hadoop102 conf]$ vim azkaban.properties

修改内容

#...
default.timezone.id=Asia/Shanghai
#...
azkaban.webserver.url=http://hadoop102:8081

executor.port=12321
#...
database.type=mysql
mysql.port=3306
mysql.host=hadoop102
mysql.database=azkaban
mysql.user=azkaban
mysql.password=azkaban
...
  1. 同步azkaban-exec到所有节点

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

  1. 必须进入到/opt/model/azkaban/azkaban-exec路径,分别在三台机器上,启动executor server
bin/start-exec.sh

在这里插入图片描述
注意:如果在/opt/model/azkaban/azkaban-exec目录下出现executor.port文件,说明启动成功
在这里插入图片描述

  1. 激活executor
[song@hadoop102 azkaban-exec]$ curl -G "hadoop102:12321/executor?action=activate" && echo
[song@hadoop103 azkaban-exec]$ curl -G "hadoop103:12321/executor?action=activate" && echo
[song@hadoop104 azkaban-exec]$ curl -G "hadoop104:12321/executor?action=activate" && echo

如果三台机器都出现{"status":"success"}提示,则表示激活成功
在这里插入图片描述

2.2.6、配置Web Server

Azkaban Web Server处理项目管理,身份验证,计划和执行触发。

  1. 编辑azkaban-web下的azkaban.properties
vim azkaban.properties

修改内容为

...
default.timezone.id=Asia/Shanghai
...
database.type=mysql
mysql.port=3306
mysql.host=hadoop102
mysql.database=azkaban
mysql.user=azkaban
mysql.password=azkaban
mysql.numconnections=100
...
azkaban.executorselector.filters=StaticRemainingFlowSize,CpuStatus
  • StaticRemainingFlowSize:正在排队的任务数;
  • CpuStatus:CPU占用情况
  • MinimumFreeMemory 过滤器会检查 executor 主机空余内存是否会大于 6G,如果不足 6G,则 web-server 不会将任务交由该主机执行
  • azkaban.executorselector.filters=StaticRemainingFlowSize,CpuStatus
  1. 修改azkaban-users.xml文件,添加song用户

在这里插入图片描述

  1. 必须进入到hadoop102的/opt/model/azkaban/azkaban-web路径,启动web server
[song@hadoop102 azkaban-web]$ bin/start-web.sh

在这里插入图片描述

  1. 访问http://hadoop102:8081,并用song用户登陆
    在这里插入图片描述

在这里插入图片描述

3、案例实操

3.1、HelloWorld案例

  1. 在windows环境,新建azkaban.project文件,编辑内容如下
azkaban-flow-version: 2.0

注意:该文件作用,是采用新的Flow-API方式解析flow文件。

  1. 新建basic.flow文件,内容如下
nodes:
  - name: jobA
    type: command
    config:
      command: echo "Hello World"
  • Name:job名称
  • Type:job类型。command表示你要执行作业的方式为命令
  • Config:job配置
  1. 将azkaban.project、basic.flow文件压缩到一个zip文件,文件名称必须是英文。

  2. 在WebServer新建项目:hadoop102:8081/index
    在这里插入图片描述

  3. 给项目名称命名和添加项目描述
    在这里插入图片描述

  4. 文件上传
    在这里插入图片描述

  5. 执行任务流

在这里插入图片描述

在这里插入图片描述

  1. 在日志中,查看运行结果

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

3.2、任务作业依赖案例

需求:JobA和JobB执行完了,才能执行JobC

  1. 修改basic.flow为如下内容
nodes:
  - name: jobC
    type: command
    # jobC 依赖 JobAJobB
    dependsOn:
      - jobA
      - jobB
    config:
      command: echo "I’m JobC"

  - name: jobA
    type: command
    config:
      command: echo "I’m JobA"

  - name: jobB
    type: command
    config:
      command: echo "I’m JobB"
  1. 将修改后的basic.flow和azkaban.project压缩成second.zip文件
  2. 重复HelloWorld中的后续步骤
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述

3.3、自动失败重试案例

需求:如果执行任务失败,需要重试3次,重试的时间间隔10000ms

  1. 编译配置流
nodes:
  - name: JobA
    type: command
    config:
      command: sh /not_exists.sh
      retries: 3
      retry.backoff: 10000

参数说明:

  • retries:重试次数
  • retry.backoff:重试的时间间隔
  1. 将修改后的basic.flow和azkaban.project压缩成four.zip文件
  2. 重复HelloWorld后续步骤,步骤略。
  3. 执行并观察到一次失败+三次重试

也可以在Flow全局配置中添加任务失败重试配置,此时重试配置会应用到所有Job。
案例如下:

config:
  retries: 3
  retry.backoff: 10000
nodes:
  - name: JobA
    type: command
    config:
      command: sh /not_exists.sh

3.4、手动失败重试案例

需求:JobA=》JobB(依赖于A)=》JobC=》JobD=》JobE=》JobF。生产环境,任何Job都有可能挂掉,可以根据需求执行想要执行的Job。
具体步骤:

  1. 编译配置流
nodes:
  - name: JobA
    type: command
    config:
      command: echo "This is JobA."

  - name: JobB
    type: command
    dependsOn:
      - JobA
    config:
      command: echo "This is JobB."

  - name: JobC
    type: command
    dependsOn:
      - JobB
    config:
      command: echo "This is JobC."

  - name: JobD
    type: command
    dependsOn:
      - JobC
    config:
      command: echo "This is JobD."

  - name: JobE
    type: command
    dependsOn:
      - JobD
    config:
      command: echo "This is JobE."

  - name: JobF
    type: command
    dependsOn:
      - JobE
    config:
      command: echo "This is JobF."
  1. 将修改后的basic.flow和azkaban.project压缩成five.zip文件
  2. 重复HelloWorld后续步骤。
    在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

Enable和Disable下面都分别有如下参数:

  • Parents:该作业的上一个任务
  • Ancestors:该作业前的所有任务
  • Children:该作业后的一个任务
  • Descendents:该作业后的所有任务
  • Enable All:所有的任务
  1. 可以根据需求选择性执行对应的任务。

在这里插入图片描述

3.5、JavaProcess作业类型案例

JavaProcess类型可以运行一个自定义主类方法,type类型为javaprocess,可用的配置为:

  • Xms:最小堆
  • Xmx:最大堆
  • classpath:类路径
  • java.class:要运行的Java对象,其中必须包含Main方法
  • main.args:main方法的参数

案例:

  1. 新建一个azkaban的maven工程
  2. 创建包名:com.song
  3. 创建AzTest类
package com.song;

public class AzTest {
    public static void main(String[] args) {
        System.out.println("This is for testing!");
    }
}
  1. 打包成jar包test_demo-1.0-SNAPSHOT.jar
  2. 新建testJava.flow,内容如下
nodes:
  - name: test_java
    type: javaprocess
    config:
      Xms: 96M
      Xmx: 200M
      java.class: com.song.AzTest
  1. 将Jar包、flow文件和project文件打包成javatest.zip
  2. 创建项目=》上传javatest.zip =》执行作业=》观察结果

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

3.6、条件工作流案例

条件工作流功能允许用户自定义执行条件来决定是否运行某些Job。条件可以由当前Job的父Job输出的运行时参数构成,也可以使用预定义宏。在这些条件下,用户可以在确定Job执行逻辑时获得更大的灵活性,例如,只要父Job之一成功,就可以运行当前Job。

  1. 基本原理
    • 父Job将参数写入JOB_OUTPUT_PROP_FILE环境变量所指向的文件
    • 子Job使用 ${jobName:param}来获取父Job输出的参数并定义执行条件
  2. 支持的条件运算符:
1==	等于
(2!=	不等于
(3>	大于
(4>=	大于等于
(5<	小于
(6<=	小于等于
(7&& 与
(8||	或
(9!

3.6.1、运行时参数案例

  1. 需求:JobA执行一个shell脚本,JobB执行一个shell脚本,但JobB不需要每天都执行,而只需要每个周一执行。

  2. 新建JobA.sh

#!/bin/bash
echo "do JobA"
wk=`date +%w`
echo "{\"wk\":$wk}" > $JOB_OUTPUT_PROP_FILE
  1. 新建JobB.sh
#!/bin/bash
echo "do JobB"

4 新建condition.flow

nodes:
 - name: JobA
   type: command
   config:
     command: sh JobA.sh

 - name: JobB
   type: command
   dependsOn:
     - JobA
   config:
     command: sh JobB.sh
   condition: ${JobA:wk} == 1
  1. 将JobA.sh、JobB.sh、condition.flow和azkaban.project打包成condition.zip
  2. 创建condition项目=》上传condition.zip文件=》执行作业=》观察结果
  3. 按照我们设定的条件,JobB会根据当日日期决定是否执行。
    在这里插入图片描述

3.6.2、预定义宏案例

Azkaban中预置了几个特殊的判断条件,称为预定义宏。预定义宏会根据所有父Job的完成情况进行判断,再决定是否执行。可用的预定义宏如下:

  • all_success: 表示父Job全部成功才执行(默认)
  • all_done:表示父Job全部完成才执行
  • all_failed:表示父Job全部失败才执行
  • one_success:表示父Job至少一个成功才执行
  • one_failed:表示父Job至少一个失败才执行
  1. 需求:
    JobA执行一个shell脚本
    JobB执行一个shell脚本
    JobC执行一个shell脚本,要求JobA、JobB中有一个成功即可执行
  2. 新建JobA.sh
#!/bin/bash
echo "do JobA"
  1. 新建JobC.sh
#!/bin/bash
echo "do JobC"
  1. 新建macro.flow
nodes:
 - name: JobA
   type: command
   config:
     command: sh JobA.sh

 - name: JobB
   type: command
   config:
     command: sh JobB.sh

 - name: JobC
   type: command
   dependsOn:
     - JobA
     - JobB
   config:
     command: sh JobC.sh
   condition: one_success
  1. JobA.sh、JobC.sh、macro.flow、azkaban.project文件,打包成macro.zip。
    注意:没有JobB.sh。
  2. 创建macro项目=》上传macro.zip文件=》执行作业=》观察结果

在这里插入图片描述

3.7、定时执行案例

需求:JobA每间隔1分钟执行一次;
具体步骤:

  1. Azkaban可以定时执行工作流。在执行工作流时候,选择左下角Schedule
    在这里插入图片描述
  2. 右上角注意时区是上海,然后在左面填写具体执行事件,填写的方法和crontab配置定时任务规则一致。
    在这里插入图片描述

在这里插入图片描述

3.8、邮件报警案例

3.8.1、注册邮箱

  1. 申请注册一个126邮箱

  2. 点击邮箱账号=》账号管理
    在这里插入图片描述

  3. 开启SMTP服务
    在这里插入图片描述

  4. 一定要记住授权码
    在这里插入图片描述

3.8.2、默认邮件报警案例

Azkaban默认支持通过邮件对失败的任务进行报警,配置方法如下:
1)在azkaban-web节点hadoop102上,编辑/opt/model/azkaban/azkaban-web/conf/azkaban.properties,修改如下内容:

[song@hadoop102 azkaban-web]$ vim /opt/model/azkaban/azkaban-web/conf/azkaban.properties

添加如下内容:

#这里设置邮件发送服务器,需要 申请邮箱,切开通stmp服务,以下只是例子
mail.sender=xxx@126.com
mail.host=smtp.126.com
mail.user=xxx@126.com
mail.password=用邮箱的授权码
  1. 保存并重启web-server。
[song@hadoop102 azkaban-web]$ bin/shutdown-web.sh
[song@hadoop102 azkaban-web]$ bin/start-web.sh
  1. 编辑basic.flow
nodes:
  - name: jobA
    type: command
    config:
      command: echo "This is an email test."
  1. 将azkaban.project和basic.flow压缩成email.zip
  2. 创建工程=》上传文件=》执行作业=》查看结果
    在这里插入图片描述
  3. 观察邮箱,发现执行成功或者失败的邮件
    在这里插入图片描述

3.9、电话报警案例

3.9.1、第三方告警平台集成

有时任务执行失败后邮件报警接收不及时,因此可能需要其他报警方式,比如电话报警。如有类似需求,可与第三方告警平台进行集成,例如睿象云。

  1. 进入睿象云官网注册账号并登录,官网地址:https://www.aiops.com/

在这里插入图片描述

  1. 集成告警平台,使用Email集成

在这里插入图片描述

在这里插入图片描述

  1. 获取邮箱地址,后边需将报警信息发送至该邮箱

在这里插入图片描述

  1. 配置分派策略

在这里插入图片描述

  1. 配置通知策略

在这里插入图片描述
在这里插入图片描述

  1. 测试,执行上一个邮件通知的案例,将通知对象改为刚刚集成第三方平台时获取的邮箱。

在这里插入图片描述

3.10、Azkaban多Executor模式注意事项

Azkaban多Executor模式是指,在集群中多个节点部署Executor。在这种模式下, Azkaban web Server会根据策略,选取其中一个Executor去执行任务。
为确保所选的Executor能够准确的执行任务,我们须在以下两种方案任选其一,推荐使用方案二。

3.10.1、方案一:指定特定的Executor(hadoop102)去执行任务。

  1. 在MySQL中azkaban数据库executors表中,查询hadoop102上的Executor的id。
mysql> use azkaban;
Reading table information for completion of table and column names
You can turn off this feature to get a quicker startup with -A

Database changed
mysql> select * from executors;
+----+-----------+-------+--------+
| id | host          | port  | active |
+----+-----------+-------+--------+
|  1   | hadoop103 | 35985 |      1 |
|  2   | hadoop104 | 36363 |      1 |
|  3   | hadoop102 | 12321 |      1 |
+----+-----------+-------+--------+
3 rows in set (0.00 sec)
  1. 在执行工作流程时加入useExecutor属性,如下

在这里插入图片描述

3.10.2、方案二:在Executor所在所有节点部署任务所需脚本和应用。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/562371.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

亿发ERP系统,全链条采购协同管理数智化平台,中小企业采购业务全流程管理

在数字时代&#xff0c;中小型企业在采购管理方面面临多项挑战。 集采管理难&#xff1a;由于资源和专业知识有限&#xff0c;中小企业通常难以建立集中采购职能&#xff0c;无法有效简化整个组织的采购活动。这一挑战包括定义采购政策、标准化程序和实施高效的采购系统。 信…

『赠书活动 | 第六期』《“Java四大名著“,你集齐了吗?》

&#x1f497;wei_shuo的个人主页 &#x1f4ab;wei_shuo的学习社区 &#x1f310;Hello World &#xff01; 『赠书活动 &#xff5c; 第六期』 本期书籍&#xff1a;《“Java四大名著”&#xff0c;你集齐了吗&#xff1f;》 赠书规则&#xff1a;评论区&#xff1a;点赞&…

供水管网监测系统,供水管网压力监测系统

水是城市赖以生存的血脉&#xff0c;直接关系到居民、企业和公共设施的正常生活和生产。然而&#xff0c;城市供水管网的高效运行面临着一系列挑战&#xff0c;如管道老化、泄漏和不均衡的供水压力等。 目前城市供水管网泄漏检测排查采用人工巡检、人工听漏的方式&#xff0c;巡…

Flutter3.10版本发布,编程语言的重大更新

Flutter是一款强大的跨端开发框架&#xff0c;可以帮助开发者构建高性能、美观、灵活的应用程序&#xff0c;从而实现跨平台开发和部署。小程序容器技术与跨端框架结合使用&#xff0c;为开发者提供一站式的小程序开发和发布服务&#xff0c;帮助他们更加轻松和高效地构建和部署…

CPU和GPU前端的应用

1、CPU&#xff08;英文Central Processing Unit 中央处理器&#xff09; CPU&#xff08;中央处理器&#xff09;是一种通用的处理器&#xff0c;其主要任务是执行计算机程序中的指令和序列。它能够处理复杂的逻辑判断、分支、跳转、内存访问等操作&#xff0c;因此在执行大多…

虚幻引擎4利用粒子系统实现物体轨迹描绘2- 消除轨迹

目录 前言粒子频繁产生对系统运行的影响轨迹的清除小结 前言 之前已经实现了UE4中跟随物体利用粒子系统产生轨迹的效果&#xff0c;文章链接如下&#xff1a; 虚幻引擎4利用粒子系统实现物体轨迹描绘_ADi_hhh的博客-CSDN博客 但是上篇文章还留下了两个问题 轨迹如何清除&am…

Spring探索——既生@Resource,何生@Autowired?

提到Spring依赖注入&#xff0c;大家最先想到应该是Resource和Autowired&#xff0c;很多文章只是讲解了功能上的区别&#xff0c;对于Spring为什么要支持两个这么类似的注解却未提到&#xff0c;属于知其然而不知其所以然。不知大家在使用这两个注解的时候有没有想过&#xff…

mysql8.0主从复制搭建

mysql8.0主从复制搭建 1.安装两个相同版本8.0的mysql数据库 主从IP端口主库192.168.139.1283306从库192.168.139.1303306 2.主从复制配置 2.1 修改mysql配置文件my.conf 主机mysql配置完整 [mysql] # 设置mysql客户端默认字符集 default-character-setutf8mb4 [client] # …

二十三种设计模式第十篇--外观模式

在现实生活中&#xff0c;常常存在办事较复杂的例子&#xff0c;如办房产证或注册一家公司&#xff0c;有时要同多个部门联系&#xff0c;这时要是有一个综合部门&#xff08;政务窗口 )能解决一切手续问题就好了。 软件设计也是这样&#xff0c;当一个系统的功能越来越强&…

2023年小型水库安全监测能力提升解决方案

一、方案背景 2023年小型水库安全监测能力提升试点项目建设将按照“统一规划、统一标准、统一实施、统一管理、统一支撑”的工作要求&#xff0c;对全区小型水库雨水情测报和监测设施建设项目按高水平、高标准、高质量要求开展安全监测能力提升建设&#xff0c;同步开展水工程安…

ZeLinAI是什么?国产ChatGPT快速搭建自己的AI应用

ChatGPT使用门槛高&#xff0c;需要科学上网短信接码等&#xff0c;不如直接选择国产ZelinAI&#xff0c;使用超简单轻轻松松从0到1零代码创建自己的AI应用。目前模型仅支持GPT-3.5-turbo&#xff0c;后续应该会接入文心一言、GPT-4、GPT-4.5和Bard&#xff0c;新手站长分享国产…

DL.to 最新研究(论文)推荐——分割、CVPR、扩散模型、感受野注意力模块

目录 一、CVPR 1.CrowdCLIP:基于视觉-语言模型的无监督人群计数 CrowdCLIP: Unsupervised Crowd Counting via Vision-Language Model 2.Beyond mAP&#xff1a;更好地评估实例分割 Beyond mAP: Re-evaluating and Improving Performance in Instance Segmentation with Se…

基于低代码平台的多租户解决方案

在云计算时代&#xff0c;“多租户”是一个非常重要的概念。根据百度百科中的定义&#xff0c;多租户技术是一种软件架构技术&#xff0c;简单来说是指以单一系统架构与服务提供多数客户端相同甚至可定制化的服务&#xff0c;并且仍然可以保障客户的数据在多租户环境中&#xf…

Redis之bitmap/hyperloglog/GEO

Redis之bitmap/hyperlog/GEO 一 面试题引入二 统计的类型三 hyperloglog3.1 行业术语3.2 hyperloglog基础3.2.1 基数3.2.2 定义3.2.3 基数统计3.2.4 基本命令 3.3 HyperLogLog原理3.3.1 去重复统计的方式3.3.2 原理 3.4 HyperLogLog案例实战3.4.1 需求3.4.2 方案讨论3.4.3 Hype…

五、SpringMVC从入门到入坟

一、SpringMVC概念 SpringMVC 是 Spring 框架中的一个模块&#xff0c;它是一个基于 MVC设计模式的 Web 框架&#xff0c;用于构建基于 Java 技术的 Web 应用程序。Spring的web框架围绕DispatcherServlet [ 调度Servlet ] 设计。 它的主要原理是将 Web 应用程序分成模型&…

实时频谱-2.4窗口函数

窗口函数 在离散傅立叶变换(DFT)分析运算中&#xff0c;一个固有的假设是要处理的数据是单个周期定期重复的信号。例如&#xff0c;在图2-8中的帧2上应用DFT处理时&#xff0c;信号上会进行周期性扩展。 在连续的帧之间一般会发生不连续点&#xff0c;如图 2-9 所示。 这些人…

平板电脑哪种电容笔更好用?平价好用的iPad电容笔推荐

我是一个非常喜欢数码产品的发烧者&#xff0c;多少了解一些关于电容笔的知识。我想&#xff0c;苹果原装的电容笔与普通的电容笔的不同之处就是他们所能产生的压力感觉不同。由于苹果的电容笔拥有独一无二的“重力压感”&#xff0c;使得它可以让我们在一幅画面中快速填充色彩…

Docker笔记8 | Docker内部以及容器之间如何管理数据?

8 | Docker内部以及容器之间如何管理数据&#xff1f; 1 数据卷1.1 什么是数据卷&#xff1f;1.2 数据卷的特性1.3 创建数据卷1.4 查看数据卷1.5 启动挂在数据卷的容器1.6 删除数据卷 2 挂在主机目录2.1 挂载主机目录作为数据卷2.2 查看数据卷信息2.3 挂载本地主机文件作为数据…

深度学习基础入门篇-序列模型[11]:循环神经网络 RNN、长短时记忆网络LSTM、门控循环单元GRU原理和应用详解

【深度学习入门到进阶】必看系列&#xff0c;含激活函数、优化策略、损失函数、模型调优、归一化算法、卷积模型、序列模型、预训练模型、对抗神经网络等 专栏详细介绍&#xff1a;【深度学习入门到进阶】必看系列&#xff0c;含激活函数、优化策略、损失函数、模型调优、归一化…

中原雄狮官网上线 | LTD物流服务行业案例分享

​一、公司介绍 中原雄狮崛起于2017年&#xff0c;彼时&#xff0c;全国货运行业存在许多不良行为&#xff0c;无赖货主和黑心货站恶意拖欠货车司机运费&#xff0c;而货车司机作为弱势群体却势单力薄无依无助的问题&#xff0c;为了让司机的血汗钱能颗粒归仓&#xff0c;中原雄…