搭建大型分布式服务(四十四)SpringBoot 无代码侵入实现多Kafka数据源:单分区提升至十万级消费速度!

news2024/9/23 5:34:08

系列文章目录


文章目录

  • 系列文章目录
  • 前言
      • 一、本文要点
      • 二、开发环境
      • 三、原项目
      • 四、修改项目
      • 五、测试一下
      • 五、小结


前言

在过去的一段时间里,我们利用了AI大模型写了一个多线程并发框架,那么,我们怎样集成到Kafka组件里,让消费速度提升N倍呢?

  • 《AI大模型编写多线程并发框架(六十一):从零开始搭建框架》
  • 《AI大模型编写多线程并发框架(六十二):限流和并发度优化》
  • 《AI大模型编写多线程并发框架(六十三):监听器优化·上》
  • 《AI大模型编写多线程并发框架(六十四):监听器优化·下》
  • 《AI大模型编写多线程并发框架(六十五):发布和应用》

国籍惯例,先上源码:Github源码

一、本文要点

本文将介绍通过封装一个starter,来实现多kafka数据源的配置,通过通过源码,可以学习以下特性。系列文章完整目录

  • SpringBoot 整合多个kafka数据源
  • SpringBoot 批量消费kafka消息
  • SpringBoot 优雅地启动或停止消费kafka
  • SpringBoot kafka本地单元测试(免集群)
  • SpringBoot 利用map注入多份配置
  • SpringBoot BeanPostProcessor 后置处理器使用方式
  • SpringBoot 将自定义类注册到IOC容器
  • SpringBoot 注入bean到自定义类成员变量
  • Springboot 取消限定符
  • SpringBoot 支持消费protobuf类型的kafka消息
  • SpringBoot Aware设计模式
  • SpringBoot 获取kafka消息中的topic、offset、partition、header等参数
  • SpringBoot 使用任意生产者发送kafka消息
  • SpringBoot 配置任意数量的kafka生产者
  • SpringBoot Kafka单次batch消息内并发处理

二、开发环境

  • jdk 1.8
  • maven 3.6.2
  • springboot 2.4.3
  • kafka-client 2.6.6
  • idea 2020
  • mmc-juc 1.1

三、原项目

1、接前文,我们已经发布了Kafka组件到中央仓库,所有开发者都可以下载使用本组件。虽然本组件支持批量消费Kafka消息,但是毕竟它是串行顺序处理的,尤其涉及高IO耗时调用时,比如消费Kafka,然后读写DB多表操作这种场景,会使消费速度下降。能否并发处理这些Kafka消息呢?

答案是可以的、但我们要升级和优化一下。

四、修改项目

1、新增ContainerConfig接口类,用于获取多线程任务容器配置,便于后续使用Apollo、Disconf、Consul等配置中心。

public interface ContainerConfig {

    /**
     * Get the execute rate.
     *
     * @return rate
     */
    int getRate();

    /**
     * Get the max task count for per thread.
     *
     * @return max count
     */
    int getThreshold();


    /**
     * The max thread count, default is numbers of processor.
     * @return count
     */
    default int getParallelism() {
        return Runtime.getRuntime().availableProcessors();
    }
}

2、修改MmcMultiKafkaProperties配置类,增加容器配置;

@ToString
@Data
@ConfigurationProperties(prefix = "spring")
public class MmcMultiKafkaProperties {

	// 省略其他代码
	
    /**
     * MmcKafkaProperties.
     */
    @Data
    static class MmcKafkaProperties {

  		// 省略其他代码
  		
        /**
         * 并发设置.
         */
        private Container container = new Container();

    }

    @Data
    public static class Container implements ContainerConfig {

        /**
         * 是否启用多线程消费.
         */
        private boolean enabled = true;
        /*
         * 消费消息的速率(每秒接收的记录数),默认值为1000.
         */
        private int rate = 1000;
        /*
         * 最小批次数量,默认为2.
         */
        private int threshold = 2;
        /*
         * 设置并行度,默认值为可用处理器数量.
         */
        private int parallelism = Runtime.getRuntime().availableProcessors();
    }
}

3、修改MmcMultiConsumerAutoConfiguration配置类,主要是增加inputer的初始化方法,用于后续构建多线程任务容器实例。


public interface MmcInputer {

	// 省略其他代码
	
    /**
     * 初始化kafka容器.
     */
    void init();
}


@Slf4j
@Configuration
@EnableConfigurationProperties(MmcMultiKafkaProperties.class)
@ConditionalOnProperty(prefix = "spring.kafka", value = "enabled", matchIfMissing = true)
public class MmcMultiConsumerAutoConfiguration extends BaseConsumerConfiguration {

   // 省略其他代码

    @Bean
    public MmcKafkaInputerContainer mmcKafkaInputerContainer(MmcKafkaProcessorFactory factory,
                                                             MmcKafkaBeanPostProcessor beanPostProcessor) throws Exception {

        // 省略其他代码

        // 逐个遍历,并生成consumer
        for (Map.Entry<String, MmcMultiKafkaProperties.MmcKafkaProperties> entry : kafkas.entrySet()) {

			// 省略其他代码

            // 是否开启
            if (properties.isEnabled() && CommonUtil.isNotBlank(properties.getGroupId())) {

                // 省略其他代码
                
                // 设置容器
                inputer.setContainer(container);
                inputer.setName(name);
                inputer.setProperties(properties);
                inputer.init(); // 增加初始化

				// 省略其他代码
               
            }

        }

        return new MmcKafkaInputerContainer(inputers);
    }
}

4、由于增加了inputer增加了init方法,所以超级父类KafkaAbstractProcessor也增加一个默认实现。

@Slf4j
@Setter
public abstract class KafkaAbstractProcessor<T> implements MmcInputer {

	// 省略其他代码
	
    @Override
    public void init() {

    }
}

5、新增MmcKafkaParallelAbstractProcessor并发处理类,根据多线程并发框架mmc-juc的特性,配置初始化多线程任务容器,并保留很多回调函数,方便子类覆盖重写。


@Slf4j
@Setter
public abstract class MmcKafkaParallelAbstractProcessor<T, R> extends MmcKafkaAbstractProcessor<T> {

    /**
     * taskExecutor.
     */
    protected MmcTaskExecutor<T, R> taskExecutor;

    /**
     * init.
     */
    public void init() {

        ContainerConfig config = properties.getContainer();

        this.taskExecutor = MmcTaskExecutor.<T, R>builder()
                .taskProcessor(this::handelBatchDatas)
                .threshold(config.getThreshold())
                .rateLimiter(buildRateLimiter(config.getRate()))
                .taskMerger(this::mergeResult)
                .forkJoinPoolConcurrency(config.getParallelism())
                .build();
    }


    @Override
    protected void dealMessage(List<T> datas) throws ExecutionException, InterruptedException {

        if (properties.getContainer().isEnabled()) {

            // 开启并发处理
            R result = taskExecutor.execute(MmcTask.<T, R>builder()
                    .taskSource(datas)
                    .taskName(getTaskName(datas))
                    .build()
            );

            dealMessageCallBack(result);

        } else {

            // 同步处理
            R result = handelBatchDatas(datas);
            dealMessageCallBack(result);

        }
    }

    /**
     * 合并小任务结果(默认不合并).
     *
     * @param left 左边处理结果
     * @param right 右边处理结果
     * @return 合并后的结果
     */
    protected R mergeResult(R left, R right) {
        return null;
    }

    /**
     * 构建速率限制器.
     *
     * @param rate qps
     * @return 速率限制器
     */
    protected RateLimiter buildRateLimiter(int rate) {
        return new TokenBucket(rate, rate);
    }

    /**
     * 当所有消息处理完后,会调用该方法.
     *
     * @param result 处理结果
     */
    protected void dealMessageCallBack(R result) {
        // default null
    }

    /**
     * 获取任务名称.
     */
    protected String getTaskName(List<T> datas) {
        return name;
    }


    /**
     * 真正处理消息的方法.
     *
     * @param datas 待处理消息
     * @return 小任务处理完的结果
     */
    protected abstract R handelBatchDatas(List<T> datas);

}

五、测试一下

1、引入mmc-juc需要的jar。参考文章:kafka单元测试

       <dependency>
	    <groupId>io.github.vipjoey</groupId>
	    <artifactId>mmc-juc</artifactId>
	    <version>1.1</version>
	</dependency>

2、增加并发消费者配置,生产者配置不变。

## json消息消费者
spring.kafka.five.enabled=true
spring.kafka.five.consumer.bootstrapServers=${spring.embedded.kafka.brokers}
spring.kafka.five.topic=mmc-topic-five
spring.kafka.five.group-id=group-consumer-five
spring.kafka.five.processor=fiveProcessor
spring.kafka.five.duplicate=true
spring.kafka.five.snakeCase=false
spring.kafka.five.consumer.auto-offset-reset=latest
spring.kafka.five.consumer.max-poll-records=10
spring.kafka.five.consumer.value-deserializer=org.apache.kafka.common.serialization.StringDeserializer
spring.kafka.five.consumer.key-deserializer=org.apache.kafka.common.serialization.StringDeserializer
## 并发配置
spring.kafka.five.container.threshold=2
spring.kafka.five.container.rate=1000
spring.kafka.five.container.parallelism=8

## json消息生产者
spring.kafka.five.enabled=true
spring.kafka.five.producer.name=fiveKafkaSender
spring.kafka.five.producer.bootstrap-servers=${spring.embedded.kafka.brokers}
spring.kafka.five.producer.key-serializer=org.apache.kafka.common.serialization.StringSerializer
spring.kafka.five.producer.value-serializer=org.apache.kafka.common.serialization.StringSerializer


3、编写测试类。


@Slf4j
@Service("fiveProcessor")
public class FiveProcessor extends MmcKafkaParallelAbstractProcessor<ParalleMsg, Void> {


    @Override
    protected Void handelBatchDatas(List<ParalleMsg> datas) {
        datas.forEach(x -> {
            log.info("handelBatchDatas one: {}", x);
        });

        return null;
    }
}

@Slf4j
@ActiveProfiles("dev")
@ExtendWith(SpringExtension.class)
@SpringBootTest(classes = {MmcMultiProducerAutoConfiguration.class, MmcMultiConsumerAutoConfiguration.class,
        FiveProcessor.class})
@TestPropertySource(value = "classpath:application-paralle.properties")
@DirtiesContext
@EmbeddedKafka(partitions = 1, brokerProperties = {"listeners=PLAINTEXT://localhost:9092", "port=9092"},
        topics = {"${spring.kafka.five.topic}"})
public class KafkaParalleMessageTest {


    @Value("${spring.kafka.five.topic}")
    private String fiveTopic;

    @Resource(name = "fiveKafkaSender")
    private MmcKafkaSender mmcKafkaSender;
    @Test
    void testDealMessage() throws Exception {

        Thread.sleep(2 * 1000);

        // 模拟生产数据
        produceMessage();

        Thread.sleep(10 * 1000);
    }

    void produceMessage() {


        for (int i = 0; i < 10; i++) {

            DemoMsg msg = new DemoMsg();
            msg.setRoutekey("routekey" + i);
            msg.setName("name" + i);
            msg.setTimestamp(System.currentTimeMillis());

            String json = JsonUtil.toJsonStr(msg);

            mmcKafkaSender.sendStringMessage(fiveTopic, "aaa", json);


        }
    }
}



5、运行一下,测试通过,可以看到能正常发送消息和消费。
在这里插入图片描述

五、小结

将本项目代码构建成starter,就可以大大提升我们开发效率,我们只需要关心业务代码的开发,github项目源码:轻触这里。如果对你有用可以打个星星哦。

  • 《搭建大型分布式服务(三十六)SpringBoot 零代码方式整合多个kafka数据源》
  • 《搭建大型分布式服务(三十七)SpringBoot 整合多个kafka数据源-取消限定符》
  • 《搭建大型分布式服务(三十八)SpringBoot 整合多个kafka数据源-支持protobuf》
  • 《搭建大型分布式服务(三十九)SpringBoot 整合多个kafka数据源-支持Aware模式》
  • 《搭建大型分布式服务(四十)SpringBoot 整合多个kafka数据源-支持生产者》
  • 《搭建大型分布式服务(四十一)SpringBoot 整合多个kafka数据源-支持亿级消息生产者》
  • 《搭建大型分布式服务(四十二)SpringBoot 无代码侵入实现多Kafka数据源整合插件发布》
  • 《搭建大型分布式服务(四十三)SpringBoot 多Kafka数据源发布到Maven中央仓库:让世界看到你的作品!》
  • 《搭建大型分布式服务(四十四)SpringBoot 无代码侵入实现多Kafka数据源:单分区提升至十万级消费速度!》

加我加群一起交流学习!更多干货下载、项目源码和大厂内推等着你

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2097102.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

15种高级RAG技术:从预检索到生成全面提升RAG效果

检索增强生成 &#xff08;RAG&#xff09; 是一种强大的技术&#xff0c;它将信息检索与生成式 AI 相结合&#xff0c;以产生更准确、上下文更丰富的响应。本文将探讨 15 种高级 RAG 技术&#xff0c;以提高生成式 AI 系统的输出质量和整体性能的鲁棒性。这样做使本文能够测试…

基于ROP漏洞挖掘与利用

支持一对一答疑的购买网址 通常情况下栈溢出可能造成的后果有两种&#xff0c;一类是本地提权另一类则是远程执行任意命令&#xff0c;通常C/C并没有提供智能化检查用户输入是否合法的功能&#xff0c;同时程序编写人员在编写代码时也很难始终检查栈是否会发生溢出&#xff0c…

华为 HCIP-Datacom H12-821 题库 (4)

有需要题库的可以看主页置顶 1.缺省情况下&#xff0c;广播型网络中运行 IS-IS 的路由器&#xff0c;DIS 发送 CSNP报文的周期为多少秒&#xff1f; A、10 B、3.3 C、30 D、40 答案&#xff1a;A 解析&#xff1a; 广播型网络中运行 IS-IS 的路由器&#xff0c;DIS 发送C…

sed awk 第二版学习(二)—— 正则表达式语法

目录 一、表达式 二、成行的字符 1. 反斜杠 2. 通配符 3. 编写正则表达式 4. 字符类 &#xff08;1&#xff09;字符的范围 &#xff08;2&#xff09;排除字符类 &#xff08;3&#xff09;POSIX 字符类补充 5. 重复出现的字符 6. 匹配单词 7. gres 替换脚本 8. …

PHP动物收容所管理系统-计算机毕业设计源码94164

摘 要 利用PHP语言和相关技术&#xff0c;设计和实现一个高效、可靠的动物收容所管理系统。该系统将提供系统用户、动物信息管理、领养申请处理、志愿者管理、医疗记录管理、捐赠信息、系统管理等功能&#xff0c;旨在促进动物收容所管理工作的便捷和透明化。本研究首先介绍了动…

HyperMesh教程从入门到精通:HyperMesh模型管理

1.4 模型管理 在HyperMesh中创建一个有效的求解输入文件时&#xff0c;模型管理功能是非常必要的。本节将介绍基本的模型管理方法&#xff0c;如单元和载荷归类、集合组装、重命名、删除、排序以及重新编号等。 本节将学习如何&#xff1a; 创建几何和组件归类。单元归类。组…

windows任务栏的空白清除

windows任务栏的空白出现一块一块的空白&#xff0c;看着好难受&#xff0c;下面介绍下怎么进行清除 在Windows操作系统中&#xff0c;任务栏出现空白区域可能是由多种原因引起的&#xff0c;比如图标被意外删除或隐藏、系统更新后的兼容性问题、或是某些程序错误地修改了系统设…

Java基于微信小程序的美食推荐小程序,附源码

博主介绍&#xff1a;✌Java徐师兄、7年大厂程序员经历。全网粉丝13w、csdn博客专家、掘金/华为云等平台优质作者、专注于Java技术领域和毕业项目实战✌ &#x1f345;文末获取源码联系&#x1f345; &#x1f447;&#x1f3fb; 精彩专栏推荐订阅&#x1f447;&#x1f3fb; 不…

全域运营哪家公司好?为什么很多人都选了它?

随着本地生活下半场的到来&#xff0c;以全域运营服务商为代表的新兴职业的未来前景和收益空间不断显现&#xff0c;使得越来越多的人有了加入全域运营服务商赛道的想法。不少创业者因此得到了新的启发&#xff0c;即通过搭建全域运营系统为全域运营服务商提供作业平台等各项服…

【Windows】windows server如何实现 ps aux | grep xxx 方式过滤出要看到的进程信息

在Windows Server中&#xff0c;可以使用PowerShell或命令提示符&#xff08;cmd.exe&#xff09;来实现类似Linux中ps aux | grep xxx的功能。具体来说&#xff0c;可以使用PowerShell的Get-Process命令来获取进程信息&#xff0c;并使用管道&#xff08;|&#xff09;和筛选命…

springboot学习11 (菜品缓存redis)

缓存逻辑分析 目的&#xff1a;减轻数据库压力每个分类下的菜品保存一份缓存数据数据库中菜品数据有变更时清理缓存数据 keyvaluedish_1string(...)dish_2string(...)dish_3string(...) GetMapping("/list")ApiOperation("根据分类id查询菜品")public Res…

C++国密SM2算法加解密的使用

目录 效果 在线校验 代码实现参考 项目 下载 效果 加密字符串:lxw 123abcD 2024-09-01:12:00加密后信息:042E82EE8ACE2BD56FA71DC6A0C34190627AA365F8EEE6261903BEE327A85EB5E1D6E78F2D79AD6F6DC9E45C0829625DC3165BB78BD897F99044A640F930653747939CF9D5A10C8216F945A559…

【Python】标准库的使用

文章目录 标准库日期计算字符串操作剑指offer 58&#xff0c;翻转单词顺序思路 leetcode 796&#xff0c;旋转字符串思路 leetcode 2255&#xff0c;统计是给定字符串前缀的字符串数目思路 文件查找工具 Python 通过模块来体现“库” 降低了程序猿的学习成本提高了程序的开发效…

一文带你玩转美国头条NewsBreak平台广告开户优势

一文带你玩转美国头条NewsBreak平台广告开户优势 一、NewsBreak是什么&#xff1a;美国资讯APP的璀璨新星 NewsBreak平台&#xff0c;一款在美国本土迅速崛起的资讯APP&#xff0c;以其1600万的日活跃用户和4000万的新闻订阅用户&#xff0c;成为众多出海企业关注的焦点。它不…

vue-virtual-scroller插件实现不等高表格虚拟滚动

对于大量的表格数据加载&#xff0c;如果我们全部加载不仅面临加载等待时间长&#xff0c;容易崩溃的问题&#xff0c;还有可能导致浏览器缓存数据量大而导致页面使用卡顿的情况。 所以我们使用虚拟滚动加载来优化这种情况&#xff0c;在这里我们使用插件vue-virtual-scroller来…

【Windows】windows powershell 如何实现tail -f xx.log 实时看日志的功能?

windows powershell 如何实现tail -f xx.log 实时看日志的功能&#xff1f; 在Windows PowerShell中&#xff0c;要实现类似于Linux中的tail -f xx.log实时查看日志文件的功能&#xff0c;可以使用Get-Content命令配合-Tail和-Wait参数。这将让你能够实时地查看日志文件的变化。…

前端面试资料集合

整理了前端面试相关资料&#xff0c;包含课程(5们)、面试题(道)、面试书籍(本)&#xff0c;希望对加大有用&#xff0c;欢迎收藏。 面试课程&#xff1a; 1、前端开发技术面试指南及真题讲解带你入坑BAT 这门课程主要针对想要进入BAT&#xff08;百度、阿里巴巴、腾讯&#…

(11)电调和电机

文章目录 前言 1 电机 2 无刷电机ESC 2.1 协议 2.2 使用BLHeli32或BLHeli-S配置固件的ESC 2.3 遥测 3 ESC接线和大型QuadPlane ESC问题 前言 ArduPilot 支持各种 ESC、电机和电子燃油系统。以下页面提供了最流行类型的设置说明。 ArduPilot 支持各种 ESC、电机和电子燃…

[oeasy]python0032_ 火星文字幕_os_操作系统的作用_time_sleep_延迟

火星文字幕_os_操作系统的作用_time_sleep_延迟 &#x1f94b; 回忆上次内容 这次我们了解了unix系统 在multics项目失败后汤普森和里奇 为了 玩游戏自制了 unix 这个世界从此有了 操作系统operating systemos 这个os有什么用吗&#xff1f;&#x1f914; 回忆shell执行…

Qt技巧(二)-滑动界面,轮询控件,循环操作控件

在Qt界面开发过程中&#xff0c;我们常常要对同类部件&#xff0c;具有同样功能的一系列部件进行操作&#xff0c;比如&#xff1a; 这个页面该怎么设计&#xff0c;中间的几个选项该怎么操作&#xff1f; 我们在主工程中添加一个设计师界面类&#xff0c;类名设置为“BrandF…