MQ面试题之Kafka

news2024/12/24 10:06:18

前言

前文介绍了消息队列相关知识,并未针对某个具体的产品,所以略显抽象。本人毕业到现在使用的都是公司内部产品,对于通用产品无实际经验,但是各种消息中间件大差不差,故而本次选择一个相对较熟悉的Kafka进行详细介绍。

MQ面试题之Kafka

1. kafka架构
在这里插入图片描述

只需深入理解上图即可清楚Kafka的工作流程。

  1. 描述一下Kafka是什么,以及它的主要特点是什么?

Kafka是由Apache软件基金会开发的一个开源流处理平台,主要用于构建实时数据管道和流应用程序。它是一个高吞吐量的分布式发布订阅消息系统,可以处理消费者在网站中的所有动作流数据。Kafka的主要特点包括:
高吞吐量:Kafka可以处理数百万的消息每秒处理数以亿计的事件
可持久化:Kafka将消息持久化到磁盘,这样即使消费者离线,也可以继续消费消息。
分布式系统:Kafka是分布式的,可以在多个服务器上运行,这样可以提高系统的可用性和扩展性。
实时性:Kafka可以在毫秒级别处理消息,满足实时数据处理的需求。
容错性:Kafka集群可以容忍节点的故障,如果一个节点出现故障,其他节点可以继续工作。
Kafka广泛应用于各种场景,如日志收集、消息传递、流数据处理等。它可以作为数据流平台,将数据从一个系统传输到另一个系统,并在传输过程中进行实时处理。此外,Kafka还可以与Hadoop等离线数据处理系统集成,提供实时的数据管道。
3. Kafka如何实现数据的高效读取?
Kafka通过以下几种方式实现数据的高效读取:
顺序写磁盘:Kafka的生产者将数据写入到log文件中时,采用顺序写的方式,即一直追加到文件末端,这充分利用了磁盘的顺序读写性能。由于磁盘的机械机构特性,顺序写的速度远高于随机写,因此在读写磁盘时能显著提高性能。
零拷贝技术:Kafka实现了零拷贝技术,直接在操作系统层面完成文件的操作,避免了在应用层进行数据的复制和拷贝,减少了CPU和内存的使用,提高了数据读取的效率。
分段日志+索引文件:Kafka将topic中的大文件分成多个小文件段,每个文件段对应一个小的索引文件。通过索引信息,可以快速定位message和确定response的最大大小。这样可以提高读取操作的效率和响应速度。
Pagecache(页面缓存):Kafka将数据持久化到Pagecache中,这样在读取数据时可以直接在内存中进行,避免了磁盘I/O操作,提高了读取效率。同时,Kafka会尽量利用所有空闲内存(非JVM内存),避免GC负担
综上所述,Kafka通过多种方式实现了数据的高效读取,包括顺序写磁盘、零拷贝技术、分段日志+索引文件和Pagecache等。这些技术能够提高数据的读写速度和效率,满足了大规模数据处理和高并发访问的需求。

  1. Kafka中的ack机制有哪些级别,它们分别代表什么?

Kafka中的ack机制是用于确认消息已经被成功接收和处理的机制。以下是Kafka中的三种ack级别:
ack=0:这是最低级别的确认,代表生产者在发送消息后不需要等待来自服务器的任何确认。这意味着生产者无法知道消息是否成功存储在Kafka集群中,因此可靠性最低,但在处理大量数据时能提供最高的吞吐量。
ack=1:生产者会等待直到消息的领导者副本(Leader Replica)确认接收到消息。一旦领导者副本存储了消息,生产者会收到一个确认。这个级别在性能和数据可靠性之间提供了一个平衡,但如果领导者副本在确认后发生故障,而消息还未复制到追随者副本(Follower Replicas),则消息可能会丢失。
ack=-1(或all):生产者等待领导者副本和所有追随者副本都存储了消息后才进行确认。这种模式下,数据可靠性最高,但效率最低。如果存在追随者副本故障的情况,可能会造成数据重复。

  1. 解释Kafka中的偏移量概念,以及它的重要性是什么?

Kafka中的偏移量是用于标识每条消息在分区中的位置的数字。每个消息都有一个唯一的偏移量,由Kafka分配,并在分区中递增。偏移量可以用于回溯分区中的消息,也可以用于跟踪已经消费的消息
偏移量的重要性主要体现在以下几个方面:
保证消息可靠性Kafka通过保证消息的有序性来确保消息的可靠性,而偏移量是衡量消息有序性的重要指标。通过偏移量,Kafka能够追踪每条消息的位置,确保消息的可靠传输和正确处理。
避免消息重复消费:在消费消息时,如果偏移量设置不当,可能导致消费者重复消费同一消息。通过合理设置偏移量,可以有效避免这种情况的发生,确保每条消息只被消费一次。
实现消息的Exactly-Once语义:在某些场景下,需要确保消息只被处理一次,即Exactly-Once语义。通过偏移量,Kafka能够提供这种语义保证,确保每条消息在处理过程中只被处理一次。
追踪和监控:偏移量可以用于追踪和监控消费者进度,以及检查是否有缺失的消息。通过获取当前消费的偏移量,可以了解消费者所在的位置和进度,便于监控和管理。
容错机制:Kafka中的偏移量还可以作为实现消费者的容错机制的重要依据。当消费者发生故障时,可以从偏移量中恢复消费者的位置,继续从上次消费的位置开始消费,避免了数据的丢失或重复。
综上所述,Kafka中的偏移量是实现消息可靠传输和处理的关键因素,对于保证消息的有序性、避免消息重复、实现Exactly-Once语义、监控和追踪以及容错机制等方面都具有重要的作用。

  1. Kafka如何保证消息的顺序性?

Kafka通过以下两种方式来保证消息的顺序性:
单分区有序:Kafka只保证单partition有序,即生产者发送到同一个partition的所有消息都按照发送的顺序进行存储和消费。这样可以确保在单partition内部,消息是有序的
全局顺序:如果需要全局顺序,即所有消息按照发送的顺序被消费,可以设置topic只有一个partition。这样,无论哪个生产者发送消息,都只能发送到这一个partition中,从而保证了全局顺序。
在Kafka中,消费者按照其拉取消息的顺序来消费消息。消费者从broker拉取数据时,会按照broker中的存储顺序拉取数据。如果消费者按照相同的消费速度进行消费,那么拉取的顺序就是消费的顺序。这就保证了Kafka可以按照发送的顺序消费消息。
然而,如果Kafka需要保证多分区消息的全局顺序,就可能会出现问题。因为如果一个生产者同时向多个partition发送消息,由于网络延迟或者硬件性能的问题,可能会导致不同partition的消息接收时间不同,从而影响全局顺序。在这种情况下,可以使用一些编程技巧或者调整Kafka的配置参数来尽量保证全局顺序,但是不能完全保证。

  1. Kafka的数据持久性如何?

Kafka的数据持久性非常高,主要体现在以下几个方面:
数据持久化到磁盘:Kafka将数据持久化到磁盘上,而不是仅仅保存在内存中。这样即使在服务器突然断电或宕机的情况下,数据也不会丢失。Kafka使用了一种叫做“日志文件”的方式来进行数据存储,这种方式能够保证数据的可靠性和持久性。
消息持久化:Kafka的消息在发送之后会被持久化到磁盘上,保证了消息的可靠传输和持久化存储。Kafka通过将数据追加到日志文件中,实现了高效的顺序写磁盘,从而提高了数据持久化的速度和效率。
高可靠性:Kafka通过副本机制和分布式架构的设计,保证了数据的高可靠性。每个分区都有多个副本,主副本负责写操作,而其他副本作为备份。这样即使主副本出现问题,也可以从其他副本中恢复数据。
监控和日志记录:Kafka提供了完善的监控和日志记录功能,能够实时监控系统的运行状态和数据的流动情况。通过查看日志和监控数据,可以及时发现和解决潜在的问题,进一步保证了数据的持久性和可靠性。
综上所述,Kafka的数据持久性非常高,通过持久化到磁盘、消息持久化、高可靠性和监控日志记录等方式,保证了数据的可靠传输和持久化存储。这些特性使得Kafka在实时数据处理、日志收集、消息队列等领域得到了广泛应用。

  1. 如何在Kafka中配置和调整消费者的行为?

使用auto.offset.reset配置来重置消费者的偏移量。主要有三种策略:latest,从最大位点开始消费;earliest,从最小位点开始消费;none,不做任何操作,也即不重置。
调整消费者的session.timeout.ms和heartbeat.interval.ms配置。session.timeout.ms是消费者超时时间,默认是10秒。超过这个时间,Kafka会认为消费者挂掉了,并重新进行均衡。heartbeat.interval.ms是心跳监测时间,默认值是3秒。消费者每3秒发送一次心跳给协调者。
调整消费者的批量消费配置。可以通过设置ConcurrentKafkaListenerContainerFactory.setBatchListener(true)开启批量消费,并配置批量消费数ConsumerFactory.MAX_POLL_RECORDS_CONFIG = 100,默认为500。
调整消费者的线程池配置。消费者使用线程池进行批量消费数据,可以调整线程池大小来优化性能。
调整消费者的拉取大消息的配置。在拉取大消息时,需要注意控制拉取速度,修改配置:max.poll.records,默认值:500。如果单条消息超过1 MB,建议设置为1。

  1. Kafka的适用场景是什么?

日志收集:Kafka可以作为一个高效的日志收集器,收集分布在不同服务器上的大量日志数据,供后续分析和处理。
实时流处理:Kafka可以将实时流数据存储在队列中,供实时流处理框架(如Storm、Spark Streaming、Flink等)进行处理,支持数据实时处理和分析。
消息系统:Kafka可以作为消息系统使用,提供可靠的消息传输和处理,用于实现异步通信和解耦应用程序的组件。它比其他传统的消息系统有更好的吞吐量,内置分区、副本和故障转移等功能,可以处理大规模的消息。
网站活动跟踪:Kafka可以用于跟踪网站上的活动,如用户浏览、点击、搜索等,进行实时的统计和分析。
数据管道:Kafka可以用于搭建数据管道,将数据从不同的数据源(如数据库、文件系统等)传输到不同的数据目的地(如Hadoop、Elasticsearch等)。
分布式应用程序:Kafka可以用于分布式应用程序之间的数据通信,实现不同节点之间的数据共享和协作。
此外,Kafka还适用于需要异步处理、流量削峰等场景。例如,在处理订单状态时,如果后一个流程需要等待前一个流程执行完成后才能执行,可以使用Kafka将业务流程变成异步的,提高效率在流量削峰方面,Kafka可以控制客户端的流量,避免后端服务崩溃,保证服务的稳定性。
综上所述,Kafka适用于多种场景,特别是需要处理大规模数据、实时处理和分析、可靠消息传输和分布式处理等场景。

  1. 如何理解Kafka的分区和副本机制?

Kafka的分区和副本机制是其高可靠性和高吞吐量的重要保障。
分区是Kafka主题的一部分,它将主题中的数据分割为多个有序的、独立的片段,每个分区都有一个唯一的偏移量,通过这个偏移量,消费者可以按顺序读取和访问消息。分区可以提高数据的并行处理能力,因为可以同时在多个分区上处理数据。
Kafka的副本机制是为了实现数据的高可用性。每个分区都有多个副本,其中一个副本是主副本,其他副本是从副本。主副本负责接收所有的写入请求,并将数据同步复制到所有的从副本中。当主副本发生故障时,Kafka会自动从副本中选择一个新的主副本,以保证数据的可靠性和可用性。这种机制能够提高系统的容错能力,当某个Broker上的分区数据丢失时,仍然可以从其他Broker上的副本中获取数据。
总的来说,Kafka的分区和副本机制是其作为分布式流处理平台的重要特性,能够保证数据的可靠性和可用性,同时提高系统的吞吐量和处理能力。

  1. Kafka如何处理重复消费和数据丢失的问题?

消费者偏移量管理:Kafka维护了每个消费者在每个分区中消费的偏移量信息。消费者可以在消费消息后提交偏移量,表示已经成功处理了该消息。当消费者重新启动或发生故障时,可以使用已提交的偏移量来从上次消费的位置继续消费,避免重复消费。
幂等性处理:应用程序的消费逻辑可以设计为幂等的,即使消息被重复消费,也不会导致副作用。通过在应用程序逻辑中实现幂等性,即使消息重复消费,也不会产生错误结果。
消息去重技术:可以通过在应用程序中维护一个已处理消息的记录或使用外部存储(如数据库)来实现消息的去重。
唯一标识符:在每条消息中添加一个唯一标识符,并在应用程序中记录已经处理的标识符。
幂等性生产者:在消息的生产端实现幂等性,确保相同的消息重复发送时不会引起重复消费。
设置副本因子:副本因子是用于设置每个分区存储的副本数量。副本因子的值至少应该大于1,以保证数据的安全性。
配置参数设置:通过合理设置一些参数,如log.flush.interval.messages和log.flush.interval.ms,可以控制数据写入磁盘的时间间隔,从而避免数据丢失。
断电或机器故障时的处理当Kafka的数据一开始就存储在PageCache上时,定期flush到磁盘上。如果出现断电或机器故障等,PageCache上的数据会丢失。可以通过配置参数log.flush.interval.messages和log.flush.interval.ms来控制flush间隔,但并不能完全避免数据丢失。

  1. 你如何理解Kafka的消费者组?在实际项目中是如何使用它的?

Kafka的消费者组是其提供的一种消费者机制用于实现消息的并行处理和负载均衡。在消费者组中,可以有多个消费者实例,它们共享一个公共的ID即Group ID,并协调消费订阅主题的所有分区。每个分区只能由同一个消费者组中的一个Consumer实例来消费,保证了消息的单播。
在实际项目中,使用Kafka的消费者组可以实现以下功能:
并行处理:消费者组可以将消息分散到多个实例上进行并行处理,提高了处理速度和吞吐量。
负载均衡:通过将消息分配给多个实例进行消费,消费者组可以实现负载均衡,避免某个实例成为瓶颈。
容错处理:当某个实例发生故障时,消费者组会自动将其从消费组中剔除,并将该实例消费的分区分配给其他实例,保证了系统的可用性和可靠性。
消息一致性通过使用Kafka的幂等性和事务机制,可以实现消息的一致性消费和处理
在具体使用时,需要考虑以下几个方面:
确定合适的消费者数量:根据业务需求和资源情况,合理配置消费者数量,避免过多的消费者导致资源浪费或过少的消费者导致处理速度受限。
选择合适的负载均衡策略:根据业务需求和数据分布情况,选择合适的负载均衡策略,如轮询、随机等。
处理消费者的异常情况:在实际应用中,需要考虑到消费者的异常情况,如进程崩溃、网络故障等,并采取相应的措施进行容错处理。
监控和日志记录:对消费者组进行实时监控和日志记录,以便及时发现和处理问题。
综上所述,Kafka的消费者组是一种强大的机制,可以实现消息的并行处理、负载均衡、容错处理和消息一致性等功能。在实际项目中,需要根据业务需求和资源情况合理使用消费者组,以实现最佳的性能和可靠性。

  1. 在设计Kafka集群时需要考虑哪些因素?

硬件配置:包括服务器的CPU、内存、磁盘和网络等硬件配置。需要根据业务需求和数据规模来合理配置硬件资源,保证Kafka集群的性能和稳定性。
操作系统:Kafka可以在不同的操作系统上运行,如Linux、Windows等。选择合适的操作系统可以提高Kafka的性能和稳定性,同时需要考虑到操作系统的维护和管理的便利性。
网络架构:Kafka集群的网络架构包括网络拓扑结构、网络带宽、网络延迟等。需要考虑如何合理地设计网络架构,以保证Kafka集群的性能和稳定性。
数据存储:Kafka将数据存储在磁盘上,需要考虑如何合理地设计数据存储方案,以保证数据的可靠性和性能。
副本机制:Kafka提供了副本机制来保证数据的可靠性和可用性。需要考虑如何合理地设计副本方案,以保证数据的可靠性和性能。
监控和日志记录:需要考虑如何对Kafka集群进行实时监控和日志记录,以便及时发现和处理问题。
安全性:需要考虑如何保证Kafka集群的安全性,如数据加密、身份认证等。
扩展性:需要考虑如何保证Kafka集群的扩展性,以便在业务规模增长时能够快速地扩展集群规模。

  1. Kafka的性能优化有哪些方法?

调整Kafka Broker配置:根据实际业务需求和硬件配置,合理调整Kafka Broker的配置参数,如num.partitions、num.consumer-fetchers、replica.fetch.max.bytes等,可以提高Kafka的性能和吞吐量。
优化生产者和消费者代码:通过优化生产者和消费者的代码,可以减少不必要的处理和网络传输,提高Kafka的性能和吞吐量。例如,使用批量发送、减少序列化开销、使用压缩等。
选择合适的压缩算法:Kafka支持多种压缩算法,如Snappy、LZ4、GZIP等。根据实际业务需求和数据规模,选择合适的压缩算法可以提高Kafka的性能和压缩效率。
使用快速存储器:Kafka的数据存储在磁盘上,使用快速存储器可以提高数据读写的速度,从而提高Kafka的性能和吞吐量。
优化网络配置:网络延迟和带宽是影响Kafka性能的重要因素。通过优化网络配置,如调整Kafka Broker的网络缓冲区大小、减少网络延迟等,可以提高Kafka的性能和吞吐量。
分区策略优化:在设计Kafka主题时,需要考虑分区策略。合理的分区策略可以提高Kafka的性能和吞吐量。例如,根据业务需求将数据分散到多个分区中,避免某个分区过大或过小等情况。
使用合适的消费者模型:Kafka提供了多种消费者模型,如Simple Consumer、Consumer Groups等。根据实际业务需求和数据规模,选择合适的消费者模型可以提高Kafka的性能和可靠性。
监控和日志记录:通过实时监控Kafka集群的状态和日志信息,可以及时发现和解决性能瓶颈和问题。同时,定期进行性能测试和负载压力测试,可以帮助发现潜在的性能问题。
综上所述,Kafka的性能优化可以从多个方面入手,包括调整配置参数、优化生产者和消费者代码、选择合适的压缩算法、使用快速存储器、优化网络配置、分区策略优化、使用合适的消费者模型以及监控和日志记录等。需要根据实际业务需求和数据规模进行合理的优化,以提高Kafka的性能和可靠性。

15. kafka数据存储
在这里插入图片描述

认真理解上图即可。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1415540.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

Linux之安装配置CentOS 7

一、CentOS简介 CentOS(Community Enterprise Operating System,中文意思是社区企业操作系统)是Linux发行版之一,它是来自于Red Hat Enterprise Linux依照开放源代码规定释出的源代码所编译而成。由于出自同样的源代码&#xff0c…

综合案例 - 商品列表

文章目录 需求说明1.my-tag组件封装(完成初始化)2.may-tag封装(控制显示隐藏)3.my-tag组件封装(v-model处理:信息修改)4.my-table组件封装(整个表格)①数据不能写死&…

三角形中任一边小于其余两边之和

在△ABC沿AC做等长BC的延长线CD ∵ B C C D ∵BCCD ∵BCCD ∴ A C B C A D , ∠ D ∠ C B D ∴ACBCAD,∠D∠CBD ∴ACBCAD,∠D∠CBD ∵ ∠ D < ∠ A B D ∵∠D<∠ABD ∵∠D<∠ABD ∴ A B < A D ∴AB<AD ∴AB<AD ∴ A B < A C B C ∴AB<ACBC ∴…

obsidian阅读pdf和文献——与zotero连用

参考&#xff1a; 【基于Obsidian的pdf阅读、标注&#xff0c;构建笔记思维导图&#xff0c;实现笔记标签化、碎片化&#xff0c;便于检索和跳转】 工作流&#xff1a;如何在Obsidian中阅读PDF - Eleven的文章 - 知乎 https://zhuanlan.zhihu.com/p/409627700 操作步骤 基于O…

IMXULL驱动学习——通过总线设备驱动模型点亮野火开发板小灯【参考韦东山老师教程】

参考&#xff1a;【IMX6ULL驱动开发学习】11.驱动设计之面向对象_分层思想&#xff08;学习设备树过渡部分&#xff09;-CSDN博客 韦东山课程&#xff1a;LED模板驱动程序的改造_总线设备驱动模型 我使用的开发板&#xff1a;野火imx6ull pro 欢迎大家一起讨论学习 实现了总线设…

5.Hive表修改Location,一次讲明白

Hive表修改Loction 一、Hive中修改Location语句二、方案1 删表重建1. 创建表&#xff0c;写错误的Location2. 查看Location3. 删表4. 创建表&#xff0c;写正确的Location5. 查看Location 三、方案2 直接修改Location并恢复数据1.建表&#xff0c;指定错误的Location&#xff0…

LeetCode---122双周赛

题目列表 3010. 将数组分成最小总代价的子数组 I 3011. 判断一个数组是否可以变为有序 3012. 通过操作使数组长度最小 3013. 将数组分成最小总代价的子数组 II 一、将数组分成最小总代价的子数组I 这道题纯纯阅读理解题&#xff0c;关键在于理解题意。注意&#xff1a;第一…

C#常见内存泄漏

背景 在开发中由于对语言特性不了解或经验不足或疏忽&#xff0c;往往会造成一些低级bug。而内存泄漏就是最常见的一个&#xff0c;这个问题在测试过程中&#xff0c;因为操作频次低&#xff0c;而不能完全被暴露出来&#xff1b;而在正式使用时&#xff0c;由于使用次数增加&…

Win32 PE图标资源提取(ICO图标提取)

最近需要写一个提取EXE或者DLL图标资源的功能, 网上找了很久, 要么功能不好用, 最后结果如下: 1.很多是加载为HICON句柄后转换为图片保存, 全损画质..., 2.后来找了个还能用的, 详见 https://github.com/TortoiseGit/TortoiseGit/blob/master/src/Utils/IconExtractor.cpp …

Springboot+Netty搭建基于TCP协议的服务端

文章目录 概要pom依赖Netty的server服务端类Netty通道初始化I/O数据读写处理测试发送消息 并 接收服务端回复异步启动Netty运行截图 概要 Netty是业界最流行的nio框架之一&#xff0c;它具有功能强大、性能优异、可定制性和可扩展性的优点 Netty的优点&#xff1a; 1.API使用简…

深度强化学习(王树森)笔记03

深度强化学习&#xff08;DRL&#xff09; 本文是学习笔记&#xff0c;如有侵权&#xff0c;请联系删除。本文在ChatGPT辅助下完成。 参考链接 Deep Reinforcement Learning官方链接&#xff1a;https://github.com/wangshusen/DRL 源代码链接&#xff1a;https://github.c…

分布式id-雪花算法

一、雪花算法介绍 Snowflake&#xff0c;雪花算法是有Twitter开源的分布式ID生成算法&#xff0c;以划分命名空间的方式将64bit位分割成了多个部分&#xff0c;每个部分都有具体的不同含义&#xff0c;在Java中64Bit位的整数是Long类型&#xff0c;所以在Java中Snowflake算法生…

Linux 文件和文件夹的创建与删除

目录 一. 新建1.1 mkdir 新建文件夹1.2 touch 新建空文件1.3 vi命令创建文件1.4 > 和 >> 新建文件 二. 删除 一. 新建 1.1 mkdir 新建文件夹 -p&#xff1a;递归的创建文件夹&#xff0c;当父目录不存在的时候&#xff0c;会自动创建 mkdir -p test1/test2/test31.…

stable-diffusion-webui 汉化(中文界面)

大家好&#xff0c;我是水滴~~ 本文主要介绍 Stable Diffusion WebUI 是如何汉化的&#xff0c;文章详细的介绍汉化过程&#xff0c;并加上配图能够清晰的展示该过程。 Stable Diffusion WebUI 官方并没有出中文界面&#xff0c;需要通过安装插件来汉化&#xff0c;下面是详细…

工业空调转IEC104协议转换网关BE108

随着电力系统信息化建设和数字化转型的进程不断加速&#xff0c;对电力能源的智能化需求也日趋增强。健全稳定的智慧电力系统能够为工业生产、基础设施建设以及国防建设提供稳定的能源支持。在此背景下&#xff0c;高性能的工业电力数据传输解决方案——协议转换网关应运而生&a…

如何免费注册一个二级域名

目录 1.sitelutions账号注册 2.添加域名 3.做A记录或者cname解析步骤 1.sitelutions账号注册 注册网址:Sitelutions - Solutions for your site. All in one place. 打开首页点击右上角的红色 free sign up 来注册。注册只需邮箱即可。 首先填写注册信息,然后提交。提交之后…

Tortoise-tts Better speech synthesis through scaling——TTS论文阅读

笔记地址&#xff1a;https://flowus.cn/share/a79f6286-b48f-42be-8425-2b5d0880c648 【FlowUs 息流】tortoise 论文地址&#xff1a; Better speech synthesis through scaling Abstract: 自回归变换器和DDPM&#xff1a;自回归变换器&#xff08;autoregressive transfo…

算法38:子数组的最小值之和(力扣907题)----单调栈

题目&#xff1a; 给定一个整数数组 arr&#xff0c;找到 min(b) 的总和&#xff0c;其中 b 的范围为 arr 的每个&#xff08;连续&#xff09;子数组。 示例 1&#xff1a; 输入&#xff1a;arr [3,1,2,4] 输出&#xff1a;17 解释&#xff1a; 子数组为 [3]&#xff0c;[…

设计模式:工厂方法模式

工厂模式属于创建型模式&#xff0c;也被称为多态工厂模式&#xff0c;它在创建对象时提供了一种封装机制&#xff0c;将实际创建对象的代码与使用代码分离&#xff0c;有子类决定要实例化的产品是哪一个&#xff0c;把产品的实例化推迟到子类。 使用场景 重复代码 : 创建对象…

机器学习---可能近似正确(PAC)、出错界限框架

1. 计算学习理论概述 从理论上刻画了若干类型的机器学习问题中的困难和若干类型的机器学习算法的能力 这个理论要回答的问题是&#xff1a; 在什么样的条件下成功的学习是可能的&#xff1f; 在什么条件下某个特定的学习算法可保证成功运行&#xff1f; 这里考虑两种框架&…