MySQL基础知识——MySQL日志

news2024/12/26 20:50:36

一条查询语句的执行过程一般是经过连接器、 分析器、 优化器、 执行器等功能模块, 最后到达存储引擎。

那么, 一条更新语句的执行流程又是怎样的呢?

下面我们从一个表的一条更新语句进行具体介绍:

假设这个表有一个主键ID和一个整型字段c:

mysql> create table T(ID int primary key, c int);

如果要将ID=2这一行的值加1, SQL语句就会这么写:

mysql> update T set c=c+1 where ID=2;

首先, 可以确定的说, 查询语句的那一套流程, 更新语句也是同样会走一遍。

更新语句的执行流程:

1)连接器连接数据库;

2)分析器通过词法分析和语法分析直到这是一条更新语句;

3)优化器决定1使用ID这个索引;

4)执行器负责具体执行,找到这一行,然后更新。

注:在一个表上有更新的时候, 跟这个表有关的查询缓存会失效, 所以这条语句就会把表T上所有缓存结果都清空。

与查询流程不一样的是,更新流程还涉及两个重要的日志模块:redo log(重做日志)和 binlog(归档日志),这也是本文的重点,下面对这两个模块做具体介绍。

重要日志模块:redo log


redo log是重做日志,保证crash-safe。

相关示例

不知道你还记不记得《孔乙己》 这篇文章, 酒店掌柜有一个粉板, 专门用来记录客人的赊账记录。 如果赊账的人不多, 那么他可以把顾客名和账目写在板上。 但如果赊账的人多了, 粉板总会有记不下的时候, 这个时候掌柜一定还有一个专门记录赊账的账本。

如果有人要赊账或者还账的话, 掌柜一般有两种做法:一种做法是直接把账本翻出来, 把这次赊的账加上去或者扣除掉;另一种做法是先在粉板上记下这次的账, 等打烊以后再把账本翻出来核算。在生意红火柜台很忙时, 掌柜一定会选择后者, 因为前者操作实在是太麻烦了。 首先, 你得找到这个人的赊账总额那条记录。 你想想, 密密麻麻几十页, 掌柜要找到那个名字, 可能还得带上老花镜慢慢找, 找到之后再拿出算盘计算, 最后再将结果写回到账本上。这整个过程想想都麻烦。 相比之下, 还是先在粉板上记一下方便。 你想想, 如果掌柜没有粉板的帮助, 每次记账都得翻账本, 效率是不是低得让人难以忍受?

同样, 在MySQL里也有这个问题, 如果每一次的更新操作都需要写进磁盘, 然后磁盘也要找到对应的那条记录, 然后再更新, 整个过程IO成本、 查找成本都很高。 为了解决这个问题, MySQL的设计者就用了类似酒店掌柜粉板的思路来提升更新效率。

而粉板和账本配合的整个过程,其实就是MySQL里经常说到的WAL技术, WAL的全称是WriteAhead Logging, 它的关键点就是先写日志, 再写磁盘(目的是保证crash-safe), 也就是先写粉板, 等不忙的时候再写账本。

具体来说, 当有一条记录需要更新的时候, InnoDB引擎就会先把记录写到redo log(粉板) 里面, 并更新内存, 这个时候更新就算完成了。 同时, InnoDB引擎会在适当的时候, 将这个操作记录更新到磁盘里面, 而这个更新往往是在系统比较空闲的时候做, 这就像打烊以后掌柜做的事。

如果今天赊账的不多, 掌柜可以等打烊后再整理。 但如果某天赊账的特别多, 粉板写满了, 又怎么办呢? 这个时候掌柜只好放下手中的活儿, 把粉板中的一部分赊账记录更新到账本中, 然后把这些记录从粉板上擦掉, 为记新账腾出空间。

与此类似, InnoDB的redo log是固定大小的, 比如可以配置为一组4个文件, 每个文件的大小是1GB, 那么这块“粉板”总共就可以记录4GB的操作。 从头开始写, 写到末尾就又回到开头循环写, 如下图所示。

  • write pos是当前记录的位置, 一边写一边后移, 写到第3号文件末尾后就回到0号文件开头。
  • checkpoint是当前要擦除的位置, 也是往后推移并且循环的, 擦除记录前要把记录更新到数据文件。
  • write pos和checkpoint之间的是“粉板”上还空着的部分, 可以用来记录新的操作。 如果write pos追上checkpoint, 表示“粉板”满了, 这时候不能再执行新的更新, 得停下来先擦掉一些记录, 把checkpoint推进一下。

redo log可以看做是一个基于文件的环形缓冲区(如下图所示),可以保证即使数据库发生异常重启,之前提交的记录都不会丢失,这个能力称为crash-safe;

要理解crash-safe这个概念, 可以想想我们前面赊账记录的例子。 只要赊账记录记在了粉板上或写在了账本上, 之后即使掌柜忘记了, 比如突然停业几天, 恢复生意后依然可以通过账本和粉板上的数据明确赊账账目。

redo log写入逻辑

1)redo log写入逻辑

  • 事务执行过程中,生成的redo log会先写到redo log buffer;(内存)
  • redo log buffer中的日志并不一定会立即持久化到磁盘;
  • 当结点宕机或者系统掉电后,redo log buffer中的日志丢失,但此时事务没有提交,binlog日志未落盘,丢失数据并不影响一致性;
  • InnoDB有一个后台线程,每隔1秒会把redo log buffer中的日志,flush到文件系统的page cache中,然后调用fsync持久化到磁盘;

注:redo log buffer是全局共用的。

2)redo log可能的状态

  • 存在redo log buffer中,在进程内存中,即图中红色部分;
  • 写到磁盘(flush),但未持久化(fsync),即在文件系统的page cache里,即图中的黄色部分;
  • 持久化到磁盘,对应的是hard disk,即图中的绿色部分。

3)innodb_flush_log_at_trx_commit配置(控制redo log的sync时机)

  • 设置为0,表示每次事务提交时都只是把redo log留在redo log buffer中;
  • 设置为1,表示每次事务提交时都将redo log直接持久化到磁盘;
  • 设置为2,表示每次事务提交时都只是把redo log写到page cache;(可能 1 秒后才会把 os cache 里的数据写入到磁盘文件里去)

4)redo log的fsync时机

  • 事务提交时:根据innodb_flush_log_at_trx_commit执行fsync;
  • 1s定时任务:后台线程每隔1s执行一次flush和sync;
  • redo log buffer使用率过半时:占用空间即将达到innodb_log_buffer_size的一半时,后台线程会主动flush,但不会sync;
  • 其它并行的事务提交时:顺带将这个事务的redo log buffer持久化到磁盘;则其中其它事务的日志也一并flush并sync到磁盘;

注:flush是把redo log buffer中的redo log刷到page cache,但不会持久化到磁盘;sync是把redo log buffer中的redo log持久化到磁盘。

刷脏

1)刷脏:No Stale + No Force流程的后半段,用于持久化已提交的数据;(WAL为前半段)

  • 脏页:当内存数据页跟磁盘数据页内容不一致的时候,我们称这个内存页为“脏页”;
  • 干净页:内存数据写入到磁盘后,内存和磁盘上的数据页的内容就一致了,称为“干净页”;
  • 刷脏:将脏页落盘的过程,即为刷脏;

2)刷脏时机

  • Redo log文件写满:系统停止更新操作,向前推进并记录检查点,腾出redo log空间;
  • 系统内存不足:当需要新的内存页,而内存不够用的时候,就要淘汰一些数据页,空出内存给别的数据页使用。如果淘汰的是“脏页”,就要先将脏页写到磁盘;
  • 定时刷脏:在空闲时,定时刷脏;
  • 正常关闭:正常关闭mysql时,需要将所有脏页flush到磁盘;

3)检查点的理解

  • 所有的Redo Log文件可以看成是一个环形缓冲区,红色区域为当前可写入区域,绿色区域为待刷脏区域;
  • 把checkpoint位置从CP推进到CP’需要将两个点之间的日志(浅绿色部分),对应的所有脏页都flush到磁盘上。
  • 之后,从write pos到CP’之间就是可以再写入的redo log的区域。

4)缓冲池内存使用策略:缓冲池中的内存页有三种状态

  • 还没有使用的;
  • 使用了并且是干净页;
  • 使用了并且是脏页;

InnoDB的策略是尽量使用内存,因此对于长时间运行的库来说,未被使用的页面很少。

5)数据页读取策略:当要读取的数据不在内存的时候,就需要到缓冲池中申请一个数据页。若没有未使用的数据页,则需要根据LRU算法淘汰

  • 如果要淘汰的是一个干净页,就直接释放出来复用;
  • 如果是脏页,就必须将脏页先刷到磁盘,变成干净页后才能复用;

6)InnoDB刷脏相关参数

  • innodb_io_capacity:磁盘的io能力,推荐设置成磁盘的IOPS;
  • innodb_max_dirty_pages_pct:脏页百分比,默认75%;引擎据此以及innodb_io_capacity控制刷脏的速率;
  • innodb_flush_neighbors:刷脏时,是否连带相邻的脏页一起刷新;1表示开启;

规范1:innodb_flush_neighbors参数可能导致刷脏时,刷新更多的脏页,从而使得查询语句执行更慢;建议使用SSD等IOPS较高的磁盘时,关闭该选项;

规范2:一个内存配置为128GB、innodb_io_capacity设置为20000的大规格实例,建议将redo log设置成4个1GB的文件;

测试磁盘IOPS:

fio -filename=$filename -direct=1 -iodepth 1 -thread -rw=randrw -ioengine=psync -bs=16k -size=500M-numjobs=10 -runtime=10 -group_reporting -name=mytest 

重要日志模块:binlog


binlog是归档日志,保证数据可恢复,实现主从复制。

binlog写入逻辑

事务执行过程中,先把日志写到binlog cache,事务提交的时候,再把binlog cache写到binlog file中,并清空binlog cache。在这个过程中,系统给binlog cache分配了一片内存,线程私有,参数binlog_cache_size用于控制单个线程内binlog cache所占内存的大小。如果超过了这个参数规定的大小,就要暂存到磁盘。

注:

  • 一个事务的binlog是不能被拆开的,因此不论这个事务多大,也要确保一次性写入;
  • 每个线程有自己binlog cache,但是共用同一份binlog file;

flush和fsync

1)binlog flush:是指把binlog file flush到文件系统的page cache,并没有把数据持久化到磁盘,所以速度比较快;(掉电会丢数据)

2)binlog sync:执行fsync,将数据持久化到磁盘。一般情况下,我们认为fsync才占磁盘的IOPS;(掉电不丢数据)

3)sync_binlog配置:控制binlog sync的执行时机;

  • sync_binlog=0,每次提交事务都只flush,不执行fsync;
  • sync_binlog=1,每次提交事务都会执行fsync;
  • sync_binlog=N(N>1)的时候,表示每次提交事务都flush,但累积N次提交后才执行fsync;

注:在出现IO瓶颈的场景里,将sync_binlog设置成一个比较大的值,可以提升性能,但可能在掉电时丢失没有sync的binlog日志;

redo log和binlog的区别

1)redo log是InnoDB引擎特有的;binlog是MySQL的Server层实现的,所有引擎都可以使用;

2)redo log是物理日志,记录的是“在某个数据页上做了什么修改”;binlog是逻辑日志,记录的是执行语句的原始逻辑(即SQL语句),比如“给ID=2这一行的c字段加1 ”;

3)redo log是循环写的,空间固定会用完;binlog是可以追加写入的。“追加写”是指binlog文件写到一定大小后会切换到下一个,并不会覆盖以前的日志;

4)redo log用于保证crash-safe能力。innodb_flush_log_at_trx_commit这个参数设置成1的时候,表示每次事务的redo log都直接持久化到磁盘。(建议设置成1,保证异常重启后数据不丢失)

5)binlog用于保证可恢复性。 sync_binlog这个参数设置成1的时候,表示每次事务的binlog都持久化到磁盘。这个参数我也建议你设置成1,这样可以保证MySQL异常重启之后binlog不丢失。

update语句执行流程


有了对这两个日志的概念性理解, 我们再来看执行器和InnoDB引擎在执行这个简单的update语句时的内部流程。

  • 执行器先找引擎取ID=2这一行。 ID是主键, 引擎直接用树搜索找到这一行。 如果ID=2这一行所在的数据页本来就在内存中(此处内存是指InnoDB中的BuffPool), 就直接返回给执行器; 否则, 需要先从磁盘读入内存, 然后再返回。
  • 执行器拿到引擎给的行数据, 把这个值加上1, 比如原来是N, 现在就是N+1, 得到新的一行数据, 再调用引擎接口写入这行新数据。
  • 引擎将这行新数据更新到内存中, 同时将这个更新操作记录到redo log里面, 此时redo log处于prepare状态。 然后告知执行器执行完成了, 随时可以提交事务。
  • 执行器生成这个操作的binlog, 并把binlog写入磁盘。
  • 执行器调用引擎的提交事务接口, 引擎把刚刚写入的redo log改成提交(commit) 状态, 更新完成。

这里我给出这个update语句的执行流程图, 图中浅色框表示是在InnoDB内部执行的, 深色框表示是在执行器中执行的。

你可能注意到了, 最后三步看上去有点“绕”, 将redo log的写入拆成了两个步骤: prepare和commit, 这就是"两阶段提交"。

保证日志的一致性


两阶段提交

问:为什么必须有“两阶段提交”呢?

这是为了让redo log和binlog之间的逻辑一致。

由于redo log和binlog是两个独立的逻辑,如果不用两阶段提交,就无法保证两份日志的一致性;比如(仍然用前面的update语句来做例子, 假设当前ID=2的行, 字段c的值是0):

  • 先写redo log后写binlog,则redo log多数据。假设在redo log写完,binlog还没有写完,MySQL进程异常重启。redo log写完之后,系统即使崩溃,仍然能够把数据恢复回来,所以恢复后这一行c的值是1。由于binlog没写完就crash了,之后备份,存起来的binlog里面就没有这条语句。此时,如果要用binlog来恢复临时库的话,由于这个语句的binlog丢失,这个临时库就会少了这一次更新,恢复出来的这一行c的值就是0,与原库的值不同;
  • 先写binlog后写redo log,则binlog多数据。如果在binlog写完之后crash,由于redo log还没写,崩溃恢复以后这个事务无效,所以这一行c的值是0。但是binlog里面已经记录了“把c从0改成1”这个日志。所以,在之后用binlog来恢复的时候就多了一个事务出来,恢复出来的这一行c的值就是1,与原库的值不同;

可以看到, 如果不使用“两阶段提交”, 那么数据库的状态就有可能和用它的日志恢复出来的库的状态不一致。你可能会说, 这个概率是不是很低, 平时也没有什么动不动就需要恢复临时库的场景呀?

其实不是的, 不只是误操作后需要用这个过程来恢复数据。 当你需要扩容的时候, 也就是需要再多搭建一些备库来增加系统的读能力的时候, 现在常见的做法也是用全量备份加上应用binlog来实现的, 这个“不一致”就会导致你的线上出现主从数据库不一致的情况。

Crash Recovery逻辑

还用前面的update语句为例进行说明,update语句的执行流程图如下所示, 图中浅色框表示是在InnoDB内部执行的, 深色框表示是在执行器中执行的。

问:在update语句执行过程中,如果在时刻A、时刻B发生崩溃,分别会造成什么后果?

答:

1)时刻A:写入redo log 处于prepare阶段之后、写binlog之前,发生了崩溃(crash)。由于此时binlog还没写,redo log也还没提交,所以崩溃恢复的时候,这个事务会回滚;

2)时刻B:也就是binlog写完,redo log还没commit前发生crash:

  • 如果redo log里面的事务是完整的,也就是已经有了commit标识(说明binlog已写完且完整),则直接提交;
  • 如果redo log里面的事务只有完整的prepare(此时可能存在binlog不完整的情况),则判断对应的事务binlog是否存在并完整:
    • 如果binlog完整,则提交事务;
    • 否则,回滚事务;

组提交

1)双1配置:MySQL的“双1”配置,指的就是sync_binlog和innodb_flush_log_at_trx_commit都设置成 1;在双1配置下,一个事务完整提交前,需要等待两次刷盘,一次是redo log(prepare 阶段),一次是binlog;为了减少事务提交产生的IO,MySQL使用了组提交机制(group commit);

未完...后续接着看PPT

小结


问1:MySQL怎么知道binlog是完整的?

一个事务的binlog是有完整格式的:

1)statement格式的binlog,最后会有COMMIT;

2)row格式的binlog,最后会有一个XID event。

3)binlog-checksum用来验证binlog内容的正确性( MySQL >= 5.6.2 );

问2:redo log和binlog是怎么关联起来的?

它们有一个共同的数据字段,叫XID;

1)崩溃恢复的时候,会先扫描最近的binlog,获取所有已提交的XID列表;

2)之后按顺序扫描redo log;

  • 如果碰到既有prepare、又有commit的redo log,就直接提交;
  • 如果碰到只有parepare、而没有commit的redo log,就拿着XID去binlog找对应的事务;若有,则提交;反之,回滚;

问3:处于prepare阶段的redo log加上完整binlog,重启就能恢复,MySQL为什么要这么设计?

为了保证crash recovery的一致性;无论对主库,还是从库;

问4:redo log一般设置多大?

redo log太小的话,会导致很快就被写满,然后不得不强行刷redo log,这样WAL机制的能力就发挥不出来了;

所以,如果是现在常见的几个TB的磁盘的话,直接将redo log设置为4个文件、每个文件1GB;

问5:正常运行中的实例,数据写入后的最终落盘,是从redo log更新过来的还是从buffer pool更新过来的呢?

redo log并没有记录数据页的完整数据,所以它并没有能力自己去更新磁盘数据页,也就不存在“数据最终落盘,是由redo log更新过去”的情况;

1)如果是正常运行的实例,数据页被修改以后,跟磁盘的数据页不一致,称为脏页。最终数据落盘,就是把内存中的数据页写盘。这个过程,基本与redo log毫无关系;

2)在崩溃恢复场景中,InnoDB如果判断到一个数据页可能在崩溃恢复的时候丢失了更新,就会将它读到内存,然后让redo log更新内存内容。更新完成后,内存页变成脏页,就回到了第一种情况的状态;

注:加载数据页的时候是以page为单位,所以数据落盘的时候也是以page为单位。

问6:执行update语句以后,去执行hexdump命令直接查看ibd文件内容,为什么没有看到数据有改变呢?

这可能是因为WAL机制的原因。update语句执行完成后,InnoDB只保证写完了redo log、内存,可能还没来得及将数据写到磁盘;

问7:为什么binlog cache是每个线程自己维护的,而redo log buffer是全局共用的?

1)MySQL这么设计的主要原因是,binlog是不能“被打断的”(如果binlog cache是全局的,则可能会导致binlog交叉写入)。一个事务的binlog必须连续写,因此要整个事务完成后,再一起写到文件里;

2)而redo log并没有这个要求,中间有生成的日志可以写到redo log buffer中。redo log buffer中的内容还能“搭便车”,其他事务提交的时候可以被一起写到磁盘中;

3)binlog存储是以statement或者row格式存储的,而redo log是以page页格式存储的。page格式,天生就是共有的,而row格式,只跟当前事务相关;

问8:如果binlog写完盘以后发生crash,这时候还没给客户端答复就重启了。等客户端再重连进来,发现事务已经提交成功了,这是不是bug?

不是。实际上数据库的crash-safe保证的是:

1)如果客户端收到事务成功的消息,事务就一定持久化了;

2)如果客户端收到事务失败(比如主键冲突、回滚等)的消息,事务就一定失败了;

3)如果客户端收到“执行异常”的消息,应用需要重连后通过查询当前状态来继续后续的逻辑。此时数据库只需要保证内部(数据和日志之间,主库和备库之间)一致就可以了;

问9:sync_binlog和binlog_group_commit_sync_no_delay_count有什么区别?

1)sync_binlog = N:每个事务write后就响应客户端了。刷盘是N次事务后刷盘。N次事务之间宕机,数据丢失。

2)binlog_group_commit_sync_no_delay_count=N: 必须等到N个后才能提交。换言之,会增加响应客户端的时间。但是一旦响应了,那么数据就一定持久化了。宕机的话,数据是不会丢失的。该配置先于sync_binlog执行;

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1591757.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

vueRouter动态路由(实现菜单权限控制)

一、权限控制管理: 对于企业级的项目, 我们可能需要对项目做权限控制管理, 实现不同角色的用户登录项目根据所拥有的权限访问不同的页面内容,此时就需要使用到动态路由来对权限页面做限制。 【使用vue-router实现动态路由,达到实现菜单权限…

玩爆私域,和爱豆P图,每天几分钟 轻松日入300+【揭秘】

这个项目的亮点在于能够将你的照片与你喜欢的明星合成一张合影。这种合照在社交媒体上获得了相当高的点赞量。接着,我们可以通过引流和评论区互动,将感兴趣的粉丝转化为我们的微信好友,进而实现交易。你们可以查看我们的收益情况,…

matlab 安装 mingw64(6.3.0),OPENEXR

matlab安装openexr 1. matlab版本与对应的mingw版本选择2. mingw(6.3.0)下载地址:3. matlab2020a配置mingw(6.3.0)流程“4. matlab 安装openexr方法一:更新matlab版本方法二:其他博文方法方法三…

每日两题 / 3. 无重复字符的最长子串 84. 柱状图中最大的矩形(LeetCode热题100)

3. 无重复字符的最长子串 - 力扣(LeetCode) 双指针,l和r从字符串最左边开始,保存l和r之间的所有字符 移动r,若新加入的字符和已有字符重复,则不断移动l,直到l和r之间不出现重复字符 注意&#…

C语言【整数与浮点数的存储区别】

例题引入 #include <stdio.h> int main() {int n 9;float* pFloat (float*)&n;printf("n的值为&#xff1a;%d\n",n);printf("*pFloat的值为&#xff1a;%f\n",*pFloat);*pFloat 9.0;printf("num的值为&#xff1a;%d\n",n);print…

MySQL知识整理

MySQL知识整理 基础第一讲&#xff1a;基础架构&#xff1a;一条SQL查询语句是如何执行的&#xff1f;架构尽量减少长连接的原因和方案为什么尽量不要依赖查询缓存 索引第四讲&#xff1a;深入浅出索引&#xff08;上&#xff09;第五讲&#xff1a;深入浅出索引&#xff08;下…

4月12日重新安排行程

332.重新安排行程 332. 重新安排行程 - 力扣&#xff08;LeetCode&#xff09; 给你一份航线列表 tickets &#xff0c;其中 tickets[i] [fromi, toi] 表示飞机出发和降落的机场地点。请你对该行程进行重新规划排序。 所有这些机票都属于一个从 JFK&#xff08;肯尼迪国际机…

ArcGIS Desktop使用入门(三)图层右键工具——标注要素、将标注转换为注记

系列文章目录 ArcGIS Desktop使用入门&#xff08;一&#xff09;软件初认识 ArcGIS Desktop使用入门&#xff08;二&#xff09;常用工具条——标准工具 ArcGIS Desktop使用入门&#xff08;二&#xff09;常用工具条——编辑器 ArcGIS Desktop使用入门&#xff08;二&#x…

Traefik的EntryPoints是什么?

在探索 Traefik —— 这款极受欢迎的现代反向代理和负载均衡器时&#xff0c;理解其核心组件是非常重要的。其中&#xff0c;EntryPoints 是 Traefik 中一个关键概念&#xff0c;它直接关系到如何接收和处理进入的网络流量。&#x1f511;&#x1f6a6; 1. Traefik 的 EntryPo…

Git以及Gitlab的快速使用文档

优质博文&#xff1a;IT-BLOG-CN 安装git 【1】Windows为例&#xff0c;去百度下载安装包。或者去官网下载。安装过秳返里略过&#xff0c;一直下一步即可。丌要忉记设置环境发量。 【2】打开cmd&#xff0c;输入git –version正确输出版本后则git安装成功。 配置ssh Git和s…

前端开发攻略---Vue实现防篡改水印的效果。删除元素无效!更改元素属性无效!支持图片、元素、视频等等。

1、演示 2、水印的目的 版权保护&#xff1a;水印可以在图片、文档或视频中嵌入作者、品牌或版权所有者的信息&#xff0c;以防止未经授权的复制、传播或使用。当其他人使用带有水印的内容时&#xff0c;可以追溯到原始作者或版权所有者&#xff0c;从而加强版权保护。 身份识…

windows 更新显卡

下载网址&#xff1a;NVIDIA GeForce 驱动程序 - N 卡驱动 | NVIDIA 选择本地显卡的型号

spring高级篇(一)

1、ApplicationContext与BeanFactory BeanFactory是ApplicationContext的父级接口&#xff1a;&#xff08;citlaltu查看类关系图&#xff09; 在springboot的启动类中&#xff0c;我们通过SpringApplication.run方法拿到的是继承了ApplicationContext的ConfigurableApplicatio…

【前缀合】Leetcode 连续数组

题目解析 525. 连续数组 寻找一个子数组&#xff0c;这个子数组中包含相同数目的0和1&#xff0c;但是这个子数组需要最长的 算法讲解 只需在[0,i]寻找一段区间使得这一段区间的和也等于sum即可 细节问题&#xff1a;1. 这里的哈希表的value存的是下标&#xff0c;因为需要找…

ccframe系统的链路追踪,用户ID追踪的实现

需求 之前ccframe cloud V1用的是springcloud微服务&#xff0c;只需要在header将jwttoken一直传下去就没事&#xff0c;最近弄V2转dubbo发现用户id没有自动保存进数据库表。于是开始研究dubbo如何追踪&#xff0c;顺便把链路追踪ID的问题给一并解决掉。 理论 MDC MDC&…

TSINGSEE青犀AI智能分析网关V4吸烟/抽烟检测算法介绍及应用

抽烟检测AI算法是一种基于计算机视觉和深度学习技术的先进工具&#xff0c;旨在准确识别并监测个体是否抽烟。该算法通过训练大量图像数据&#xff0c;使模型能够识别出抽烟行为的关键特征&#xff0c;如烟雾、手部动作和口部形态等。 在原理上&#xff0c;抽烟检测AI算法主要…

跟TED演讲学英文:The dark side of competition in AI by Liv Boeree

The dark side of competition in AI Link: https://www.ted.com/talks/liv_boeree_the_dark_side_of_competition_in_ai Speaker:Liv Boeree Date: October 2023 文章目录 The dark side of competition in AIIntroductionVocabularyTranscriptSummary后记 Introduction Co…

微服务项目——谷粒商城

文章目录 一、项目简介&#xff08;一&#xff09;完整的微服务架构微服务划分图&#xff08;二&#xff09;电商模式1.B2B 模式2.B2C 模式3.C2B 模式4.C2C 模式5.o2o 模式2.谷粒商城 &#xff08;三&#xff09;项目技术&特色&#xff08;四&#xff09;项目前置要求 二、…

Vue3(二):报错调试,vue3响应式原理、computed和watch,ref,props,接口

一、准备工作调试 跟着张天禹老师看前几集的时候可能会遇到如下问题&#xff1a; 1.下载插件&#xff1a;Vue Language Features (Volar)或者直接下载vue-offical 2.npm run serve时运行时出现错误&#xff1a;Error: vitejs/plugin-vue requires vue (&#xff1e;3.2.13) …

基于java+springboot+vue实现的居家养老健康管理系统(文末源码+Lw)23-313

摘 要 传统办法管理信息首先需要花费的时间比较多&#xff0c;其次数据出错率比较高&#xff0c;而且对错误的数据进行更改也比较困难&#xff0c;最后&#xff0c;检索数据费事费力。因此&#xff0c;在计算机上安装智慧社区居家养老健康管理系统软件来发挥其高效地信息处理…