mysql一条更新语句是如何被执行的——带你了解mysql更新语句执行内部顺序

news2024/11/24 5:34:28

文章目录

  • 写在前面
  • 一、缓冲池 Buffer Poll
  • 二、Redo log
    • 1、磁盘寻址的过程
    • 2、redo log特点
  • 三、Undo log
  • 四、更新过程
  • 五、InnoDB总体架构
    • 1、内存结构
      • (1)Buffer Pool
      • (2)预读机制
      • (3)LRU算法
      • (4)Change Buffer 写缓冲
      • (5)Redo Log Buffer
    • 2、磁盘结构
      • (1)系统表空间 system tablespace
      • (2)独占表空间 file-per-table tablespaces
      • (3)通用表空间 general tablespaces
      • (4)临时表空间 temporary tablespaces
      • (5)Redo log
      • (6)undo log tablespace
    • 3、后台线程
    • 4、Binlog
      • (1)为什么需要两阶段提交?

写在前面

mysql一条查询语句是如何被执行的——带你了解mysql查询语句执行内部顺序

在数据库里面,update操作其实包括了更新、插入和删除。MyBatis源码中,Executor里面也只有doQuery和doUpdate方法,没有doDelete和doInsert方法。

更新流程和查询流程有什么不同呢?
基本流程其实是一致的,也就是说,它也要经过解析器、优化器的处理,最后交给执行器。

区别就在于拿到符合条件的数据之后的操作。

一、缓冲池 Buffer Poll

首先,对于InnoDB存储引擎来说,数据都是放在磁盘上的,存储引擎要操作数据,必须先把磁盘里面的数据加载到内存里面才可以操作。

这里就有个问题,是不是我们需要的数据多大,我们就一次从磁盘加载多少数据到内存呢?比如我们读6个字节。

磁盘IO的读写相对于内存的操作来说是很慢的。如果我们需要的数据分散在磁盘的不同的地方,那就意味着会产生很多次的IO操作。

所以,无论是操作系统也好,还是存储引擎也好,都有一个预读取的概念。也就是说,当磁盘上的一块数据被读取的时候,很有可能它附近的位置也会马上被读取到,这就叫做局部性原理。那么,我们干脆每次多读取一些,而不是用多少读多少。

InnoDB设定了一个存储引擎从磁盘读取数据到内存的最小的单位,叫做页。操作系统也有页的概念。操作系统的页一般是4k,而在InnoDB里面,这个最小的单位默认是16kb大小。如果要修改这个值的大小,需要清空数据重新初始化服务。

参考:https://dev.mysql.com/doc/refman/5.7/en/innodb-parameters.html#sysvar_innodb_page_size

还有一个问题,操作数据的时候,每次都要从磁盘读取到内存(再返回给Server),有没有办法可以提高效率?有,还是缓存的思想。把读取过的数据页缓存起来。

InnoDB设计了一个内存的缓冲区。读取数据的时候,先判断是不是在这个内存区域里面,如果是,就直接读取,然后操作,不用再次从磁盘加载。如果不是,读取后写到这个内存的缓冲区。

这个内存区域有个专属的名字,叫做Buffer Poll

修改数据的时候,也是先写入到buffer poll,而不是直接写到磁盘。内存的数据页和磁盘数据不一致的时候,我们把它叫做脏页

InnoDB里面有专门的后台线程把Buffer Pool的数据写入到磁盘,每隔一段时间就一次性地把多个修改写入磁盘,这个动作就叫做刷脏。

总结:Buffer Poll的作用是为了提高读写的效率

二、Redo log

由于脏刷不是实时的,如果Buffer Pool里面的脏页还没有刷入磁盘时,数据库宕机或者重启,这些数据就会丢失

怎么办?内存的数据必须要有一个持久化的措施。

为了避免这个问题,InnoDB把所有对页面的修改操作专门写入一个日志文件。如果有未同步到磁盘的数据,数据库在启动的时候,会从这个日志文件进行恢复操作(实现crash-safe)。我们说的事务的ACID里面的D(持久性),就是用它来实现的。

这个日志文件就是磁盘的redo log(重做日志)。
在这里插入图片描述
这个时候可能会有同学有疑问了:同样是写磁盘,为什么不直接写到db file里面去?为什么先写日志再写磁盘?写日志文件和写到数据文件有什么区别?

1、磁盘寻址的过程

我们先说一下磁盘寻址的过程(机械硬盘)。以下是一个磁盘的构造,磁盘的盘片不停地旋转,磁头会在磁盘表面画出一个圆形轨迹,这个叫做磁道。从内到外半径不同有很多磁道。然后又用半径线,把磁道分割成了扇区(两根射线之内的扇区组成扇面)。如果要读写数据,必须找到数据对应的扇区,这个过程就叫寻址。
在这里插入图片描述
如果我们所需要的数据是随机分散在磁盘上不同页的不同扇区中,那么找到相应数据需要等到磁臂旋转到指定的页,然后盘片寻找到对应的扇区,才能找到我们所需要的一块数据,依次进行此过程直到找完所有数据,这个就是随机IO,读取数据速度较慢。

假设我们已经找到了第一块数据,并且其他所需的数据就在这一块数据后边,那么就不需要重新寻址,可以依次拿到我们所需的数据,这个就叫顺序IO。

刷盘是随机IO,而记录日志是顺序IO(连续写),顺序IO效率 更高,本质上是数据集中存储和分散存储的区别。因此先把修改写入日志文件,在保证了内存数据的安全性的情况下,可以延迟刷盘时机,进而提升系统吞吐。

2、redo log特点

redo log位于/var/lib/mysql/目录下的ib_logfile0和ib_logfile1,默认2个文件,每个48M。

show variables like 'innodb_log%';

在这里插入图片描述
redo log的特点:

  • redo log是InnoDB存储引擎实现的,并不是所有存储引擎都有。支持崩溃恢复是InnoDB的一个特性。
  • redo log不是记录数据页更新之后的状态,而是记录的是“在某个数据页上做了什么修改”。属于物理日志。
  • redo log的大小是固定的,前面的内容会被覆盖,一旦写满,就会触发buffer pool到磁盘的同步,以便腾出空间记录后面的修改。

除了redo log之外,还有一个跟修改有关的日志,叫做undo log。redo log和undo log与事务密切相关,统称为事务日志。

三、Undo log

undo log(撤销日志或回滚日志)记录了事务发生之前的数据状态,分为insert undo log和update undo log。如果修改数据时出现异常,可以用undo log来实现回滚操作(保持原子性)。

可以理解为undo log记录的是反向的操作,比如insert会记录delete,update会记录update原来的值,跟redolog记录在哪个物理页面做了什么操作不同,所以叫做逻辑格式的日志。

show global variables like '%undo%';

在这里插入图片描述
redo log和undo log与事务密切相关,统称为事务日志。

四、更新过程

有了redo log和undo log,我们来总结一下一个更新操作的流程。

update user set name = 'zhangsan' where id=1;
  • 1、事务开始,从内存(buffer poll)或磁盘(data file)取到包含这条数据的数据页,返回给Server的执行器。
  • 2、Server的执行器修改数据页的这一行数据的值为zhangsan。
  • 3、记录name=lisi(原值)到undo log。
  • 4、记录name=zhangsan到redo log。
  • 5、调用存储引擎接口,记录数据页到buffer pool(修改name=zhangsan)。
  • 6、事务提交。

五、InnoDB总体架构

在这里插入图片描述

1、内存结构

Buffer Pool主要分为3个部分:Buffer Pool、Change Buffer、Adaptive Hash Index,另外还有一个(redo)log buffer。

(1)Buffer Pool

Buffer Pool缓存的事页面信息,包括数据页、索引页。

Buffer Pool默认大小是128M(134217728字节),可以调整。

-- 查看系统变量
show variables like '%innodb_buffer_pool%';
-- 查看服务器状态,里面有很多buffer pool相关的信息
show status like '%innodb_buffer_pool%';

这些参数都可以在官网查到详细的含义,用搜索功能。
https://dev.mysql.com/doc/refman/5.7/en/server-system-variables.html
在这里插入图片描述
内存缓冲池写满了怎么办?InnoDB用LRU算法来管理缓冲池(链表实现,不是传统的LRU,分成了young和old),经过淘汰的数据就是热点数据。

(2)预读机制

首先,InnoDB的数据页并不是都是在访问的时候才缓存到buffer pool的。
InnoDB有一个预读机制(read ahead)。也就是说,设计者认为访问某个page的数据的时候,相邻的一些page可能会很快被访问到,所以先把这些page放到buffer pool中缓存起来。

官方文档:https://dev.mysql.com/doc/refman/5.7/en/innodb-performance-read_ahead.html

这种预读的机制又分为两种类型,一种叫线性预读(异步的)(Linear read-ahead)。为了便于管理,InnoDB中把64个相邻的page叫做一个extent(区)。如果顺序地访问了一个extent的56个page,这个时候InnoDB就会把下一个extent(区)缓存到buffer pool中。

顺序访问多少个page才缓存下一个extent,由一个参数控制:

show variables like 'innodb_read_ahead_threshold';

第二种叫做随机预读(Random read-ahead),如果bufferpool已经缓存了同一个extent(区)的数据页的个数超过13时,就会把这个extent剩余的所有page全部缓存到buffer pool。

但是随机预读的功能默认是不启用的,由一个参数控制:

show variables like 'innodb_random_read_ahead';

很明显,线性预读或者异步预读,能够把可能即将用到的数据提前加载到buffer pool。肯定能提升IO的性能,所以是一种非常有用的机制。

但是预读肯定也会带来一些副作用,就是导致占用的内存空间更多,剩余的空闲页更少。如果说buffer pool size不是很大,而预读的数据很多,很有可能那些真正的需要被缓存的热点数据被预读的数据挤出buffer pool淘汰掉了。下次访问的时候又要先去磁盘。

怎么让这些真正的热点数据不受预读的数据的影响呢?就需要使用LRU机制。

(3)LRU算法

传统的LRU算法,可以使用Map+链表实现。value存的是在链表中的地址。

在这里插入图片描述
首先,InnoDB中确实使用了一个双向链表,LRU list。但是这个LRU list放的不是data page,而是指向缓存页的指针。

如果写buffer pool的时候发现没有空闲页了,就要从buffer pool中淘汰数据页了,它要根据LRU链表的数据来操作。

InnoDB的LRU,将LRU list分成了两部分,靠近head的叫做new sublist,用来放热数据(我们把它叫做热区)。靠近tail的叫做old sublist,用来放冷数据(我们把它叫做冷区)。中间的分割线叫做midpoint。也就是对buffer pool做一个冷热分离。

在这里插入图片描述
所有新数据加入到buffer pool的时候,一律先放到冷数据区的head,不管是预读的,还是普通的读操作。所以如果有一些预读的数据没有被用到,会在old sublist(冷区)直接被淘汰。
放到LRU list以后,如果再次被访问,都把它移动到热区的head。
如果热区的数据长时间没有被访问,会被先移动到冷区的head部,最后慢慢在tail被淘汰。

在这里插入图片描述
在默认情况下,热区占了5/8的大小,冷区占了3/8,这个值由innodb_old_blocks_pct控制,它代表的是old区的大小,默认是37%也就是3/8。

innodb_old_blocks_pct的值可以调整,在5%到95%之间,这个值越大,new区越小,这个LRU算法就接近传统LRU。

如果这个值太小,old区没有被访问的速度淘汰会更快。

到这,预读的问题,通过冷热分离LRU算法解决了,还有没有其他问题呢?
我们先把数据放到冷区,用来避免占用热数据的存储空间。但是如果刚加载到冷区的数据立即被访问了一次,按照原来的逻辑,这个时候我们会马上把它移动到热区。

假设这一次加载然后被立即访问的冷区数据量非常大,比如我们查询了一张几千万数据的大表,没有使用索引,做了一个全表扫描。或者,dump全表备份数据,这种查询属于短时间内访问,后面再也不会用到了。

如果短时间之内被访问了一次,导致它们全部被移动到热区的head,它会导致很多热点数据被移动到冷区甚至被淘汰,造成了缓冲池的污染。

我们得想一个办法,对于加载到冷区然后被访问的数据,设置一个时间窗口,只有超过这个时间之后被访问,我们才认为它是有效的访问。

InnoDB里面通过innodb_old_blocks_time这个参数来控制,默认是1秒钟。也就是说1秒钟之内被访问的,不算数,待在冷区不动。只有1秒钟以后被访问的,才从冷区移动到热区的head。

这样就可以从很大程度上避免全表扫描或者预读的数据污染真正的热数据。

还有没有优化空间呢?
为了避免并发的问题,对于LRU链表的操作是要加锁的。也就是说每一次链表的移动,都会带来资源的竞争和等到。从这个角度上来说,如果要进一步提升InnoDB LRU的效率,就要尽量地减少LRU链表的移动。

比如,把热区一个非常靠近head的page移动到head,有没有这个必要呢?所以InnoDB对于new区还有一个特殊的优化:
如果一个缓存页处于热数据区域,且在热数据区域的前1/4区域(注意是热数据区域的1/4,不是整个链表的1/4),那么当访问这个缓存页的时候,就不用把它移动到热数据区域的头部;如果缓存页处于热区的后3/4区域,那么当访问这个缓存页的时候,会把它移动到热区的头部。

内存缓冲区对于提升读写性能有很大的作用。那么问题来了:当需要更新一个数据页时,如果数据页在Buffer Pool中存在,那么就直接更新就好了。否则的话就需要从磁盘加载到内存,再对内存的数据页进行操作。也就是说,如果没有命中缓冲池,至少要产生一次磁盘IO,有没有优化的方式呢?

这个时候就要用到Change Buffer 写缓冲

(4)Change Buffer 写缓冲

Change Buffer是Buffer Pool的一部分。

如果这个数据页不是唯一索引,不存在数据重复的情况,也就不需要从磁盘加载索引页判断数据是不是重复(唯一性检查)。这种情况下可以先把修改记录在内存的缓冲池中,从而提升更新语句(Insert、Delete、Update)的执行速度。

这一块区域就是Change Buffer。5.5之前交Insert Buffer插入缓冲,现在也能支持delete和update。

最后把Change Buffer记录到数据页的操作叫做merge。什么时候发生merge?有几种情况:在访问这个数据页的时候,或者通过后台线程、或者数据库shut down、redo log写满时触发。

如果数据库大部分索引都是非唯一索引,并且业务是写多读少,不会在写数据后立刻读取,就可以使用Change Buffer(写缓冲)。

可以通过调大这个值,来夸大Change的大小,以支持写多读少的业务场景。

show variables like 'innodb_change_buffer_max_size';

Change Buffer占Buffer Pool的臂力,默认是25%。

(5)Redo Log Buffer

Redo Log也不是每一次都直接写入磁盘,在Buffer Pool里面有一块内存区域(Log Buffer)专门用来保存即将要写入日志文件的数据,默认16M,它一样可以节省磁盘IO。
在这里插入图片描述

show variables like 'innodb_log_buffer_size';

需要注意:redo log的内容主要是用于崩溃恢复。磁盘的数据文件,数据来自buffer pool。redo log写入磁盘,不是写入数据文件。

那么,log buffer什么时候写入log file?
在我们写入数据到磁盘的时候,操作系统本身是有缓存的。flush就是把操作系统缓冲区写入到磁盘。

log buffer写入磁盘的时机,由一个参数控制,默认是1.

show variables like 'innodb_flush_log_at_trx_commit';

在这里插入图片描述
在这里插入图片描述
刷盘越快,越安全,但是也会越消耗性能。

2、磁盘结构

表空间可以看做是InnoDB存储引擎逻辑结构的最高层,所有的数据都存放在表空间中。InnoDB的表空间分为5大类。

(1)系统表空间 system tablespace

在默认情况下InnoDB存储引擎有一个共享表空间(对应文件/var/lib/mysql/ibdata1),也叫系统表空间。

InnoDB系统表空间包含InnoDB数据字典和双写缓冲区,Change Buffer和Undo Logs,如果没有指定file-per-table,也包含用户创建的表和索引数据。

  • undo在后面介绍,因为也可以设置独立的表空间。
  • 数据字典:由内部系统表组成,存储表和索引的元数据(定义信息)。
  • 双写缓冲(InnoDB的一大特性):InnoDB的页和操作系统的页大小不一致,InnoDB页大小一般为16K,操作系统页大小为4K,InnoDB的页写入到磁盘时,一个页需要分4次写。
    在这里插入图片描述
    如果存储引擎正在写入页的数据到磁盘时发生了宕机,可能出现页只写了一部分的情况,比如只写了4K,就宕机了,这种情况叫做部分写失效(partial page write),可能会导致数据丢失。
show variables like 'innodb_doublewrite';

这个时候可能会有同学就问了,我们不是有redo log吗?但是有个问题,如果这个页本身已经损坏了,用它来做崩溃恢复是没有意义的。所以在对于应用redo log之前,需要一个页的副本。如果出现了写入失效,就用页的副本来还原这个页,然后再应用redo log。这个页的副本就是double write,InnoDB的双写技术。通过它实现了数据页的可靠性。

跟redo log一样,double write由两部分组成,一部分是内存的double write,一部分是磁盘上的double write。因为double write是顺序写入的,不会带来很大的开销。

在默认情况下,所有的表共享一个系统表空间,这个文件会越来越大,而且它的空间不会收缩。

(2)独占表空间 file-per-table tablespaces

我们可以让每张表独占一个表空间。这个开关通过innodb_file_per_table设置,默认开启。

show variables like 'innodb_file_per_table';

开启后,则每张表会开辟一个表空间,这个文件就是数据目录下的ibd文件(例如/var/lib/mysql/cxf/user_innodb.ibd),存放表的索引和数据。

但是其他类的数据,如回滚(undo)信息,插入缓冲索引页、系统事务信息,二次写缓冲(Double write buffer)等还是存放在原来的共享表空间内。

(3)通用表空间 general tablespaces

通用表空间也是一种共享的表空间,跟ibdata1类似。

可以创建一个通用的表空间,用来存储不同数据库的表,数据路径和文件可以自定义。语法:

create tablespace test123 add datafile '/var/lib/mysql/test123.ibd' file_block_size=16K engine=innodb;

在创建表的时候可以指定表空间,用ALTER修改表空间可以转移表空间。

create table test123(id int) tablespace test123;

不同表空间的数据是可以移动的。

删除表空间需要先删除里面的所有表:

drop table test123;
drop tablespace test123;

(4)临时表空间 temporary tablespaces

存储临时表的数据,包括用户创建的临时表,和磁盘的内部临时表。对应数据目录下的ibtmp1文件。当数据服务器正常关闭时,该表空间被删除,下次重新产生。

(5)Redo log

磁盘结构里面的redo log,在前面已经介绍过了。

(6)undo log tablespace

undo log的数据默认在系统表空间ibdata1文件中,因为共享表空间不会自动收缩,也可以单独创建一个undo表空间。

3、后台线程

后台线程的主要作用是负责刷新内存池中的数据和把修改的数据页刷新到磁盘。后台线程分为:master thread、IO thread、purge thread、page cleaner thread。

  • master thread负责刷新缓存数据到磁盘并协调调度其他后台进程。
  • IO thread分为insert buffer、log、read、write进程。分别用来处理insert buffer、重做日志、读写请求的IO回调。
  • purge thread用来回收undo页。
  • page cleaner thread用来刷新脏页。

4、Binlog

除了InnoDB架构中的日志文件,MySQL的Server层也有一个日志文件,叫做binlog,它可以被所有的存储引擎使用。

binlog以事件的形式记录了所有的DDL和DML语句(因为它记录的事操作而不是数据值,属于逻辑日志),可以用来做主从复制和数据恢复。

跟redo log不一样,它的文件内容是可以追加的,没有固定大小限制。

在开启了binlog功能的情况下,我们可以把binlog导出成SQL语句,把所有的操作重放一遍,来实现数据的恢复。

binlog的另一个 功能就是用来实现主从复制,它的原理就是从服务器读取主服务器的binlog,然后执行一遍。

有了这两个日志之后,我们来看一下一条更新语句是怎么执行的(redo不能一次写入了):
在这里插入图片描述
例如一条sql:update user set name = ‘zhangsan’ where id = 1;

  • 1、先查询到这条数据,如果有缓存,也会用到缓存。
  • 2、把name改成zhangsan,然后调用引擎的API接口,写入这一行数据到内存,同时记录redo log。这时redo log进入prepare状态,然后告诉执行器,执行完成了,可以随时提交。
  • 3、执行器收到通知后记录binlog,然后调用存储引擎接口,设置redo log为commit状态。
  • 4、更新完成。

注意!1、先记录内存,再写日志文件;2、记录redo log分两个阶段;3、存储引擎和Server记录不同的日志;4、先记录redo,再记录binlog。

(1)为什么需要两阶段提交?

如果我们执行的是把name改成zhangsan,如果写完redo log,还没有写binlog的时候,MySQL重启了。

因为redo log可以在重启的时候用于恢复数据,所以写入磁盘的事zhangsan。但是binlog里面没有记录这个逻辑日志,所以这时候用binlog去恢复数据或者同步到从库,就会出现数据不一致的情况。

所以在写两个日志的情况下,binlog就充当了一个事务协调者。通知InnoDB来执行prepare或者commit或者rollback。

如果写入binlog失败,就不会提交。

简单的说,这里有两个写日志的操作,类似于分布式事务,不用两阶段提交,就不能保证都成功或者都失败。

在崩溃恢复时,判断事务是否需要提交:

  • 1、binlog无记录,redolog无记录:在redolog写之前crash,恢复操作:回滚事务。
  • 2、binlog无记录,redolog状态prepare:在binlog写完之前的crash,恢复操作:回滚事务。
  • 3、binlog有记录,redolog状态prepare:在binlog写完提交事务之前的crash,恢复操作:提交事务。
  • 4、binlog有记录,redolog状态commit:正常完成的事务,不需要恢复。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/745784.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

安装Ceph集群

安装Ceph集群 环境准备 CentOS 7.6 主机名IPRoleadmin192.168.182.128adminnode1192.168.182.129mon/mgr/osdnode2192.168.182.130osdnode3192.168.182.131osdclient192.168.182.132 所有节点修改主机名相互解析三台node节点添加大小5G以上硬盘关闭所有节点防火墙与SeLinux所…

机器学习 day25(softmax在神经网络模型上的应用,提高数据精度的方法)

输出层采用softmax 在识别手写数字的模型中,预测y只有两个结果,所以输出层采用sigmoid激活函数且只有一个神经元。若预测y有10个结果(0-9),该模型的前向传播计算方式与识别数字的模型完全相同,即隐藏层的…

【力扣算法07】之 2.两数相加 python

文章目录 问题描述示例1示例2示例 3提示 思路分析代码分析完整代码详细分析 完结 问题描述 给你两个 非空 的链表,表示两个非负的整数。它们每位数字都是按照 逆序 的方式存储的,并且每个节点只能存储 一位 数字。 请你将两个数相加,并以相同…

RabbitMQ常用工作模式+整合springboot

目录 1.MQ的相关概念 1.1 什么是MQ消息中间件 1.2 为什么使用MQ (1) 应用解耦 (2) 异步提速 (3)削峰填谷 1.3 使用MQ的劣势 1.4 常见的MQ组件​​​​​​​ 2. RabbitMQ的概述 2.1 RabbitMQ的概念 2.2 RabbitMQ的原理 2.3 安装RabbitMQ 3. RabbitMQ 的工作模式…

Swift与OC的混编

一些场面话 在一位前辈的博客里看到了关于iOS开发的各种语言的混编,浅浅学习一下怎么使用。不得不说语言混编的开发者是真的🐮🍺 Swift中用OC混编 新建一个Swift文件 创建一个OC的类 选择language为OC 继续往下走,会跳出这个界…

学无止境·MySQL⑤(存储函数、存储过程)

存储函数和存储过程试题 试题一1、创建一个可以统计表格内记录条数的存储函数 ,函数名为count_sch()2、创建一个存储过程avg_sai,有3个参数,分别是deptno,job,接收平均工资,功能查询emp表dept为30&#xff…

C/C++用socket实现简单的TCP文件传输

C/C:用socket实现简单的TCP文件传输 网络中进程之间如何进行通信socket是什么socket的基本操作socket()函数bind()函数listen()、connect()函数accept()函数recv()/send()函数close()函数 TCP的“三次握手”“三次握手”的作用 TCP的“四次挥手”四次挥手的一些注意事项 代码实…

【附3.7安装包】python安装包下载及安装(超详细)

python3.7链接:https://pan.baidu.com/s/1Ett3XBMjWhkVOxkOU8NRqw?pwdqz3l 提取码:qz3l 今日资源:Python 适用系统:WINDOWS ​ Python 3.7.0 软件介绍: Python是一款通用型的计算机程序设计语言,Pytho…

【Leetcode】19. 删除链表的倒数第N个节点

给你一个链表,删除链表的倒数第 n 个结点,并且返回链表的头结点。 进阶:你能尝试使用一趟扫描实现吗? 示例 1: 输入:head [1,2,3,4,5], n 2 输出:[1,2,3,5] 示例 2: 输入&…

有没有线上兼职的副业,在家可以做什么赚钱

线上兼职副业啊,确实是一个不错的副业选择!不过,我得提醒你,如果想要那种点一下鼠标就会下金币的神仙项目,这样的期待的话,那我只能告诉你,你可能走错地方了,在这帮不了你。 在线上赚…

LeetCode[470]用Rand7()实现Rand10()

难度:Medium 题目: 给定方法 rand7 可生成 [1,7] 范围内的均匀随机整数,试写一个方法 rand10 生成 [1,10] 范围内的均匀随机整数。 你只能调用 rand7() 且不能调用其他方法。请不要使用系统的 Math.random() 方法。 每个测试用例将有一个内部…

Python案例分析|基于模块的库存管理系统

本案例是通过一个多模块的库存管理系统案例,帮助大家深入了解基于模块的Python应用程序的开发流程。 01、库存管理系统API设计 本文实现一个简单的基于模块的库存管理系统。系统采用JSON文件来保存数据。产品信息设计为字典,键为sku_id(产品…

软件工程——第13章软件项目管理知识点整理(完结)

本专栏是博主个人笔记,主要目的是利用碎片化的时间来记忆软工知识点,特此声明! 文章目录 1.管理的定义? 2.软件项目管理地位?(重要性) 3.软件项目管理过程从一组项目计划活动开始&#xff0c…

怎么制作查询成绩的网页?这个不用代码的方法你用过没?

作为一名老师,与家长沟通交流是日常工作中重要的一部分。特别是每次考完试后,家长都急切地想了解孩子的成绩,以便能及时了解孩子的学习情况并给予适当的支持和指导。然而,为了保护学生的隐私,大部分学校不公开张榜学生…

字符设备驱动led灯实验

应用程序代码 #include<stdio.h> #include<string.h> #include <sys/types.h> #include <sys/stat.h> #include <fcntl.h> #include <unistd.h> #include <string.h>int main (int argc, const char *argv[]) {char buf[128] &quo…

马上就要到2023年秋招的黄金时期了,计算机专业面试究竟需要注意些什么?

说说自己&#xff0c;不算很突出。本人 17 年就读于一所普通的本科学校&#xff0c;20 年 6 月在三年经验的时候顺利通过校招实习面试进入大厂&#xff0c;现就职于某大厂安全实验室。 所以我还是比较有话语权的吧。 话不多说直接进入主题。 1.理论知识准备&#xff1a;复习计算…

驱动 day9 作业

要求&#xff1a; 现象 按下key1 led1灯的状态取反&#xff0c;number的值取反&#xff0c;然后应用程序打印从内核读到的number的值 应用程序test.c #include <stdio.h> #include <stdlib.h> #include <sys/types.h> #include <sys/stat.h> #incl…

Bash 有效电话号码

193 有效电话号码 给定一个包含电话号码列表&#xff08;一行一个电话号码&#xff09;的文本文件 file.txt&#xff0c;写一个单行 bash 脚本输出所有有效的电话号码。 你可以假设一个有效的电话号码必须满足以下两种格式&#xff1a; (xxx) xxx-xxxx 或 xxx-xxx-xxxx。&…

三维重建以及神经渲染中的学习(三)

三维重建以及神经渲染中的学习 公众号AI知识物语 本文内容为参加过去一次暑期课程学习时的笔记&#xff0c;浅浅记录下。 三维图形可控生成&#xff1a; 1&#xff1a;学习一个图形生成模型 2&#xff1a;具有可控三维变量&#xff1a;1物体形状&#xff1b;2物体位置&…

ScannerException: while scanning for the next token found character ‘@‘ 问题解决

问题描述 后端项目启动的时候报ScannerException: while scanning for the next token found character ‘‘ 异常&#xff0c;自己有些疑问&#xff0c;项目前一会都还可以&#xff0c;到报错的过程中&#xff0c;项目都没有动过。 解决办法 重新刷新项目就解决了。