完结马哥教育SRE课程--服务篇

news2024/11/23 22:44:46

文章目录

  • 一、MySQL
    • 1.数据库范式
    • 2.SQL结构化查询语言
    • 3.存储引擎InnoDB和MyISAM
    • 4.索引Index
    • 5.事务
    • 6.日志管理
    • 7.MySQL备份和恢复
    • 8.MySQL主从复制
    • 9.MySQL高可用MHA
  • 二、Redis
    • 1.NoSQL的特点
    • 2.Redis特性
    • 3.ROB和AOF
    • 4.Redis数据结构
    • 5.Redis主从复制
    • 6.Redis 哨兵机制
    • 7.Redis Cluster
  • 三、Nginx和HTTP及IO模型
    • 1.HTTP工作原理
    • 2.IO模型
    • 3.I/O 多路复用
    • 4.Nginx架构
    • 5.Nginx工作流程
    • 6.Nginx命令和信号
    • 7.Nginx核心配置
    • 8.Nginx反向代理
    • 9.Nginx负载均衡
    • 10.stream和upstream的结合
  • 四、Ansible
    • 1.Ansible 架构的主要组成部分
    • 2.Ansible常用模块
    • 3.Playbook
    • 4.Roles

本篇博客是继马哥教育SRE课程–基础篇之后总结的所有Linux服务篇内容。

一、MySQL

1.数据库范式

数据库范式的应用可以帮助减少冗余数据,保持数据一致性,但过度规范化可能导致性能下降,需要在设计时做出平衡。

王晓春老师说:学习范式不是为了完全遵守范式,而是为了更好的违反范式。

1.第一范式:1NF
    无重复的列,要求数据库表中的每个字段都是原子性的,即每个字段值不能再分割。
    换句话说,表的每列都是不可再分的基本数据项,每个字段只包含一个值。
    说明:第一范式(1NF)是对关系模式的基本要求,不满足第一范式(1NF)的数据库就不是关系数据库。

2.第二范式:2NF
    第二范式必须先满足第一范式,属性完全依赖于主键,要求表中的每个行必须可以被唯一地区分,
    通常为表加上每行的唯一标识主键PK,非PK的字段需要与整个PK有直接相关性,即非PK的字段不能依赖于部分主键。

3.第三范式:3NF
    满足第三范式必须先满足第二范式,非主键属性不依赖于其它非主键属性。
    即消除传递依赖,避免某些非主键字段依赖于其他非主键字段。
    第三范式要求一个数据表中不包含已在其它表中已包含的非主关键字信息,非PK的字段间不能有从属关系。

2.SQL结构化查询语言

SQL(Structured Query Language)是用于访问和操作关系型数据库的标准编程语言。SQL提供了一套用于查询、插入、更新和删除数据库数据的命令,并允许创建和管理数据库结构(如表、视图、索引等)。

SQL是关系型数据库的核心语言,被广泛应用于不同的数据库管理系统,如MySQL、PostgreSQL、Oracle、SQL Server等。

SQL的主要功能可分为以下几类:
  1.数据查询语言 (DQL):
      用于查询数据。
      主要命令:SELECT
      示例:SELECT * FROM employees WHERE department = 'IT';
  
  2.数据操作语言 (DML):
      用于对数据进行插入、更新和删除操作。
      主要命令:INSERT、UPDATE、DELETE
      示例:
        插入数据:INSERT INTO employees (name, department) VALUES ('John', 'HR');
        更新数据:UPDATE employees SET department = 'Finance' WHERE name = 'John';
        删除数据:DELETE FROM employees WHERE name = 'John';

  3.数据定义语言 (DDL):
      用于定义或修改数据库结构。
      主要命令:CREATE、ALTER、DROP
      示例:
        创建表:CREATE TABLE employees (id INT, name VARCHAR(50), department VARCHAR(50));
        修改表:ALTER TABLE employees ADD COLUMN salary DECIMAL(10, 2);
        删除表:DROP TABLE employees;
   
   4.数据控制语言 (DCL):
       用于定义数据库的访问权限。
       主要命令:GRANT、REVOKE
       示例:
         授予权限:GRANT SELECT ON employees TO user1;
         撤销权限:REVOKE SELECT ON employees FROM user1;
   
   5.事务控制语言 (TCL):
       用于管理数据库事务,保证数据操作的原子性、一致性、隔离性和持久性(ACID)。
       主要命令:COMMIT、ROLLBACK、SAVEPOINT
       示例:
         提交事务:COMMIT;
         回滚事务:ROLLBACK;
         设置保存点:SAVEPOINT save1;

3.存储引擎InnoDB和MyISAM

InnoDB和MyISAM各有优势,InnoDB适合需要事务、高并发和数据完整性要求高的应用,而MyISAM更适合以读为主、对数据一致性要求不高的应用。
在这里插入图片描述

4.索引Index

MySQL索引是提高查询效率的重要手段,但索引的创建和使用需要根据具体的业务场景进行合理规划。良好的索引设计可以大幅提高数据库的读写性能,减少系统负载,但索引过多或不合理的设计则可能带来负面的影响。
在这里插入图片描述

索引的类型
  1.普通索引(Normal Index)
      特性:最常见的索引类型。用于加速查询,但不对字段有任何约束条件。
      语法:创建普通索引时,可以使用CREATE INDEX或在表创建时指定。
      示例:
          CREATE INDEX idx_name ON employees(name);

  2.唯一索引(Unique Index)
      特性:类似于普通索引,但要求索引列中的所有值必须唯一,不能重复。可以包含空值(NULL)。
      语法:创建唯一索引时使用UNIQUE关键字。
      示例:
         CREATE UNIQUE INDEX idx_email ON employees(email);
  
  3.主键索引(Primary Key Index)
      特性:一种特殊的唯一索引,表中的每一行都必须有唯一的主键,且主键不能为NULL。每个表只能有一个主键索引。
      语法:主键索引在创建表时定义。
      示例:
          CREATE TABLE employees (
             id INT AUTO_INCREMENT PRIMARY KEY,
             name VARCHAR(50),
             department VARCHAR(50)
          );
  
  4.全文索引(Fulltext Index)
      特性:用于在文本字段上进行全文搜索。适用于较大的文本内容,如文章内容或描述字段。
      语法:可以在CHAR、VARCHAR和TEXT类型字段上创建。
      示例:
         CREATE FULLTEXT INDEX idx_content ON articles(content);
  
  5.复合索引(Composite Index)
      特性:由多个列组成的索引。在查询中可以根据复合索引的最左前缀原则来优化查询。
      语法:创建索引时指定多个字段。
      示例:
         CREATE INDEX idx_name_dept ON employees(name, department);

索引优缺点

索引的优缺点
  优点:
    1.加快查询速度:索引可以显著提升SELECT查询的速度,尤其是在大数据量的表中,可以避免全表扫描。
    2.提高排序性能:在带有ORDER BY或GROUP BY的查询中,索引可以加快排序操作。
    3.提高JOIN操作效率:索引可以加快多表联接(JOIN)时的数据匹配效率。
    
  缺点:
    1.占用存储空间:索引需要额外的存储空间,尤其是对大数据表,如果有多个索引,会占用大量磁盘空间。
    2.影响写操作性能:每当进行INSERT、UPDATE、DELETE操作时,MySQL不仅要修改数据表中的记录,还需要更新相关索引,增加了开销。
    3.维护成本高:索引的创建和维护需要额外的系统资源,尤其是对于频繁更新的表,索引的维护代价较高。

索引设计原则

索引的设计原则
  1.选择合适的字段创建索引:对经常出现在WHERE、JOIN、ORDER BY、GROUP BY中的列创建索引,可以有效提高查询效率。
  2.避免对小表和低基数的字段建立索引:对于小表或者列的取值较少(如布尔值)的字段,创建索引的效果有限。
  3.优先使用主键索引:主键列通常是唯一且不可为空的,因此主键索引不仅能提供唯一性保证,还能加快查询速度。
  4.使用复合索引优化多条件查询:对于多列查询,可以使用复合索引来避免多次单列索引扫描。
  5.避免过多的索引:虽然索引可以加快查询,但过多的索引会影响写操作的性能,并增加维护的复杂性。
  6.最左前缀原则:对于复合索引,查询时需要利用索引的最左列,否则MySQL不会使用该索引。

5.事务

MySQL事务(Transaction)是指将一组SQL操作作为一个原子单位执行的机制,确保数据的完整性和一致性。事务可以确保一系列操作要么全部执行成功,要么全部回滚,从而保持数据的正确性。

MySQL事务通过ACID特性确保数据库操作的可靠性和一致性,特别是在涉及多条语句或并发执行时,事务是确保数据正确性的重要机制。

MySQL事务的四大特性(ACID)
  1.原子性(Atomicity):
      事务中的所有操作要么全部成功,要么全部失败回滚。事务不允许部分操作成功,部分操作失败。

  2.一致性(Consistency):
      事务执行前后,数据库都保持一致状态。任何违反数据库规则的操作会导致事务失败并回滚。
  
  3.隔离性(Isolation):
      不同事务之间相互隔离,避免多个事务同时对相同数据的干扰。隔离级别决定了事务之间的可见性和相互影响。

  4.持久性(Durability):
      一旦事务提交,数据的修改就会永久保存到数据库中,即使发生系统崩溃也不会丢失。

MySQL事务的隔离级别

MySQL支持四种事务隔离级别,用来控制事务之间的可见性和并发性问题:

  1.读未提交(READ UNCOMMITTED):
      允许一个事务读取另一个事务未提交的数据,可能导致脏读。
      适用场景:极少使用,性能优先于一致性的情况。
  
  2.读已提交(READ COMMITTED):
      一个事务只能读取其他事务已提交的数据,避免脏读,但可能产生不可重复读。
      适用场景:需要避免脏读,但允许不可重复读的系统。
  
  3.可重复读(REPEATABLE READ)(InnoDB默认级别):
      在同一事务中多次读取相同数据时,结果始终一致,避免脏读和不可重复读,但可能产生幻读。
      适用场景:大多数系统,要求读取一致性。
  
  4.可串行化(SERIALIZABLE):
      强制事务顺序执行,完全隔离,避免所有并发问题,但并发性能较差。
      适用场景:一致性要求极高的系统,如金融系统。

事务使用示例

-- 开始事务
START TRANSACTION;

-- 执行一系列操作
UPDATE accounts SET balance = balance - 100 WHERE account_id = 1;
UPDATE accounts SET balance = balance + 100 WHERE account_id = 2;

-- 提交事务
COMMIT;

-- 如果中途发生错误,可以使用回滚
ROLLBACK;
事务的优点
  保证数据一致性:通过事务机制,可以确保复杂操作在出错时不会导致数据不一致。
  支持并发控制:通过隔离级别,可以在并发环境下保证数据正确性,减少事务之间的干扰。

6.日志管理

MySQL的日志管理是保障数据库稳定运行、数据安全及优化性能的重要机制。MySQL提供了多种类型的日志,用于记录数据库的各类活动,包括查询、数据修改、错误以及备份恢复等操作。理解和管理这些日志,对于数据库性能调优、故障排查和数据恢复至关重要。

MySQL日志管理通过记录系统运行中的关键事件、错误信息和数据变更,帮助管理员监控系统健康状态、优化数据库性能,并在出现问题时快速恢复数据。良好的日志管理对数据库的高效、安全运行至关重要。

1.错误日志(Error Log)

1.错误日志(Error Log)
    功能:记录MySQL服务启动和停止过程中的重要信息,以及运行期间发生的错误、警告信息。用于排查MySQL服务故障、启动失败  或运行中出现的问题。
  配置参数:log_error
    存储位置:默认为MySQL数据目录下,可以在配置文件中修改。
    示例: 
      [ERROR] InnoDB: Unable to open the underlying device

2.查询日志(General Query Log)

2.查询日志(General Query Log)
    功能:记录所有客户端发给MySQL服务器的SQL语句,无论语句是否执行成功。常用于调试或跟踪查询行为,但开启后会影响性能,因此通常在需要时临时开启。
    配置参数:general_log、general_log_file
    存储位置:默认为MySQL数据目录下,可以通过配置文件设置日志存储路径。
    示例:
      2024-09-15T12:34:56.123456Z  3 Query  SELECT * FROM employees;

3.慢查询日志(Slow Query Log)

3.慢查询日志(Slow Query Log)
    功能:记录执行时间超过设定阈值的SQL查询(慢查询),帮助定位性能瓶颈和优化数据库查询语句。
    配置参数:slow_query_log、long_query_time(默认10秒)设置慢查询日志的开启与慢查询时间阈值。
    存储位置:默认为MySQL数据目录下,可通过slow_query_log_file设置。
    示例:
      # Query_time: 12  Lock_time: 0.1  Rows_sent: 100  Rows_examined: 500000
        SELECT * FROM large_table;

4.二进制日志(Binary Log,binlog)

4.二进制日志(Binary Log,binlog)
    功能:记录对数据库执行的所有更改(如INSERT、UPDATE、DELETE),以及数据修改的具体细节。二进制日志用于数据恢复、主从复制(Replication)等场景。
    配置参数:log_bin、binlog_format(三种格式:STATEMENT、ROW、MIXED)
    存储位置:二进制日志文件以.bin结尾,存储在MySQL数据目录下。
    示例:
       # at 12345
      SET TIMESTAMP=1609459200;
      INSERT INTO employees (id, name) VALUES (1, 'Alice');

5.中继日志

5.中继日志(Relay Log)
    功能:在MySQL复制过程中从库使用的日志文件,从主库获取的二进制日志被复制到中继日志中,从库再根据中继日志重放SQL语句。主要用于主从复制中的数据同步。
    配置参数:relay_log设置中继日志的开启与路径。
    示例:
      # at 67890
      SET TIMESTAMP=1609459300;
      UPDATE employees SET name='Bob' WHERE id=1;

6.InnoDB事务日志(Redo Log 和 Undo Log)

InnoDB事务日志(Redo Log 和 Undo Log)
  功能:
    Redo Log:用于记录事务提交前的修改数据,帮助崩溃恢复时重做提交的事务,确保数据一致性。
    Undo Log:记录事务操作前的数据,用于实现事务的回滚功能,确保事务的原子性。
  配置参数:innodb_log_file_size、innodb_log_buffer_size等控制日志文件大小和缓冲区。
  示例:
    InnoDB: Starting to apply redo log ...

日志作用

日志的作用
  1.故障排查:通过错误日志、查询日志,管理员可以快速定位数据库运行中的错误、警告和异常情况。
  2.性能调优:通过慢查询日志,开发者可以识别并优化性能低效的SQL查询,减少查询时间,提高数据库性能。
  3.数据恢复:二进制日志是数据恢复的关键工具,尤其是在崩溃或误操作后,可以通过回放二进制日志恢复丢失的数据。
  4.主从复制:二进制日志和中继日志是MySQL复制(Replication)机制的基础,支持将主库的操作同步到从库,实现高可用性和读写分离。

日志管理的配置与优化

日志管理的配置与优化
  1.日志文件位置与大小:
      日志文件可能会迅速变大,占用磁盘空间。因此,建议将日志文件存储在一个单独的磁盘分区上,以避免数据库数据与日志文件竞争I/O资源。
      可以通过设置expire_logs_days来自动删除过期的二进制日志。

  2.日志轮转:
      MySQL支持日志文件的轮转机制,即定期将现有日志文件归档并创建新的日志文件。这有助于限制日志文件的大小并减少磁盘空间的占用。
     可以通过FLUSH LOGS命令手动进行日志轮转。

  3.二进制日志格式选择:
      根据业务场景选择合适的二进制日志格式(STATEMENT、ROW、MIXED)。在高并发写操作较多的场景下,ROW格式通常能提供更细粒度的操作日志,适合主从复制。
  
  4.慢查询阈值设置:
      通过合理设置long_query_time,可以更准确地捕捉到那些执行时间较长的查询,优化数据库性能。

7.MySQL备份和恢复

MySQL的备份和恢复是保障数据安全和完整性的重要手段,尤其是在数据丢失、损坏或系统故障时。MySQL提供多种备份方式和工具,以满足不同场景下的备份需求。常见的备份方法有物理备份和逻辑备份,恢复则是基于备份的数据来还原数据库的状态。

MySQL备份方式

1.逻辑备份:

1.逻辑备份:
    特点:导出数据库中的数据和结构,以SQL语句或其他格式存储。常用工具如mysqldump。
    优点:可以跨平台使用,备份文件相对小,适合小型数据库和结构备份。
    缺点:备份和恢复速度较慢,尤其对于大型数据库,数据量大时性能较差。
    工具和方法:
      mysqldump:将数据库或表导出为SQL脚本。
    示例: mysqldump -u root -p database_name > backup.sql
    恢复命令:mysql -u root -p database_name < backup.sql

2.物理备份

2.物理备份:
    特点:直接复制数据库的物理文件(如数据文件、日志文件),可以快速恢复到备份时的状态。常用工具如mysqlhotcopy和Percona XtraBackup。
    优点:备份和恢复速度快,尤其适合大规模数据库。
    缺点:依赖操作系统和存储系统,备份文件较大,跨平台支持较差。
    工具和方法:
     mysqlhotcopy:用于快速备份MyISAM存储引擎的表,依赖于文件系统的复制操作。
     Percona XtraBackup:支持InnoDB等引擎的在线热备份,允许在数据库运行时备份数据。

3.二进制日志备份:

3.二进制日志备份:
    特点:利用MySQL的二进制日志(binlog),记录所有数据更改操作。二进制日志可以用于增量备份,即在上次备份的基础上,仅备份之后的修改。
    优点:可以实现增量备份和恢复,可以与全备份结合使用,实现精确到某个时间点的数据恢复。
    示例:
       开启二进制日志:log_bin = /var/log/mysql/mysql-bin.log
       使用二进制日志恢复:mysqlbinlog mysql-bin.000001 | mysql -u root -p

4.快照备份:

快照备份:
  特点:使用存储系统的快照技术创建备份,例如LVM(逻辑卷管理)快照。
  优点:创建备份的速度非常快,适合大型数据库,尤其是在数据写入频繁的环境下。
  缺点:通常需要额外的存储系统支持,适合具有文件系统级别快照功能的环境。

备份策略

备份策略
  1.全量备份(Full Backup):
      备份所有的数据和结构。通常每隔一段时间做一次全量备份(如每天、每周),适合数据量较小或可接受较长备份时间的场景。

  2.增量备份(Incremental Backup):
      只备份自上次备份以来更改的数据,通常基于二进制日志。增量备份减少了备份文件的大小和时间,但恢复时需要依次应用多个备份文件。
      
  3.差异备份(Differential Backup):
      备份自上次全量备份以来更改的数据,比增量备份更快速,但恢复时需要先恢复全量备份,再应用差异备份。

8.MySQL主从复制

MySQL主从复制(Master-Slave Replication)是指将主数据库(Master)上的数据或操作实时或准实时地复制到从数据库(Slave)上,以实现数据的备份、读写分离、容灾等目的。主从复制是MySQL实现高可用性和可扩展性的重要机制,广泛用于大型系统的架构中。

MySQL主从复制的工作原理

MySQL主从复制的工作原理
  1.主库(Master)记录二进制日志(Binary Log):
      主库将所有数据修改的操作(如INSERT、UPDATE、DELETE)记录在二进制日志(binlog)中。
      二进制日志记录的是这些操作的SQL语句或行级的变更。
  
  2.从库(Slave)读取二进制日志(Relay Log):
      从库通过I/O线程从主库读取二进制日志,并保存为中继日志(Relay Log)。
  
  3.从库应用中继日志:
      从库的SQL线程从中继日志中读取数据变更操作,并依次在从库上执行,从而实现数据的同步。

主从复制的过程

主从复制的过程
  步骤1:主库记录数据变更
        当主库发生数据写入操作(如INSERT、UPDATE、DELETE),MySQL会将这些操作记录到二进制日志文件中。

  步骤2:从库拉取二进制日志
        从库的I/O线程连接到主库,主库将二进制日志的内容发送给从库,从库将这些日志保存到中继日志中。

  步骤3:从库应用中继日志
        从库的SQL线程读取中继日志,并按顺序执行其中的SQL语句或数据操作,使从库的数据状态与主库保持一致。

主从复制的类型

主从复制的类型
  1.异步复制(Asynchronous Replication):
      默认情况下,MySQL采用异步复制模式,
      主库在执行完SQL操作并写入二进制日志后立即返回,不需要等待从库确认复制完成。
      因此,如果主库发生故障,从库的数据可能会有一定的延迟。
  
  2.半同步复制(Semi-synchronous Replication):
      在半同步复制中,主库在写入二进制日志后,需要至少一个从库确认已接收到日志后,才向客户端确认操作完成。
      这样可以减少数据丢失的风险,但增加了延迟。
      
  3.组复制(Group Replication):
      MySQL 5.7引入了组复制模式,通过多主模式实现高可用性和故障恢复。
      所有节点都可以接收写操作,并通过一致性协议确保数据同步。

主从复制的用途

主从复制的用途
  1.读写分离:
      通过将读操作分配到从库,写操作仍在主库执行,可以缓解主库的压力,提高系统的读写性能。
      这种方式通常与负载均衡器结合使用。
 
  2.高可用性和容灾:
      如果主库发生故障,从库可以作为备用库来接管服务,从而提高系统的容灾能力。
      在某些场景下,可以通过手动或自动的故障切换(failover)来实现高可用性。
 
  3.数据备份:
      从库可以作为实时数据备份的一部分,以应对主库数据损坏或误操作等情况。
      在备份时可以将从库设置为只读,避免对主库的负担。
  
  4.数据分析和报表:
      从库可以用于执行复杂的查询和数据分析,避免这些操作影响主库的性能。

配置主从复制的基本步骤

配置主从复制的基本步骤
  1.配置主库:
      确保log-bin已启用,允许主库生成二进制日志文件。
      设置唯一的server-id,每个服务器必须有不同的server-id。
      示例配置:
        [mysqld]
        log-bin=mysql-bin
        server-id=1

  2.配置从库:
      为从库设置唯一的server-id。
      使用CHANGE MASTER TO命令指向主库,并指定主库的IP地址、端口、用户、二进制日志文件和位置。
      示例配置:
        [mysqld]
        server-id=2
  
   3.启动从库复制:
       执行START SLAVE;命令启动从库的复制进程。
       通过SHOW SLAVE STATUS\G命令检查复制状态。

主从复制的示例
假设主库的IP地址为192.168.1.1,从库的IP为192.168.1.2,我们要进行主从复制的设置。

1.在主库上创建复制用户:

CREATE USER 'replica'@'192.168.1.2' IDENTIFIED BY 'password';
GRANT REPLICATION SLAVE ON *.* TO 'replica'@'192.168.1.2';

2.在主库上查看二进制日志状态:

SHOW MASTER STATUS;

该命令会返回二进制日志文件的名称和位置,比如:

File: mysql-bin.000001
Position: 1234

3.在从库上配置复制:

CHANGE MASTER TO
    MASTER_HOST='192.168.1.1',
    MASTER_USER='replica',
    MASTER_PASSWORD='password',
    MASTER_LOG_FILE='mysql-bin.000001',
    MASTER_LOG_POS=1234;

4.启动从库复制:

START SLAVE;

5.检查复制状态:

SHOW SLAVE STATUS\G;

确保Slave_IO_Running和Slave_SQL_Running都显示为Yes,表示复制正常运行。

主从复制中的常见问题
  1.延迟(Replication Lag):
     在高并发环境中,从库执行主库的变更操作可能会滞后,导致从库的数据与主库不同步。
     可以通过优化从库性能或增加带宽来减少延迟。
     
  2.复制中断:
      复制可能由于网络问题、磁盘空间不足或二进制日志丢失而中断。
      此时可以通过SHOW SLAVE STATUS\G检查错误,并使用START SLAVE重启复制。
  
  3.数据不一致:
      如果主从库之间的数据发生不一致,可以使用工具如pt-table-checksum来检查并修复数据。

9.MySQL高可用MHA

MySQL MHA(Master High Availability Manager)是一个用于MySQL主从架构下的高可用解决方案,能够在主库(Master)发生故障时,自动完成主从切换,尽可能减少数据库的停机时间。MHA 主要应用于生产环境中的MySQL主从复制架构,旨在保证数据库的高可用性和数据的一致性。

MHA的工作原理
MHA通过监控主库的状态,在主库故障时,自动将一个从库提升为新的主库,并将其他从库指向新的主库。它不仅可以自动进行故障切换,还能最大限度地减少数据丢失。

主要组件:
  1.MHA Manager:运行在一台独立的管理节点上,负责监控和管理主从集群的状态,并在主库故障时执行故障切换。可以部署在主库或从库的节点上,也可以在独立的管理服务器上运行。

  2.MHA Node:运行在每个数据库节点(主库和从库)上,负责执行主库故障时的日志保存和数据恢复操作。它负责在主库故障时将从库的数据恢复到最近的状态,以减少数据丢失。

MHA故障切换流程

MHA故障切换流程
  1.主库故障检测:
      MHA Manager持续监控主库的状态,当检测到主库不可用时,MHA Manager启动故障切换流程。

  2.保存主库的二进制日志:
      在主库故障后,MHA Node尝试从主库中提取最后生成的二进制日志(binlog),
      即便主库已经不可用,MHA仍然可以从崩溃的主库保存未复制到从库的事务。
      
  3.选举新的主库:
      MHA从现有的从库中选取一个延迟最小的从库,将其提升为新的主库。
      这个过程包括停止其他从库的复制、将日志应用到从库、更新复制结构等。
 
  4.切换复制关系:
      将其他从库指向新的主库,确保所有从库能够继续进行数据同步,从而完成整个切换过程。
  
  5.自动恢复和报警:
      切换完成后,MHA会发送报警通知,并可以在一定条件下进行自动恢复操作。

MHA的优势

MHA的优势
  1.自动故障切换:
      MHA能够在主库宕机时自动切换到从库,最大限度减少人为干预和系统停机时间。
  
  2.数据丢失最小化:
      MHA通过提取崩溃主库的二进制日志,确保切换时从库的数据与主库保持最大限度的一致,减少数据丢失。
  
  3.简单易用:
      MHA的部署和配置较为简单,适合中小型MySQL集群使用。
 
  4.兼容性好:
      MHA支持MySQL的原生复制机制,兼容MySQL、MariaDB等常见数据库版本。
MHA的不足
  1.不支持多主架构:
      MHA只支持单主多从的主从架构,无法应用于多主复制环境。
  
  2.需要短暂停机时间:
      虽然MHA切换过程很快,但故障切换期间仍会有短暂的数据库停机时间,通常在几秒到几十秒之间。
      
  3.依赖二进制日志:
      MHA在主库故障后依赖二进制日志来恢复未同步的数据,因此需要确保主库的二进制日志正常开启并且可靠。
  
  4.额外的管理节点:
      MHA需要额外的管理节点来运行MHA Manager,增加了管理节点的负担。
MHA的应用场景
  1.高可用性需求:MHA适用于中小型企业和互联网业务中,对MySQL数据库有高可用性要求的场景。特别是在读多写少的场景下,通过主从复制结合MHA,可以保证故障时的自动恢复和快速切换。

  2.减少数据丢失:MHA能够最大限度减少数据丢失,因此适用于对数据一致性要求较高的场景。
MHA的基本配置步骤
  1.安装MHA:
      在管理节点和所有MySQL节点上安装MHA Manager和MHA Node。
 
  2.配置MySQL复制:
      配置主从复制,确保所有从库能够正常同步主库的数据。
  
  3.配置MHA Manager:
      在MHA管理节点上,配置主库和从库的信息,并启动MHA监控。
      
  4.测试故障切换:
      模拟主库故障,测试MHA是否能够正确检测故障并完成切换操作。

MHA为MySQL提供了一种自动化的故障切换和高可用性解决方案。它通过监控主库状态,并在主库故障时自动切换到从库,减少了停机时间和人为操作的复杂性。在中小规模的数据库系统中,MHA是一个高效的解决方案,但在更复杂的多主架构和跨地域环境中,可能需要选择其他更高级的高可用方案如MySQL Group Replication或Percona XtraDB Cluster。

二、Redis

1.NoSQL的特点

在这里插入图片描述

NoSQL的特点
  1.灵活的数据模型:
      NoSQL数据库不强制要求使用固定的表结构,可以存储多种格式的数据,
      如键值对、文档、列族、图等,能够灵活应对各种数据结构的变化。
  
  2.高扩展性:
      NoSQL数据库通常支持横向扩展(水平扩展),可以通过增加服务器节点来提升性能和存储能力,适用于分布式存储和大数据场景。
  
  3.高性能:
      NoSQL数据库针对特定的查询模式进行了优化,在处理大量数据时通常比关系型数据库更快。它们通过弱化一致性保证,提高了读写操作的速度。

  4.无固定的关系:
      与传统的关系型数据库不同,NoSQL不需要定义表之间的关系,也没有外键约束,允许数据冗余,换取更快的数据操作性能。

  5.弱一致性,最终一致性:
      NoSQL数据库通常遵循CAP定理中的可用性和分区容错性,牺牲了强一致性,
      采用“最终一致性”模型,即数据可能会有短暂的不同步状态,但最终会达到一致。

NoSQL的优缺点

NoSQL的优缺点
  优点:
     灵活的数据模型:NoSQL可以处理不规则、半结构化和无结构的数据。
     高并发性:针对大规模并发读写进行了优化,能够处理大量的并发请求。
     高扩展性:NoSQL数据库可以轻松地进行横向扩展,通过添加更多的节点来应对增长的数据量。
     快速查询:由于简化了事务和关系管理,NoSQL在高频读写操作中的表现通常优于传统关系型数据库。
     
  缺点:
     缺乏标准化:不同的NoSQL数据库有不同的查询语言、操作方式和功能,缺少标准化的查询语法。
     一致性问题:很多NoSQL数据库使用最终一致性模型,牺牲了强一致性,可能在某些场景下带来数据同步问题。
     有限的事务支持:不像关系型数据库那样支持复杂的事务管理,大多数NoSQL数据库对事务的支持较弱或没有支持。

NoSQL的应用场景

NoSQL的应用场景
  1.海量数据存储:
      NoSQL擅长处理大规模数据,适用于海量数据存储场景,如日志系统、物联网、用户行为数据分析等。

  2.实时数据处理:
      NoSQL数据库由于性能优秀,适合需要快速读取或写入数据的场景,如实时数据分析、社交网络等。
  
  3.内容管理系统(CMS):
      文档型数据库的灵活性非常适合CMS等需要处理多种类型的内容和元数据的系统。
  
  4.分布式架构:
      NoSQL数据库可以轻松在多台服务器上分布式存储和处理数据,适合云计算环境和分布式系统。

2.Redis特性

Redis 是一个开源的内存键值数据库,支持多种数据结构,因其高性能和丰富的功能特性被广泛用于缓存、实时数据处理等场景。

edis 的高性能、丰富的数据结构、多种持久化方式、分布式特性和灵活性,使其成为现代应用中广泛使用的缓存、消息队列、数据存储等系统的重要组成部分。

1.高性能
    内存存储:Redis 将数据存储在内存中,读写操作非常快,延迟通常在微秒级别。每秒可以处理数十万次请求,适用于对性能要求较高的场景。
    单线程模型:Redis 使用单线程的事件循环处理请求,避免了多线程环境下的锁竞争问题,从而提高了处理速度。

2.丰富的数据结构
  Redis 不仅支持简单的键值对存储,还支持多种复杂的数据结构:
    字符串(String):最基本的类型,用于存储文本或二进制数据。
    哈希(Hash):用于存储键值对集合,适合存储对象。
    列表(List):有序列表,支持从头或尾部插入、删除元素。
    集合(Set):无序集合,支持添加、删除、查找元素。
    有序集合(Sorted Set):带分数的有序集合,适合实现排行榜等场景。
    位图(Bitmaps)、HyperLogLog、**GEO(地理位置数据)**等特殊数据结构,用于特定场景下的数据处理。  

3.持久化
  Redis 提供了两种持久化机制来确保数据在服务器重启后不会丢失:
    RDB(Redis Database Backup):定时生成数据库的快照,将数据保存到磁盘上。
    AOF(Append Only File):以日志的形式记录每个写操作,能够更精确地恢复数据。
  可以根据需求选择不同的持久化方案,甚至可以关闭持久化,仅作为纯内存数据库使用。

4.发布/订阅(Pub/Sub)
  Redis 支持发布订阅模式,可以让客户端订阅某个通道,当有消息发布到该通道时,所有订阅者都会接收到消息。
  这种机制适合实现消息系统、实时通知等应用。

5.过期和淘汰机制
  Redis 支持为每个键设置过期时间,自动删除超过过期时间的数据。
  适用于缓存场景,通过键的自动过期来实现缓存的生命周期管理。
  此外,还支持内存淘汰策略,确保在内存不足时自动移除旧的数据。

Redis的典型应用场景

Redis的典型应用场景
  1.缓存系统:用于缓存热门数据,降低数据库负载,提升访问速度。
  2.消息队列:通过 Redis 列表或发布/订阅机制实现简单的消息队列功能。
  3.排行榜:通过有序集合实现排行榜系统。
  4.会话管理:用于存储用户会话信息,方便快速读取和管理。
  5.实时数据分析:使用 Redis 高效的读写性能处理实时数据流和统计。

3.ROB和AOF

Redis 提供了两种主要的持久化机制,用于在服务器重启后恢复数据:RDB(Redis Database Backup)和AOF(Append Only File)。它们各有优缺点,用户可以根据业务需求选择合适的持久化策略,甚至可以同时使用两者。

Redis 提供了 RDB 和 AOF 两种持久化机制,分别适合不同的应用场景。RDB 适用于定期备份、快速恢复,而 AOF 更适合对数据安全性要求较高的场景。通过选择合适的持久化方式,Redis 可以在性能和数据安全性之间达到良好的平衡。
在这里插入图片描述

4.Redis数据结构

这些数据结构使 Redis 能够应对各种复杂的业务场景,从简单的缓存到复杂的实时数据处理系统,极大地提高了应用的灵活性和效率。
在这里插入图片描述

1. 字符串(String)

1.字符串(String)
    特点:字符串是 Redis 最基本的数据类型,可以存储二进制安全的字符串、数字等数据,最大长度为 512 MB。
    使用场景:
      缓存简单的键值对,如用户信息、配置信息等。
      计数器:可以通过 INCR、DECR 来实现自动递增、递减操作。
    示例:
      SET key "value"
      GET key

2. 哈希(Hash)

2.哈希(Hash)
    特点:哈希是键值对的集合,类似于 Java 中的 Map,每个哈希可以包含多个键值对,适合存储对象的属性信息。
    使用场景:
      存储用户信息、商品信息等结构化数据,例如 user:100 存储用户 ID 为 100 的用户信息。
    示例:
       HSET user:100 name "Alice"
       HGET user:100 name

3. 列表(List)

3.列表(List)
    特点:列表是一个链表,按照插入顺序存储多个元素,支持从列表的两端进行操作,如插入、弹出等。列表可以用于实现队列、栈等结构。
    使用场景:
       实现消息队列、任务队列。
       社交平台中的时间线,存储用户动态。
    示例:
       LPUSH tasks "task1"
       RPUSH tasks "task2"
       LPOP tasks
       RPOP tasks

4. 集合(Set)

4.集合(Set)
    特点:集合是无序的元素集合,集合中的元素是唯一的,不允许重复。Redis 的集合基于哈希表实现,提供了高效的元素查找、插入、删除操作。
    使用场景:
      去重操作:例如存储唯一的标签、分类。
      交集、并集、差集等集合运算:例如社交网络中的共同好友、关注的人等。
    示例:
       SADD friends "Alice"
       SADD friends "Bob"
       SMEMBERS friends

5. 有序集合(Sorted Set)

5.有序集合(Sorted Set)
    特点:有序集合和集合类似,元素是唯一的,但每个元素都会关联一个分数(score),集合中的元素按照分数从小到大排序。有序集合适合用于实现排行榜等场景。
    使用场景:
       排行榜系统:例如游戏中的玩家积分排行榜。
       时间排序的数据存储:例如微博、文章发布的时间排序。
    示例:
       ZADD leaderboard 100 "Alice"
       ZADD leaderboard 200 "Bob"
       ZRANGE leaderboard 0 -1 WITHSCORES

5.Redis主从复制

Redis 主从复制(Replication)是一种用于实现数据备份、负载均衡和高可用性的机制。通过主从复制,Redis 可以将数据从主节点(Master)同步到一个或多个从节点(Slave),使得从节点能够复制主节点的数据,并保持实时同步。主从复制的核心目标是提高 Redis 的读性能和数据冗余,防止单点故障。

Redis 主从复制的基本原理
  1.主从角色:
      主节点(Master):负责处理所有的写操作,写入的数据会同步到从节点。
      从节点(Slave):只负责读操作,不会直接处理写请求。从节点复制主节点的数据,并且可以在主节点宕机时作为新的主节点提供服务。
      
  2.同步机制:
      全量复制(Initial Sync):当从节点第一次连接到主节点时,会触发一次全量复制。
      主节点会生成一个快照(RDB 文件),并将快照发送给从节点,从节点接收到后会将其加载到内存中,完成全量数据同步。
      
      增量复制(Partial Sync):在全量复制完成后,主节点只将后续的写操作通过命令流的方式发送给从节点,
      从节点根据这些命令不断更新自身的数据状态,实现增量同步。
  
  3.复制链:
      Redis 支持级联复制,即从节点可以作为另一个从节点的主节点。这种结构可以形成复制链,增强系统的扩展性。
  
  4.异步复制:
      Redis 的复制机制是异步的,这意味着主节点在将写操作发送给从节点之前,不需要等待从节点的响应。
      这种方式提升了写入性能,但存在短暂的数据不一致性风险(在主节点写入数据但还未同步到从节点时主节点宕机可能导致数据丢失)。

Redis 主从复制的工作流程

Redis 主从复制的工作流程
  1.从节点连接主节点:从节点通过 SLAVEOF 命令向主节点发送复制请求。
  2.全量同步:主节点将当前所有数据通过 RDB 方式发送给从节点,从节点接收到 RDB 文件后加载数据。
  3.增量同步:主节点会记录从节点未同步的写操作,并将这些操作通过命令流的方式实时发送给从节点。
  4.持续复制:从节点在连接主节点后,会持续监听并同步主节点的变化,确保数据的一致性。

Redis 主从复制的特点

Redis 主从复制的特点
  1.读写分离:
      在主从复制中,主节点负责处理写操作,从节点处理读操作。通过读写分离,可以提高系统的读性能。

  2.数据冗余:
      通过复制机制,从节点存储主节点的备份数据,提高了数据的冗余度,避免单点故障时数据丢失。
 
  3.高可用性:
      当主节点出现故障时,可以通过人工或者自动化的方式将某个从节点提升为新的主节点,从而实现系统的高可用性。

主从复制的配置

主从复制的配置
  1.配置从节点: 在 Redis 配置文件中配置从节点:slaveof <master-ip> <master-port>
      也可以在运行时使用命令:SLAVEOF <master-ip> <master-port>
      
    如果想取消主从关系,可以使用:SLAVEOF NO ONE
  
  2.配置持久化: 主从复制与 Redis 的持久化机制(RDB、AOF)可以结合使用。
      如果主节点崩溃且没有开启持久化,从节点可能无法完整恢复数据。
      因此,为了确保数据的一致性,建议在生产环境中开启持久化机制。  
主从复制的使用场景
  1.读扩展: 通过主从复制,多个从节点可以分担主节点的读取压力,从而提高 Redis 集群的读性能。

  2.数据备份: 通过从节点的复制,可以实现数据的冗余备份,从节点作为主节点的实时副本,在主节点故障时可以快速接管服务,保证数据的高可用性。

  3.故障转移: 在 Redis 集群中,如果主节点出现故障,从节点可以自动提升为主节点,继续对外提供服务,确保系统的高可用性。这通常结合 Redis Sentinel 或 Redis Cluster 实现。

Redis 主从复制的局限性
  1.数据延迟: 由于复制是异步的,从节点有可能滞后于主节点的最新数据,导致在极端情况下,
    某些写操作在从节点尚未同步之前主节点崩溃,会丢失部分数据。

  2.不支持自动故障转移: Redis 的主从复制本身不具备自动故障转移的能力,
    需要借助 Redis Sentinel 或 Redis Cluster 实现自动化的主从切换。

6.Redis 哨兵机制

Redis 哨兵机制(Sentinel)是 Redis 用于实现高可用性的关键组件,它通过监控 Redis 实例、自动故障切换、通知客户端等功能,确保 Redis 集群能够在主节点发生故障时仍然保持可用。Redis Sentinel 适用于主从复制架构,它能够在主节点宕机时,自动将从节点提升为新的主节点,并通知客户端连接到新的主节点。

Redis Sentinel 的主要功能

Redis Sentinel 的主要功能
  1.监控(Monitoring): 
      Sentinel 会持续监控主节点和从节点的运行状态,检测节点是否存活。如果 Sentinel 发现主节点不可用,就会进行自动故障转移。

  2.自动故障转移(Automatic Failover): 
      当Sentinel 发现主节点宕机,会从从节点中选出一个作为新的主节点,并将其他从节点重新配置为同步新的主节点。

  3.通知(Notification): 
      Sentinel 会向客户端发送消息,告知故障切换的发生,客户端可以通过这一机制更新连接到新的主节点。

  4.配置提供者(Configuration Provider): 
      Sentinel 作为客户端连接信息的提供者,客户端可以向 Sentinel 查询当前的主节点地址,动态连接到新的主节点。

Redis Sentinel 的工作原理

Redis Sentinel的工作原理
  1.节点监控:每个Sentinel节点通过INFO命令不断监控Redis 主节点和从节点的状态。
             Sentinel会定期向Redis节点发送PING命令,如果在一定时间内没有收到响应,Sentinel 就认为该节点可能存在故障。

  2.故障判定:如果多个Sentinel 在规定时间内都无法访问主节点,Sentinel 会通过投票机制确认主节点是否真的宕机。
            这种机制称为"主观下线"(Subjective Down,简称 SDOWN)。
            当多个 Sentinel 达成共识后,主节点被判定为"客观下线"(Objective Down,简称 ODOWN)。

  3.选举新主节点:当主节点被判定为 ODOWN 后,Sentinel会从现有的从节点中选择一个作为新的主节点。
      选举过程是通过 Raft 算法实现的,具有以下选择规则:
         1.拥有最新数据的从节点优先被选举。
         2.从节点的优先级通过 slave-priority 配置参数来设置,优先级高的从节点会被优先选为主节点。
         3.如果有多个从节点具有相同的优先级,则选择 ID 最小的从节点。
         
  4.故障切换:Sentinel会将新选出的从节点提升为主节点,并重新配置其他从节点,让它们开始同步新的主节点。
       同时,它会通知客户端新的主节点地址,以便客户端更新连接信息。

Redis Sentinel 的配置
为了使用 Sentinel,需要分别配置 Redis 节点和 Sentinel 节点。

Redis Sentinel 的配置
  1.Redis节点配置: 
      主从复制的Redis节点配置需要正常设置,主要使用slaveof命令或配置文件指定从节点。

  2.Sentinel节点配置: 
      需要创建Sentinel配置文件,配置文件通常包含以下内容:
        sentinel monitor mymaster 127.0.0.1 6379 2
        sentinel down-after-milliseconds mymaster 5000
        sentinel failover-timeout mymaster 60000
        sentinel parallel-syncs mymaster 1
    
    解释:
      sentinel monitor:定义需要监控的主节点,
                        mymaster 是主节点名称,
                        127.0.0.1 是主节点 IP 地址,6379 是端口,
                        2表示至少需要 2 个 Sentinel 认定主节点宕机才能进行故障转移。
      sentinel down-after-milliseconds:主节点多少毫秒无响应后会被判定为下线。
      sentinel failover-timeout:故障转移的超时时间,指定 Sentinel 进行故障转移的最大时间。
      sentinel parallel-syncs:在故障转移时,允许多少个从节点同时与新的主节点进行数据同步。

7.Redis Cluster

Redis Cluster 是 Redis 的分布式实现,旨在提供自动分区和高可用性。通过 Redis Cluster,数据可以自动分布在多个节点上,同时在节点故障时自动处理恢复工作,从而实现集群的扩展性和容错能力。

Redis Cluster 的主要特性

Redis Cluster 的主要特性
  1.分片存储(Sharding): 
      Redis Cluster 采用分片的方式将数据分布在多个节点上。
      每个 Redis 节点只存储整个数据集的一部分,通过分布式算法确定数据存放在哪个节点上。

  2.高可用性:
      Redis Cluster 支持节点冗余,当集群中的某个节点发生故障时,它的从节点可以自动接管,确保系统的高可用性。

  3.无中心化(No Single Point of Failure): 
      Redis Cluster 没有中心节点,每个节点都存储自己的数据和集群状态信息。
      客户端可以直接与任意节点通信,无需通过中央代理,从而避免了单点故障。

  4.自动故障转移(Failover): 
      Redis Cluster 支持故障转移机制,当主节点宕机时,它的从节点会自动提升为主节点,继续提供服务。

  5.弹性扩展(Scalability): 
      Redis Cluster 支持动态添加或删除节点,可以在不影响集群运行的情况下进行扩展或缩减,适应业务规模的增长。

Redis Cluster 的架构
Redis Cluster 通过将数据分为 16384 个哈希槽(Hash Slots) 来实现数据分区。每个节点负责其中一部分哈希槽,所有的 Redis 键通过哈希函数映射到其中一个哈希槽,然后由对应的节点存储。Redis Cluster 使用 CRC16 哈希函数对键进行哈希,然后对 16384 取模,确定该键所属的哈希槽。

Redis Cluster 通过分片存储和主从复制实现了自动化的数据分布和高可用性。它适用于需要处理大规模数据、高并发请求的应用场景。尽管存在一些一致性问题和客户端复杂性限制,但 Redis Cluster 仍然是 Redis 的核心分布式解决方案,能够提供高性能的分布式缓存服务。

主节点(Master):每个主节点负责管理部分哈希槽,存储数据。主节点是处理写请求的主要节点。

从节点(Slave):每个主节点可以有一个或多个从节点,从节点负责复制主节点的数据,用于冗余备份和故障转移。

Redis Cluster 的核心机制

Redis Cluster 的核心机制
  1.数据分片(Partitioning): 
      Redis Cluster 通过哈希槽将数据分片,不同的数据会被存储在不同的主节点上。
      客户端通过 Redis Cluster 节点的状态信息找到数据所在的节点。

  2.请求路由(Request Routing): 
      客户端可以向任意节点发送请求,该节点会根据哈希槽映射将请求转发到负责该数据的节点。
      为提高效率,Redis Cluster 客户端通常会缓存哈希槽与节点的对应关系,以减少路由查询。

  3.复制机制(Replication): 
      Redis Cluster 中每个主节点都可以有一个或多个从节点,从节点会复制主节点的数据,用于在主节点故障时进行故障转移。

  4.故障检测与转移(Failover): 
      Redis Cluster 中,节点之间通过 Gossip 协议相互通信,检测节点的存活状态。
      如果主节点宕机且失联,集群中的其他节点会通过投票机制选举出一个从节点接替该主节点的角色,完成故障转移。

  5.槽迁移(Slot Migration): 
      当集群中的节点发生扩展或收缩时,哈希槽可以在不同节点之间迁移。
      Redis Cluster 支持在线迁移数据槽,不会影响集群的正常运行。

Redis Cluster 的配置

Redis Cluster 的配置
  1.节点的基本配置: 配置 Redis Cluster 时,需要在每个 Redis 实例的配置文件中启用集群模式,并指定集群端口:
      cluster-enabled yes
      cluster-config-file nodes.conf
      cluster-node-timeout 5000
  
  2.创建集群: Redis Cluster 的节点数量需要至少 6 个节点(3 个主节点和 3 个从节点),以确保在节点故障时可以进行自动故障转移。可以通过 redis-cli 创建集群:
      redis-cli --cluster create <node1-ip>:<port> <node2-ip>:<port> <node3-ip>:<port> ... --cluster-replicas 1
      其中 --cluster-replicas 1 表示每个主节点分配一个从节点。
  
  3.集群通信: Redis Cluster 节点通过 Gossip 协议进行通信,定期交换集群状态信息。
    每个节点都保存有集群中其他节点的元数据信息,并通过这种方式确保集群的一致性和健康状态。

Redis Cluster 的优势

Redis Cluster 的优势
  1.高可用性: Redis Cluster 支持主从复制和自动故障转移,确保在主节点故障时,集群仍然可以正常提供服务。

  2.弹性扩展: Redis Cluster 支持动态添加和删除节点,可以在不停止服务的情况下进行扩展,以适应业务规模的增长。

  3.分布式存储: 数据被分片存储在多个节点上,可以利用多个节点的内存和计算资源,突破单个 Redis 实例的容量限制。
Redis Cluster 的局限性
  1.数据一致性问题: Redis Cluster 采用异步复制机制,在主节点故障时,部分未同步的数据可能丢失。因此,Redis Cluster 不是强一致性的,只保证最终一致性。

  2.客户端复杂度: Redis Cluster 客户端需要具备集群感知能力,以便根据哈希槽路由请求到正确的节点。如果请求的数据不在当前节点,客户端需要重定向请求。

  3.跨槽操作的限制: Redis Cluster 不支持跨槽的多键操作,除非所有的键都属于同一个哈希槽。这意味着某些多键事务操作、批量操作可能受限。
Redis Cluster 的应用场景
  1.海量数据场景: Redis Cluster 适合需要处理海量数据的场景,分片存储机制能够突破单节点的内存限制。

  2.高并发场景: 由于 Redis Cluster 的多节点架构,多个节点可以同时处理请求,大大提高了系统的吞吐量,适合高并发的应用场景。

  3.高可用要求的场景: Redis Cluster 通过主从复制和自动故障转移机制,确保集群中的某个节点发生故障时,系统仍然能够继续正常工作,非常适合需要高可用性的场景。

三、Nginx和HTTP及IO模型

1.HTTP工作原理

HTTP(HyperText Transfer Protocol,超文本传输协议)是用于在客户端和服务器之间通信的应用层协议,主要用于网页浏览和数据传输。它是无状态的、基于请求-响应模型的协议。

HTTP的工作机制简单高效,适用于各种网络环境。了解其工作原理不仅有助于开发Web应用,还可以帮助优化网络通信性能和安全性。

1.基本流程

HTTP 工作原理基于请求和响应,通常由客户端(如浏览器)发起请求,服务器响应。
  1.客户端发起请求:
      客户端通过HTTP协议向服务器发送请求,通常是通过URL指定目标资源。这些请求可以是不同类型的,如获取网页内容(GET请求)或提交表单数据(POST请求)。

  2.服务器处理请求:
      服务器接收到请求后,解析请求头和请求体,执行相应的操作(如查询数据库、读取文件等),并生成一个响应。

  3.服务器发送响应:
      服务器将处理结果(例如网页、文件、JSON 数据等)通过HTTP响应发送回客户端。

2.HTTP消息格式
HTTP的消息分为两类:请求消息和响应消息。

1.请求消息
    请求消息由以下部分组成:
      请求行:包含请求方法(如GET、POST、PUT、DELETE等)、请求的URL、HTTP版本号。
             例如:GET /index.html HTTP/1.1
        
      请求头:包含请求的元数据信息,如用户代理(浏览器类型)、支持的语言、Cookie等。
             例如:
                 Host: www.example.com
                 User-Agent: Mozilla/5.0
                 Accept-Language: en-US,en;q=0.5
                 
      空行:用于分隔请求头和请求体。
       
      请求体(可选):当发送的数据需要附带时(如POST请求),请求体包含实际要发送的数据,如表单内容或JSON数据。

2.响应消息
    响应消息由以下部分组成:
      状态行:包含HTTP版本号、状态码和状态描述。
             例如:HTTP/1.1 200 OK
      
      响应头:包含关于响应的元数据,如内容类型、内容长度、服务器信息等。
             例如:
                 Content-Type: text/html
                 Content-Length: 342
                 Server: Apache/2.4.41 (Ubuntu)
                 
      空行:用于分隔响应头和响应体。

      响应体:实际返回的数据,如网页内容、图像、JSON数据等。

常见的HTTP方法

HTTP方法定义了客户端希望在服务器上执行的操作,常见的HTTP方法包括:
  GET:请求资源,通常用于读取数据。
  POST:向服务器提交数据,常用于表单提交或API调用。
  PUT:更新资源或创建资源(如果资源不存在)。
  DELETE:删除指定资源。
  HEAD:类似于GET,但只请求资源的头部信息,不返回实体内容。
  OPTIONS:用于查询服务器支持哪些HTTP方法。

无状态特性
HTTP是无状态协议,这意味着每个请求是独立的,服务器不会记住之前请求的状态。为了解决这一问题,可以使用Cookie或Session来保持状态,特别是对用户身份验证或购物车等需要持续状态的场景。

HTTP 状态码

状态码用于表示请求的处理结果。常见状态码有:
  200 OK:请求成功,服务器返回所需数据。
  301 Moved Permanently:资源已永久移动到新位置。
  302 Found:资源临时重定向到新位置。
  400 Bad Request:请求有错误,服务器无法处理。
  401 Unauthorized:请求需要身份验证。
  403 Forbidden:服务器拒绝请求,客户端没有访问权限。
  404 Not Found:服务器上没有找到请求的资源。
  500 Internal Server Error:服务器内部错误。

HTTP 和 HTTPS

HTTP 和 HTTPS
  HTTP 是明文传输,数据在传输过程中可能会被窃取或篡改。
  HTTPS 是通过TLS(传输层安全协议)加密的HTTP协议,确保数据在传输过程中安全。HTTPS使用数字证书来验证服务器身份,并加密通信内容。

长连接与短连接

长连接与短连接
  短连接:每次请求之后都会关闭连接。HTTP/1.0默认使用短连接,必须在请求头中通过Connection: keep-alive来明确表示保持连接。
  长连接:HTTP/1.1默认使用长连接,即使一次请求完成后,连接仍保持开启,以便后续请求复用连接,减少延迟。

2.IO模型

I/O(Input/Output)模型在计算机系统中描述了应用程序与操作系统之间的数据输入和输出方式。不同的I/O模型提供了不同的性能和效率,适用于不同的应用场景。
在这里插入图片描述

总结:
  1.BIO: 适合简单、资源消耗较低的场景,易于实现,但并发性能差。
  2.非阻塞 I/O: 提升了响应性,但仍然需要轮询,适合中小规模并发应用。
  3.多路复用 I/O: 非常适合高并发场景,通过事件驱动机制减少不必要的轮询,提升效率。
  4.信号驱动 I/O: 更适合实时应用,避免轮询,但需要复杂的信号处理机制。
  5.异步 I/O: 性能最佳,但编程复杂度最高,适合对性能有极高要求的系统。

主要的I/O模型:BIO/NIO/AIO
餐厅点餐例子说明IO分类

模型餐厅服务类型特点
BIO一对一服务餐厅只有一个服务员,这个服务员每次只能服务一桌顾客,期间阻塞其他桌的服务
NIO一对多服务餐厅一个服务员轮询服务多张餐桌,他不断轮询确认出餐的菜品属于哪张餐桌
AIO扫码点餐每个餐桌上都有二维码,所有顾客可以同时下单,此时点餐很高效

BIO(Blocking I/O)
BIO 即 阻塞 I/O,这种 I/O 模型每次处理一个连接,客户端发起请求,服务端接受连接并处理请求。在此过程中,I/O 操作(如读取或写入)会一直阻塞,直到操作完成。每个连接都需要独立的线程来处理,当线程进行 I/O 操作时,该线程会阻塞,直到操作结束。

BIO特点:
  线程消耗高: 每个连接需要占用一个独立的线程,线程开销较大。
  阻塞等待: 当线程进行 I/O 操作时,如果没有数据可读或写入,线程将一直阻塞,无法执行其他任务。
  简单易用: 适合小规模、并发量较小的场景。

使用场景:
  适用于并发量较小的应用,例如传统的 Web 服务器。
  简单的应用程序或少量并发连接的场景。

工作流程:
  1.应用程序发出 I/O 请求。
  2.操作系统等待数据准备好。
  3.操作系统将数据拷贝到用户空间。
  4.应用程序继续执行。

NIO(Non-blocking I/O)
NIO 即 非阻塞 I/O,引入了 多路复用 机制,不再为每个连接创建一个线程。应用程序可以通过一个单独的线程处理多个连接,而不是阻塞在某个I/O操作上。通过 Selector,服务端可以同时监控多个通道,只有当通道就绪时(如有数据可读或写),才会进行处理。

NIO特点:
  非阻塞: 不会因为某个 I/O 操作的未就绪而阻塞,线程可以继续处理其他任务。
  线程管理高效: 减少了线程数量,多个连接可以共享一个或少量线程,极大提升并发处理能力。
  复杂度高: 编程复杂度增加,需要处理 Selector 选择和事件的注册。

使用场景:
  高并发场景,如大型 Web 服务器、聊天室、网络游戏等。
  长连接、多连接的系统,如 IM(即时通讯)系统。

工作流程:
  1.应用程序发出 I/O 请求。
  2.如果数据未准备好,操作系统立即返回错误。
  3.应用程序需要不断检查数据状态,直到数据准备好并完成 I/O 操作。

AIO(Asynchronous I/O)
异步I/O是最理想的模型之一。应用程序发起I/O请求后,立即可以继续执行其他任务,无需等待I/O操作完成。内核在完成I/O操作后,会通知应用程序。相比其他模型,异步I/O真正实现了操作与I/O的完全解耦。

AIO特点:
  异步非阻塞: 彻底解耦了 I/O 操作与业务处理,I/O 操作完成后通知应用程序。
  编程复杂度较高: 需要处理回调或异步结果的处理。
  高性能: 适合高并发且需要极低延迟的应用。

使用场景:
  大规模并发连接的场景,如高并发 Web 应用、大数据处理系统等。
  需要完全非阻塞的场景,特别是涉及大量 I/O 操作时。

工作流程:
  1.应用程序发起异步 I/O 请求。
  2.操作系统立即返回,应用程序继续执行其他任务。
  3.当I/O操作完成后,操作系统通知应用程序。

3.I/O 多路复用

I/O 多路复用(I/O Multiplexing)允许应用程序通过 select、poll 或 epoll 等系统调用同时监听多个I/O流。当一个或多个I/O操作可以执行时,内核会通知应用程序,应用程序再发起对应的I/O操作。与非阻塞I/O相比,多路复用避免了反复查询I/O状态。

select、poll 和 epoll 是三种常用的 I/O 多路复用机制,主要用于在高并发场景下监控多个文件描述符的状态,并在 I/O 事件发生时通知应用程序。
在这里插入图片描述

I/O多路复用
  特点: 能够同时处理多个I/O操作,适用于网络服务器等需要同时管理多个连接的场景。
  适用场景: 高并发的网络服务器和需要管理多个I/O资源的程序。
  
工作流程:
  应用程序发出select/poll/epoll 请求,等待多个I/O事件。
  如果任何I/O事件准备好,操作系统通知应用程序。
  应用程序发起相应的I/O操作。

总结
select 和 poll 性能较差,不适合大规模并发场景。
epoll 具有更高的性能和扩展性,适用于高并发和高性能服务器的实现。

epoll特点
  1、epoll只是一组API,比起select这种扫描全部的文件描述符,epoll只读取就绪的文件描述符
  2、epoll比select等多路复用方式来说,减少了遍历循环及内存拷贝的工作量,因为活跃连接只占总并发连接的很小一部分。
  3、epoll基于事件的就绪通知机制,使用回调机制,所以性能比较好
  4、基于epoll的IO多路复用减少了进程间切换的次数,使得操作系统少做了相对于用户任务来说的无用功。
[root@centos8 ~]#whatis epoll
epoll (7)             - I/O event notification facility
[root@centos8 ~]#whatis select
select (2)            - synchronous I/O multiplexing
select (3)            - synchronous I/O multiplexing
select (3p)           - synchronous I/0 mu1tiplexing
[root@centos8 ~]#whatis poll
poll (2)              - wait for some event on a file descriptor
poll (3p)             - input/output multiplexing

零拷贝
零拷贝(Zero-Copy) 是一种优化技术,用于减少在 I/O 操作时数据在用户空间和内核空间之间的复制,提升数据传输效率。传统的 I/O 操作会涉及多次数据拷贝,而零拷贝技术能够避免或减少这些不必要的内存拷贝,减少 CPU 开销和数据传输延迟。

4.Nginx架构

Nginx 是一种高性能的 HTTP 服务器和反向代理服务器,其架构设计围绕高并发和高可用性,主要采用事件驱动模型多进程/多线程并发处理,并且支持多种功能,如负载均衡、缓存、SSL 加密等。

Nginx架构的主要特点
  1.事件驱动架构:
      Nginx使用"异步非阻塞I/O和事件驱动"机制(基于 epoll、kqueue 等I/O多路复用技术)来处理高并发连接。
      事件驱动架构使得Nginx能够高效地处理大量的并发连接,避免了传统的阻塞式I/O。
      
      每个连接都是通过事件驱动来调度,而不是为每个连接分配一个独立的线程或进程,这减少了系统开销。
  
 2.多进程模型:
     Nginx采用"Master-Worker多进程模型",主要由一个Master进程和多个Worker进程组成。
       "Master进程": 负责管理整个服务,包括启动、关闭 Worker 进程,加载配置文件,监控子进程状态。
                  它不会直接处理请求,而是协调 Worker 进程的工作。
       "Worker进程": 真正处理请求的进程,接收、处理客户端请求,并返回结果。
                  每个Worker进程都是独立的,互不干扰。
                  Nginx的Worker进程是基于共享内存的,可以通过 accept_mutex 机制来避免并发时多个进程同时处理同一个请求。
                  
     Nginx可以根据CPU核心数量来调整Worker进程数,使得每个Worker进程可以充分利用多核CPU的资源,提升并发性能。

 3.异步非阻塞I/O:
     Nginx通过支持异步I/O操作,可以高效处理长连接和慢速客户端,同时避免了阻塞等待数据准备好。
     结合I/O多路复用机制(如 epoll、kqueue 等),能最大限度提高I/O操作的并发性能。
 
 4.模块化设计:
     Nginx 提供了高度模块化的设计,功能通过不同的模块来实现,包括 HTTP 处理、反向代理、负载均衡、缓存等。
     
     主要模块分类:
       "核心模块":提供基础功能,如配置文件解析、进程管理、请求调度等。
       "HTTP模块":处理 HTTP 请求的核心模块,提供静态文件服务、代理服务等。
       "事件模块":处理事件驱动相关的功能,如 epoll、kqueue。
       "第三方模块":用户可以根据需求扩展 Nginx 的功能,如缓存、日志管理、安全模块等。

 5.反向代理和负载均衡:
     Nginx的反向代理功能允许其作为一个中间层代理,将请求转发到后端服务器进行处理,并将响应返回给客户端。
     支持负载均衡,可以将请求分配给多个后端服务器,从而实现分担流量、提升性能的效果。
     Nginx支持多种负载均衡算法(如轮询、IP 哈希、最少连接等)。
 
 6.内存使用和资源优化:
     Nginx采用零拷贝技术(如 sendfile())减少数据在用户空间和内核空间之间的拷贝,降低了内存消耗和 CPU 负载。
     
     通过高效的内存管理机制,Nginx能够在处理大量并发连接时,保持低内存占用。

Nginx 架构图(简化):

+------------------+    +---------------+
|   Client (浏览器) |<-->|   Nginx Master |
+------------------+    +---------------+
                           |     |
              +-----------------------------+
              |  Worker 1   |  Worker 2  |  Worker N   |
              +-----------------------------+
                          |        |
                  +-------------------------+
                  |  Backend Server (后端服务器)  |
                  +-------------------------+
Nginx 架构优势
  1.高并发处理能力:基于事件驱动和非阻塞I/O,可以处理数十万甚至上百万的并发连接。
  2.可扩展性强:通过模块化设计,用户可以根据需求扩展功能,支持大量第三方模块。
  3.稳定性:多进程模型确保单个Worker进程出错不会影响整个服务器。
  4.低资源消耗:使用异步处理和零拷贝技术,极大地降低了CPU和内存的使用。

5.Nginx工作流程

Nginx 工作流程
  1.启动: Master进程启动,加载配置文件并启动多个Worker 进程。
  
  2.请求处理:
      当客户端发送请求时,Master 进程会将请求分配给某个空闲的 Worker 进程处理。
      
      Worker进程通过事件驱动机制监听客户端的 I/O 事件(如连接建立、请求数据到达、请求处理完成等)。
      
  3.反向代理/负载均衡(如果启用): Worker 进程将请求转发到后端服务器,后端服务器处理完成后将响应返回给客户端。
  
  4.日志和监控: Nginx在整个请求处理过程中可以记录详细的日志信息,并支持与外部监控系统集成。

6.Nginx命令和信号

Nginx 提供了多种命令和信号,用于启动、停止、重新加载配置以及管理其运行状态。理解这些命令和信号,有助于高效管理和控制 Nginx 服务。

Nginx 常用命令

Nginx 常用命令
  1.启动Nginx: 
      命令:nginx
      启动Nginx服务,并加载配置文件 /etc/nginx/nginx.conf(或者默认配置文件路径)
      
  2.重新加载配置:
      命令:nginx -s reload
      重新加载 Nginx 配置文件,而无需停止服务。
      Master 进程会检查配置文件的合法性,并启动新的 Worker 进程来处理新的请求
      
  3.停止Nginx
      命令:nginx -s stop
      快速停止(立即停止所有服务):立即停止Nginx,所有Worker进程也会被强制停止,不再处理当前连接。
      
      平滑停止(优雅关闭):
      命令:nginx -s quit
      优雅地停止Nginx,等待所有正在处理的请求处理完毕,再关闭Worker进程和服务。
      
  4.检查配置文件语法
      命令:nginx -t
      检查 Nginx 配置文件的语法是否正确。该命令不会启动或修改 Nginx,只会输出配置文件是否通过合法性验证。
   
  5.查看Nginx版本
      命令:nginx -v
      
  6.帮助信息
      命令:nginx -h
      显示可用的 Nginx 命令和选项的简要说明。

Nginx 信号
Nginx 通过向主进程发送信号来控制进程的行为。

1.HUP(SIGHUP): 重新加载配置文件
    kill -HUP <master_pid>
      Master 进程收到 SIGHUP 信号后,重新加载配置文件,并启动新的Worker 进程。
      旧的 Worker 进程会在完成当前任务后优雅地关闭。

2.QUIT(SIGQUIT): 优雅关闭 Nginx
    kill -QUIT <master_pid>
      Master 进程收到SIGQUIT信号后,优雅地关闭Nginx,所有Worker进程会在处理完当前连接后退出。
 
3.TERM/INT(SIGTERM/SIGINT): 快速停止Nginx
    kill -TERM <master_pid>
      Master 进程收到 SIGTERM 或 SIGINT 信号时,立即停止 Nginx 服务,所有 Worker 进程也会立即停止。
      
4.USR1(SIGUSR1): 重新打开日志文件
    kill -USR1 <master_pid>
      用于重新打开日志文件。当需要进行日志轮转(log rotation)时,可以使用 SIGUSR1 信号告诉 Nginx 重新打开日志文件。

5.USR2(SIGUSR2): 平滑升级Nginx
    kill -USR2 <master_pid>
      通过发送SIGUSR2信号,启动新的Nginx二进制版本,而不停止当前的Nginx服务。
      这通常用于平滑升级Nginx,而不会中断服务。

6.WINCH(SIGWINCH): 优雅关闭Worker进程
    kill -WINCH <master_pid>
      用于优雅地关闭所有Worker进程,但不停止Master进程,通常用于调试。

获取 Master 进程的 PID
Nginx 的 Master 进程 PID 通常存储在 /var/run/nginx.pid 文件中,可以通过以下命令查看:

cat /var/run/nginx.pid

ps aux | grep nginx

示例

优雅重启 Nginx 服务:
  1.通过nginx -t 检查配置文件是否正确:
    命令:nginx -t
  
  2.向Master进程发送HUP信号以重新加载配置:
    kill -HUP $(cat /var/run/nginx.pid)

快速停止Nginx服务:
  kill -TERM $(cat /var/run/nginx.pid)

Nginx 的命令和信号提供了灵活的服务管理方式,无论是启动、停止服务,还是进行配置文件重新加载、日志处理等,都可以通过发送信号的方式优雅地控制 Nginx。

7.Nginx核心配置

Nginx 的核心配置文件(通常位于 /etc/nginx/nginx.conf 或 /usr/local/nginx/conf/nginx.conf)是控制 Nginx 行为的关键,定义了服务器的基本运行参数和服务配置。Nginx 的配置文件由多个上下文和指令组成,每个上下文或指令都用于控制特定功能。

Nginx 核心配置结构

1.全局配置(main context)
全局配置在整个配置文件的最外层,作用于 Nginx 服务器及其所有的 Worker 进程,控制 Nginx 的主进程行为。

1.全局配置(main context)
    常见指令:
      user: 定义 Nginx 运行时的用户和用户组。
        示例:user nginx;
            
      worker_processes: 定义 Nginx 的 Worker 进程数量,通常设置为与 CPU 核数相等以充分利用多核性能。
        示例:worker_processes auto;
      
      worker_connections: 定义每个 Worker 进程可以处理的最大连接数,通常与 worker_processes 配合使用,影响 Nginx 并发能力。
        示例:worker_connections 1024;
     
     pid: 定义存储主进程 PID 的文件路径。
        示例:pid /var/run/nginx.pid;
     
     error_log: 指定错误日志文件路径及日志级别。
       示例:error_log /var/log/nginx/error.log warn;

2.事件配置(events context)
事件配置块用于设置 Nginx 处理连接的相关参数,主要控制 Nginx 如何处理并发连接。

2.事件配置
    常见指令:
      worker_connections: 设置每个 Worker 进程可同时打开的最大连接数。它直接影响 Nginx 服务器的并发处理能力。
        示例:
            events {
                worker_connections 1024;
            }
            
      multi_accept: 指定 Worker 进程在有多个新连接到来时是否同时接收。
        示例:multi_accept on;

      use: 指定事件驱动模型(epoll、kqueue 等),如在 Linux 下使用 epoll。
        示例:use epoll;

3.HTTP 配置(http context)
HTTP 配置块是 Nginx 配置文件的核心部分,包含了与 HTTP 服务相关的设置,控制如何处理 HTTP 请求。

3.HTTP 配置(http context)
  常见指令:
    include: 引入其他配置文件,常用于包含虚拟主机配置等。
      示例:include /etc/nginx/conf.d/*.conf;
    
    sendfile: 启用零拷贝技术,用于优化文件传输性能。
      示例:sendfile on;
    
    keepalive_timeout: 设置长连接的超时时间,单位为秒。
      示例:keepalive_timeout 65;
    
    gzip: 启用 Gzip 压缩功能以提高传输效率。
      示例:gzip on;

4.虚拟主机配置(server context)
server 块用于配置虚拟主机,支持根据不同的域名、IP 地址等处理不同的请求。可以在同一个 Nginx 实例中配置多个 server 块。

4.虚拟主机配置
    常见指令:
      listen: 指定监听的端口和 IP 地址。
        示例:  
          server {
              listen 80;
              server_name example.com;
          }

      server_name: 配置虚拟主机的域名。
        示例:
          server_name example.com;
     
      location: 用于定义请求 URI 的匹配规则,处理特定路径的请求。
        示例:
          location / {
              root /var/www/html;
              index index.html;
           }

5.Location 配置(location context)
location 块用于匹配客户端请求的 URI,并定义如何处理这些请求。可以根据请求路径的前缀、正则表达式等进行匹配。

root: 指定站点的根目录。

location / {
    root /usr/share/nginx/html;
    index index.html index.htm;
}

proxy_pass: 配置反向代理,将请求转发到后端服务器。

location /api/ {
    proxy_pass http://backend_server;
}

try_files: 用于指定文件查找规则,常用于处理 URL 重写、静态文件优先查找等。

location / {
    try_files $uri $uri/ /index.html;
}

6.日志配置
日志配置用于记录访问日志和错误日志。

access_log: 指定访问日志文件路径及格式。

access_log /var/log/nginx/access.log main;

log_format: 自定义日志格式。

log_format main '$remote_addr - $remote_user [$time_local] "$request" '
                  '$status $body_bytes_sent "$http_referer" '
                  '"$http_user_agent" "$http_x_forwarded_for"';

7.负载均衡与反向代理配置
Nginx 作为反向代理服务器,支持将请求转发到后端服务器并进行负载均衡。

upstream: 定义后端服务器的组,用于负载均衡。

upstream backend {
    server backend1.example.com;
    server backend2.example.com;
}

proxy_pass: 将请求转发到上游服务器。

location / {
    proxy_pass http://backend;
}

8.SSL 配置
Nginx 可以使用 SSL/TLS 提供 HTTPS 服务。

ssl_certificate: 指定 SSL 证书文件。

ssl_certificate /etc/nginx/ssl/nginx.crt;

ssl_certificate_key: 指定 SSL 证书的密钥文件。

ssl_certificate_key /etc/nginx/ssl/nginx.key;

ssl_certificate_key /etc/nginx/ssl/nginx.key;

ssl_protocols TLSv1 TLSv1.1 TLSv1.2;

简单完整示例

user nginx;
worker_processes auto;
error_log /var/log/nginx/error.log warn;
pid /var/run/nginx.pid;

events {
    worker_connections 1024;
}

http {
    include       /etc/nginx/mime.types;
    default_type  application/octet-stream;

    log_format main '$remote_addr - $remote_user [$time_local] "$request" '
                    '$status $body_bytes_sent "$http_referer" '
                    '"$http_user_agent" "$http_x_forwarded_for"';

    access_log /var/log/nginx/access.log main;

    sendfile        on;
    keepalive_timeout  65;

    server {
        listen 80;
        server_name example.com;

        location / {
            root /usr/share/nginx/html;
            index index.html index.htm;
        }

        location /api/ {
            proxy_pass http://backend_server;
        }
    }
}

8.Nginx反向代理

Nginx 的反向代理功能是其最核心和常用的特性之一。反向代理服务器位于客户端和后端服务器之间,代理客户端的请求,将它们转发到后端服务器,并将后端服务器的响应返回给客户端。

Nginx 反向代理功能不仅用于将客户端请求转发到后端服务器,还提供负载均衡、缓存、SSL 卸载、动静分离等功能,帮助优化系统性能、增强安全性,广泛应用于大型网站和高并发场景中。

Nginx 反向代理功能详解

Nginx 反向代理功能详解
  1.代理客户端请求:
      Nginx 作为反向代理服务器,接收来自客户端的 HTTP 请求,
      然后将请求转发给后端的服务器(如应用服务器、数据库服务器等),代替客户端直接与后端服务器通信。
  
  2.隐藏后端服务器信息:
      通过反向代理,客户端不会直接访问后端服务器,
      而是访问 Nginx 代理,后端服务器的 IP 地址和其他信息对客户端是隐藏的,这在提高安全性上非常有帮助。

  3.负载均衡:
      Nginx 可以将多个后端服务器组成一个服务器集群,并对请求进行负载均衡分发。
      常见的负载均衡策略包括轮询、最小连接数和 IP 哈希等,确保请求均匀地分布到后端服务器,提高系统整体的可用性和吞吐量。

  4.缓存:
      Nginx 可以缓存后端服务器的响应,从而加快对静态内容的响应速度,并减少对后端服务器的压力。
      特别是对于不频繁更新的静态资源,缓存可以显著提升性能。
  
  5.SSL 卸载:
      Nginx 可以处理 SSL/TLS 加密连接,并将解密后的请求转发给后端服务器。
      这种 SSL 卸载功能减少了后端服务器的计算负担,提升了整体性能。

  6.动静分离:
      Nginx 常被用于处理静态资源(如 HTML、CSS、JavaScript、图片等),
      同时将动态请求(如 PHP、Python、Java 等)代理给后端应用服务器,这样能充分利用 Nginx 的高效性来优化资源处理。

  7.健康检查:
      Nginx 能够定期检查后端服务器的健康状况,自动将请求路由到可用的服务器,
      当某个服务器不可用时,将其从负载均衡池中剔除。

反向代理配置示例

http {
    upstream backend {
        server backend1.example.com;
        server backend2.example.com;
    }

    server {
        listen 80;
        server_name www.example.com;

        location / {
            proxy_pass http://backend;  # 将请求代理到后端服务器集群
            proxy_set_header Host $host;  # 设置请求头
            proxy_set_header X-Real-IP $remote_addr;
            proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
            proxy_set_header X-Forwarded-Proto $scheme;
        }
    }
}

核心指令
  proxy_pass: 指定将请求转发到的后端服务器或服务器组。
  proxy_set_header: 设置从客户端传递到后端服务器的 HTTP 头信息,如客户端的真实 IP 地址等。

Nginx 反向代理的优势

Nginx 反向代理的优势
  1.提升安全性:
      隐藏后端服务器信息,保护后端服务免受直接攻击。
  
  2.分流压力:
      将请求分发给多个后端服务器,有效减轻单台服务器的压力,提升系统性能和响应速度。
 
  3.提高可扩展性:
      通过负载均衡和反向代理,可以轻松添加或移除后端服务器,方便扩展系统。
 
  4.减少客户端直接负担:
      SSL 卸载、缓存等功能降低了客户端和后端服务器的负担。

9.Nginx负载均衡

Nginx 负载均衡是指 Nginx 作为反向代理服务器,将客户端的请求分发到多个后端服务器,均衡流量负载,提升系统的性能、可用性和容错能力。它广泛应用于分布式系统中,确保系统在高并发和高负载场景下稳定运行。

在 Nginx 中,stream 模块用于处理四层(传输层)的代理和负载均衡,支持 TCP 和 UDP 协议;而 upstream 指令用于定义一组上游服务器,用来进行负载均衡和代理。stream 模块和 upstream 配置常常结合使用,以实现负载均衡和代理功能。

Nginx负载均衡的主要功能

Nginx负载均衡的主要功能
  1.反向代理
      Nginx 接收客户端请求并将其转发到后端服务器组,客户端并不直接与后端服务器通信,而是通过 Nginx 完成请求的路由。

  2.负载均衡策略
      Nginx 支持多种负载均衡策略,能够根据服务器性能、连接数、IP 地址等条件将请求合理分配到不同的服务器,避免某台服务器超载。

  3.健康检查
      通过健康检查机制,Nginx 可以检测后端服务器的状态,若发现某台服务器故障,会自动将其移除出负载均衡池,确保系统的高可用性。

  4.SSL/TLS 支持
      Nginx 可以在负载均衡时终止 SSL/TLS 连接,将加密的流量解密后转发给后端服务器,从而减少后端服务器的加密负载。

常见的负载均衡策略
1.轮询(Round Robin)
默认的负载均衡策略,Nginx 按顺序依次将请求分发到每台后端服务器上,适用于后端服务器性能相近的场景。

2.权重(Weight)
为每台服务器设置权重,权重越高的服务器会分配到更多的请求,适用于后端服务器性能不均衡的场景。

upstream backend {
    server server1.example.com weight=3;
    server server2.example.com weight=1;
}

3.最少连接(Least Connections)
请求会被分配给当前连接数最少的服务器,适用于后端服务器负载差异较大的场景。

upstream backend {
    least_conn;
    server server1.example.com;
    server server2.example.com;
}

4.IP 哈希(IP Hash)
通过客户端 IP 地址进行哈希计算,将相同客户端 IP 的请求分配到固定的服务器,这种策略适合需要会话保持(Session Persistence)的场景。

upstream backend {
    ip_hash;
    server server1.example.com;
    server server2.example.com;
}

stream 模块
stream 模块用于代理和负载均衡传输层协议的流量,主要包括 TCP 和 UDP。它适用于不涉及应用层协议的场景,如数据库连接、TCP 服务等。

stream模块常见功能:
  1.TCP/UDP 代理:stream 模块可以直接代理 TCP 或 UDP 流量。
  2.负载均衡:支持将客户端连接均衡地分配到后端服务器。
  3.SSL/TLS 终止:stream 支持加密协议,可以实现 SSL/TLS 终止,将客户端的加密流量解密后再发送给后端服务器。
  4.超时控制:可以控制连接超时,避免长时间无响应的连接。

stream 配置示例:

stream {
    upstream backend_servers {
        server 192.168.1.100:3306;
        server 192.168.1.101:3306;
        least_conn;
    }

    server {
        listen 3306;
        proxy_pass backend_servers;
        proxy_timeout 10s;
    }
}

示例说明:
  upstream 定义了上游服务器 backend_servers,使用最少连接(least_conn)策略。
  server 定义了一个 TCP 代理服务,监听本地 3306 端口,并将请求代理到 backend_servers。

upstream 指令
upstream 指令用于定义一组后端服务器,Nginx 可以根据负载均衡策略将流量分配给这些服务器。upstream 可以用于四层(stream 模块)和七层(http 模块)的代理配置。

常见负载均衡策略:
  1.轮询(Round Robin):默认的负载均衡策略,按顺序分配请求。
  2.权重(Weight):可以为不同服务器配置权重,权重越大的服务器处理更多请求。
  3.最少连接(Least Connections):将请求分配给当前连接数最少的服务器。
  4.IP哈希(IP Hash):根据客户端的 IP 地址进行哈希,保证同一 IP 的请求会分配到同一服务器(适合会话保持)。

upstream 配置示例:

upstream backend {
    server 192.168.1.100:8080;
    server 192.168.1.101:8080 weight=2;
    least_conn;
}

示例说明:
  定义了一个上游服务器组 backend,包含两个服务器,第二个服务器有更高的权重(weight=2)。
  使用 least_conn 负载均衡策略,将请求分配给当前连接数最少的服务器。

10.stream和upstream的结合

stream 模块和 upstream 配置常常一起使用,通过 upstream 定义服务器组,然后在 stream 配置中使用 proxy_pass 将流量代理到这些服务器。

stream {
    upstream db_backend {
        server 192.168.1.100:3306;
        server 192.168.1.101:3306;
        server 192.168.1.102:3306;
        least_conn;
    }

    server {
        listen 3306;
        proxy_pass db_backend;
        proxy_timeout 10s;
        proxy_connect_timeout 5s;
        ssl_preread on;  # 开启SSL/TLS解析支持
    }
}

示例说明:
  1.使用stream代理MySQL的TCP连接,监听本地 3306 端口。
  2.upstream 定义了三个MySQL数据库服务器,使用最少连接策略(least_conn)分配流量。
  3.proxy_pass 指令将流量代理到db_backend。
  4.ssl_preread on开启了 SSL/TLS 支持,用于代理加密流量。

总结
  stream 模块处理四层协议(如 TCP、UDP),适用于需要低层级代理的服务。
  upstream 指令定义了一组上游服务器,可以用于负载均衡和代理。
  stream 和 upstream 配置结合使用可以实现高效的四层负载均衡和代理,适用于数据库代理、TCP 服务负载均衡等场景。

四、Ansible

Ansible 的架构非常简单,采用了无代理的设计,这使得它易于部署和管理。Ansible 通过 SSH(Linux/Unix 系统)或 WinRM(Windows 系统)与受管节点通信。其核心组件包括控制节点(Control Node)、受管节点(Managed Nodes)、模块(Modules)、插件(Plugins)、清单列表(Inventory)、Playbooks 和角色(Roles)。

1.Ansible 架构的主要组成部分

Ansible 架构的主要组成部分
  1.控制节点(Control Node)
      控制节点是运行 Ansible 命令和 Playbooks 的机器,也称为主控节点。它负责连接和管理所有受管节点,发送任务并收集执行结果。
      控制节点上安装了 Ansible 工具,用户通过它来控制整个自动化流程。

  2.受管节点(Managed Nodes)
      受管节点是 Ansible 要管理的目标机器,可以是 Linux、Windows 服务器、网络设备等。
      Ansible 无需在受管节点上安装任何代理程序,直接通过 SSH 或 WinRM 连接执行任务。

  3.Inventory(库存)
      库存文件(Inventory)是一个定义受管节点的列表,通常是一个简单的 INI 或 YAML 文件,列出了主机名、IP 地址以及组信息。
      Ansible 通过 Inventory 文件来确定哪些主机需要被管理,可以是静态文件或动态生成的库存。

Inventory示例

[web_servers]
web1.example.com
web2.example.com

[db_servers]
db1.example.com
db2.example.com

2.Ansible常用模块

Ansible 提供了大量模块,用于完成不同的自动化任务。以下是一些常用的 Ansible 模块,涵盖了文件管理、用户管理、软件安装、服务管理等常见的运维操作:

1.File 模块
用于管理文件和目录,支持文件的创建、删除、权限管理等操作。

file:管理文件的权限、所有者、创建符号链接、删除文件/目录等。

- name: 创建目录
  file:
    path: /path/to/directory
    state: directory
    mode: '0755'

copy:从控制节点复制文件到远程主机。

- name: 复制文件到远程主机
  copy:
    src: /local/path/file.txt
    dest: /remote/path/file.txt

template:使用 Jinja2 模板引擎渲染文件并复制到远程主机。

- name: 使用模板生成配置文件
  template:
    src: /local/path/template.j2
    dest: /remote/path/file.conf

User 和 Group 模块
用于管理用户和组账户。

user:创建、修改或删除用户。

- name: 创建用户
  user:
    name: "username"
    state: present
    groups: "wheel"

group:管理用户组。

- name: 创建用户组
  group:
    name: "developers"
    state: present

Service 模块
用于管理服务的启动、停止、重启等操作。

service:控制服务的状态,支持启用、禁用、启动、停止等操作。

- name: 确保 nginx 服务正在运行
  service:
    name: nginx
    state: started

System 模块
用于执行系统层面的任务,比如运行命令、管理时间等。

command:执行命令,但不会通过 shell 解析命令。

- name: 执行一个命令
  command: /usr/bin/uptime

shell:执行命令并通过 shell 解析,适用于需要 shell 特性(如管道、重定向)的情况。

- name: 使用 shell 执行命令
  shell: echo "Hello World" > /tmp/hello.txt

cron:管理定时任务。

- name: 创建一个定时任务
  cron:
    name: "每天凌晨备份"
    minute: "0"
    hour: "0"
    job: "/usr/local/bin/backup.sh"

Networking 模块
用于管理网络设备和网络配置。

firewalld:管理基于 Firewalld 的防火墙配置。

- name: 启用 HTTP 服务通过 Firewalld
  firewalld:
    service: http
    permanent: yes
    state: enabled

iptables:管理基于 iptables 的防火墙规则。

- name: 添加 iptables 规则
  iptables:
    chain: INPUT
    source: 192.168.1.1
    destination_port: 22
    jump: ACCEPT

3.Playbook

Ansible 的 Playbook 是一个使用 YAML 语法编写的自动化配置文件,用于定义一系列要在受管节点上执行的任务。Playbook 通过任务的组合来完成复杂的自动化工作,如系统配置、应用部署、服务管理等。它是 Ansible 自动化流程的核心部分。

Ansible 的 Playbook 是自动化任务的核心,通过定义任务、变量、主机和条件,Playbook 能够灵活高效地管理系统配置、部署应用和执行复杂的操作流程。Playbook 的简单语法和模块化设计使其成为运维自动化中不可或缺的工具。

Playbook的基本结构
一个Playbook通常由以下几个主要部分组成:
  1.hosts(主机): 指定任务要运行的目标主机,通常是从 inventory 文件中选择的组或单个主机。
  2.tasks(任务): 定义在受管节点上执行的具体操作,每个任务通常调用一个模块。
  3.vars(变量): 定义 Playbook 中的变量,以便在任务中引用。
  4.handlers(处理器): 定义需要在特定条件下触发的任务,通常与 notify 配合使用。
  5.roles(角色): 用于将 Playbook 进行模块化管理,将任务、变量、文件等组织到角色中。

Playbook 示例
以下是一个简单的 Playbook 示例,用于在 web_servers 组的主机上安装 nginx 并启动服务:

---
- name: Install and configure Nginx on web servers
  hosts: web_servers
  become: yes  # 使用 sudo 提权
  vars:
    http_port: 80
  tasks:
    - name: Install Nginx
      apt:
        name: nginx
        state: present
      when: ansible_facts['os_family'] == "Debian"

    - name: Ensure Nginx is running
      service:
        name: nginx
        state: started

    - name: Ensure Nginx is enabled on boot
      systemd:
        name: nginx
        enabled: yes

    - name: Open port for HTTP traffic
      ufw:
        rule: allow
        port: "{{ http_port }}"
        proto: tcp

Playbook 的主要组件

1.hosts(主机)
这个字段指定了任务将在哪些目标主机上执行,可以是主机组、单个主机或 all(全部主机)。Playbook 会根据 inventory 文件中的主机信息进行匹配。

示例:

hosts: web_servers

2.vars(变量)
允许在 Playbook 中定义变量,简化任务中重复使用的数据,便于配置的灵活性。

示例:

vars:
  http_port: 80

3.tasks(任务)
任务是 Playbook 中的核心部分,它定义了实际要执行的操作。每个任务调用一个 Ansible 模块,执行具体的操作,比如安装软件、启动服务、修改配置文件等。

示例:

tasks:
  - name: Install Nginx
    apt:
      name: nginx
      state: present

4.when(条件语句)
允许为任务设置条件,使其在特定条件下执行。例如,判断操作系统类型,只有符合条件时才执行某个任务。

示例:

when: ansible_facts['os_family'] == "Debian"

5.handlers(处理器)
处理器是当某些任务发生变化时触发的任务,通常用于处理需要在配置发生变化后才执行的操作,比如重启服务。

示例:

handlers:
  - name: Restart Nginx
    service:
      name: nginx
      state: restarted

6.roles(角色)
角色是 Playbook 的组织方式,将任务、变量、文件、模板等分组以提高可重用性。角色通常用于大型项目,以保持 Playbook 的简洁和模块化。

示例:

roles:
  - common
  - webserver

Playbook 的优势

Playbook 的优势
  1.结构化与可读性
      使用 YAML 语法编写,简单易懂,便于多人协作和维护。

  2.模块化
      Playbook 可以通过 roles、include 和 import 机制实现模块化,使得配置更加灵活和可扩展。

  3.幂等性
      Playbook 中定义的任务大多数是幂等的,意味着同一任务可以多次运行,而不会重复执行操作,从而保证系统状态的一致性。

  4.跨平台支持
      Playbook 可以管理不同操作系统和环境(如 Linux、Windows、macOS、网络设备等),具有很好的跨平台支持能力。

4.Roles

Ansible 的 roles(角色) 是一种组织和复用 Playbook 内容的方式,主要用于将任务、变量、文件、模板等内容模块化,以便更好地管理大型的自动化项目。Roles 通过结构化目录来组织 Ansible Playbook,确保配置的可读性、可维护性和可重用性。

Ansible Roles 是一种将 Playbook 组织和模块化的机制,能够提升自动化任务的复用性、可维护性和易扩展性。通过 Roles,可以将复杂的自动化任务分解为独立的角色,每个角色负责不同的任务部分,这样在大规模项目中更加高效和灵活。

为什么使用 Roles
在大型项目中,直接编写复杂的 Playbook 可能会导致代码难以维护和扩展。Roles 允许将任务分割为多个小的、独立的组件(角色),每个角色完成一部分具体的配置或任务,然后在 Playbook 中通过简单的引用来调用这些角色。Roles 提供了代码复用和组织的最佳实践。

Roles 的目录结构
每个角色都有一个预定义的目录结构,存放特定的文件,如任务、变量、模板等。Ansible 在运行时会根据这个目录结构找到相应的内容并执行。

典型的 Roles 目录结构如下:

roles/
  └── example_role/
      ├── tasks/         # 定义具体的任务
      │   └── main.yml
      ├── handlers/      # 定义处理器,用于在任务改变时触发
      │   └── main.yml
      ├── templates/     # Jinja2 模板文件
      ├── files/         # 静态文件
      ├── vars/          # 变量
      │   └── main.yml
      ├── defaults/      # 默认变量
      │   └── main.yml
      ├── meta/          # 依赖信息
      │   └── main.yml
      ├── tasks/         # 任务定义
      │   └── main.yml
      └── tests/         # 测试用例(可选)

如何在 Playbook 中调用 Roles
Roles 在 Playbook 中可以通过 roles 字段调用,每个角色包含的任务、变量和模板都会自动执行。

示例 Playbook 使用角色:

---
- name: 使用 example_role 角色配置 Web 服务器
  hosts: web_servers
  roles:
    - example_role
---
- hosts: websrvs
  remote__user: root
  roles :
    - mysql
    - memcached
    - nginx
---
- hosts:all
  remote_user: root
  roles :
    - role: mysql
    - username : mysql
    - { role: nginx,username: nginx }

Roles 的优势

Roles 的优势
  1.模块化与复用性
      Roles 将任务、变量、模板等分开管理,结构清晰,便于重复使用,提升了代码的可维护性。

  2.易于维护与扩展
      Roles 提供了一种层次化的管理方式,适合大规模自动化任务,可以轻松增加新角色或修改现有角色的内容。

  3.可共享性
      通过定义标准化的角色,可以将角色分享给团队或社区,Ansible Galaxy 上有大量开源的共享角色供下载和使用。

未完待续。。。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2143028.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

bpf的了解以及bpftrace的简单练习

最近接触到bpf的概念&#xff0c;简单做一些练习&#xff0c;做以下整理&#xff0c;学习笔记。 0&#xff1a;总结 使用ebpf可以实现的功能打开新世界&#xff0c;可以不改变源码的情况下&#xff0c;实现内存&#xff0c;网络&#xff0c;对应接口等各种期望内容的监控。 …

记忆化搜索(算法篇)

算法篇之记忆化搜索 记忆化搜索 概念&#xff1a; 记忆化搜索就是深度优先搜索的一种优化策略&#xff0c;记忆化搜索深度优先搜索形式动态规划思想由于dfs本质是暴力搜索&#xff0c;没有很好地处理重叠子问题&#xff0c;因此很低效记忆化算法在求解地时候还是按照自顶向下…

固态硬盘数据怎么恢复?用这4个软件你就知道了。

其实想要恢复固态硬盘里面的数据&#xff0c;方法有很多种。我们可以从回收站恢复&#xff0c;用备份恢复&#xff0c;或者是找专业人员帮助恢复。如果这些方法都不行的话&#xff0c;可以试试使用专业的数据恢复软件。我知道的数据恢复软件就有好几款&#xff0c;可以分享给大…

java编程行业特点

Java编程行业是一个庞大且充满活力的领域&#xff0c;它涵盖了从桌面应用到企业级应用、从Web开发到移动应用、从大数据处理到云计算服务的广泛范围。Java作为一种跨平台、面向对象的编程语言&#xff0c;自1995年发布以来&#xff0c;一直受到全球开发者的青睐&#xff0c;并在…

我的5周年创作纪念日,不忘初心,方得始终。

一、机缘 五年前&#xff0c;我怀着对知识的渴望和分享的热情&#xff0c;踏入了 CSDN 这个充满活力的技术交流平台&#xff0c;开启了我的创作之旅。那时的我&#xff0c;刚刚在技术的海洋中启航&#xff0c;渴望找到一个地方记录自己的成长足迹&#xff0c;与更多的人分享自…

【模板的特殊继承关系】用参数化的方式表达成员函数的虚拟性

一、使用混入技术实现的简单范例 成员函数的虚拟性可以通过特殊的继承来表达&#xff0c;我们先看看一个简单的范例&#xff0c;通过混入技术来实现&#xff1a; //基类 template<typename... T> class Base:public T... { public:void myfunc(){std::cout << &q…

禹神3小时快速上手typescript

一、TypeScript简介 TypeScript 由微软开发&#xff0c;是基于 JavaScript 的⼀个扩展语⾔。TypeScript 包含了 JavaScript 的所有内容&#xff0c;即&#xff1a; TypeScript 是 JavaScrip t 的超集。TypeScript 增加了&#xff1a;静态类型检查、接⼝、 泛型等很多现代开发特…

6--SpringBootWeb案例(详解)

目录 环境搭建 部门管理 查询部门 接口文档 代码 删除部门 接口文档 代码 新增部门 接口文档 代码 已有前端&#xff0c;根据接口文档完成后端功能的开发 成品如下&#xff1a; 环境搭建 1. 准备数据库表 (dept 、 emp) -- 部门管理 create table dept( id int un…

云计算第四阶段------CLOUD Day4---Day6

Cloud DAY4 项目架构图&#xff1a; 环境准备&#xff1a; 主机名称IP地址配置logstash192.168.1.27最低配置4核8G #书接上文&#xff0c;我们在华为云平台租了几台云服务器&#xff0c;这次买一台性能好的服务器&#xff0c;作为logstash软件部署的载体。 今天给小伙伴们带来…

【装机教程】Visual Studio Community 2019离线安装

Visual Studio 2019离线安装 由于现在 官网只支持在线安装最新版的Visual Studio 2022&#xff0c;因此 Visual Studio Community 2019需要离线安装。 下载离线安装镜像&#xff0c;并解压。点击vs_setup.exe运行。 选择安装位置&#xff0c;四处位置需要确定。 选择语言包&…

CSP-J 2019 入门级 第一轮(初赛) 完善程序(1)

【题目】 CSP-J 2019 入门级 第一轮&#xff08;初赛&#xff09; 完善程序&#xff08;1&#xff09; 1.&#xff08;矩阵变幻&#xff09;有一个奇幻的矩阵&#xff0c;在不停的变幻&#xff0c;其变幻方式为&#xff1a; 数字 0 变成矩阵 0 0 0 1 数字 1 变成矩阵 1 1 1 0 …

沉浸式利用自然语言无代码开发工具生成式AI产品应用(下)

背景 小伙伴们过去在开发应用时&#xff0c;经常需要编写大量代码文件以实现业务逻辑&#xff0c;想必肯定有小伙伴开发过类似于快消行业索赔处理、订单库存跟踪和项目审批等系统。去解决这些业务实际问题&#xff0c;我们需要定制地开发业务应用程序为这些问题提供解决方案。…

手写redis实现分布式锁详细教程,满足可续锁、可重入等分布式锁条件

前言 本文将讨论的做一个高并发场景下避不开的话题&#xff0c;即redis分布式锁。比如在淘宝 的秒杀场景、热点新闻和热搜排行榜等。可见分布式锁是一个程序员面向高级的一门必修课&#xff0c;下面请跟着本篇文章好好学习。 redis分布式锁有哪些面试题 1.Redis做分布式的时…

C语言 | Leetcode C语言题解之第404题左叶子之和

题目&#xff1a; 题解&#xff1a; bool isLeafNode(struct TreeNode *node) {return !node->left && !node->right; }int sumOfLeftLeaves(struct TreeNode *root) {if (!root) {return 0;}struct TreeNode **q malloc(sizeof(struct TreeNode *) * 2001);in…

JVM 一个对象是否已经死亡?

目录 前言 引用计数法 可达性分析法 引用 finalize() 方法区回收 前言 虚拟机中垃圾回收器是掌握对象生死的判官, 只要是垃圾回收器认为需要被回收的, 那么这个对象基本可以宣告"死亡". 但是也不是所有的对象, 都需要被回收, 因此, 我们在学习垃圾回收的时候…

Linux系统应用之知识补充——OpenEuler(欧拉)的安装和基础配置

前言 这篇文章将会对OpenEuler的安装进行详解&#xff0c;一步一步跟着走下去就可以成功 注意 &#xff1a;以下的指令操作最好在root权限下进行&#xff08;即su - root&#xff09; ☀️工贵其久&#xff0c;业贵其专&#xff01; 1、OpenEuler的安装 这里我不过多介绍&a…

markdown 使用技巧

文章目录 markdown使用技巧1.标题快捷键设置2.文档可读性设置 markdown使用技巧 1.标题快捷键设置 ctl 1:一级标题 ctl 2:二级标题 ctl 3:三级标题 ctl 4:四级标题 ...2.文档可读性设置 输入~~~pro 可选择代码框&#xff0c;并且可以选择不同的字体 ctrl shift ] : 可…

Flink学习2

创建一个无界流 package com.qyt; import org.apache.flink.api.java.functions.KeySelector; import org.apache.flink.api.java.tuple.Tuple2; import org.apache.flink.streaming.api.datastream.DataStreamSource; import org.apache.flink.streaming.api.datastream.Keye…

《微信小程序实战(2) · 组件封装》

&#x1f4e2; 大家好&#xff0c;我是 【战神刘玉栋】&#xff0c;有10多年的研发经验&#xff0c;致力于前后端技术栈的知识沉淀和传播。 &#x1f497; &#x1f33b; CSDN入驻不久&#xff0c;希望大家多多支持&#xff0c;后续会继续提升文章质量&#xff0c;绝不滥竽充数…

138、Java内部类源码

01.代码如下&#xff1a; package TIANPAN;class Outer { // 外部类private String msg "Hello World !";class Inner { // 定义一个内部类private String info "世界&#xff0c;你好&#xff0…