【Apache Flink】流式分析的多种应用场景

news2024/11/27 22:38:51

文章目录

  • 0. 前言
  • 1. 数据处理架构的演进
  • 2. 传统数据处理架构
  • 3. 事务型处理
  • 4. 分析型处理
    • 用于数据分析的传统数据仓架构
  • 状态化流处理
  • 5. 事件驱动型应用
    • 什么是事件驱动型应用?
  • 6. 数据管道
    • 什么是数据管道?
    • Flink 如何支持数据管道应用?
    • 典型的数据管道应用实例
  • 7. 流式分析
    • 示例
  • 参考文档

0. 前言

Apache Flink 功能强大,支持开发和运行多种不同种类的应用程序。它的主要特性包括:批流一体化、精密的状态管理、事件时间支持以及精确一次的状态一致性保障等。Flink 不仅可以运行在包括 YARN、 Mesos、Kubernetes 在内的多种资源管理框架上,还支持在裸机集群上独立部署。在启用高可用选项的情况下,它不存在单点失效问题。事实证明,Flink 已经可以扩展到数千核心,其状态可以达到 TB 级别,且仍能保持高吞吐、低延迟的特性。世界各地有很多要求严苛的流处理应用都运行在 Flink 之上。

接下来我们将介绍 Flink 常见的几类应用并给出相关实例链接。

事件驱动型应用
数据分析应用
数据管道应用

1. 数据处理架构的演进

数据处理架构已经经历了数十年的演进,在此过程中与硬件的进步、网络的发展、和算法的改进等都有着密切的联系。我们整理了主要的阶段和特点:

  1. 传统的主机架构:在1980年代之前,大多数据处理都在主机上进行,数据存储在大型磁带或磁盘阵列中。这些系统通常有一个中心化的计算策略,并且是批量处理为主。

  2. 客户机/服务器架构:在1980s和1990s,随着个人电脑(PC)的普及和网络技术的进步,我们开始从主机迁移到更加去中心化的客户机-服务器架构。在这里,服务器存储数据,而许多客户机可以执行更复杂的数据处理和应用程序任务。

  3. 三层架构和Web架构:随着互联网的兴起,跨网络的数据处理成为标准。在这类网络架构中,通常有一个数据库服务器层,一个应用服务器层,和一个用户接口层。每一层有其特殊的任务,它们共同处理和服务用户请求。

  4. 大数据和分布式架构:在21世纪初,随着数据量的爆炸性增长,传统的数据处理架构已不能满足需求。此时出现了Hadoop、Spark等分布式计算框架,来允许在许多机器上并行处理大量的数据。此外,NoSQL数据库也应运而生,以应对非结构化和半结构化数据的增长。

  5. 云架构:近年来,随着云计算的进步,许多数据处理和存储的任务被迁移到云中。云服务如AWS、Google Cloud和Azure提供了弹性的计算和存储能力,可以根据需求进行扩展,无需用户维护硬件设施。

  6. 实时/流处理架构:数据的实时处理和分析越来越受到重视,Apache Kafka、Storm、Flink等流处理框架开始流行。

  7. AI 和机器学习:近几年,AI和机器学习在数据处理和分析中的作用越来越大。这需要大量的数据,并需要新的计算和存储策略。此外,GPU和TPU等硬件设施的发展也对这个领域产生了重大影响。

上述架构的转变不是独立的阶段,而是逐渐交叠,逐渐取代。比如,虽然有了云架构和分布式处理,但在某些场景下,传统的数据库和客户机/服务器架构仍然具有价值。新的架构并不排斥旧的设计,而是能够满足特定工作负载和业务需求的最佳解决方案。

2. 传统数据处理架构

在传统的数据处理架构中,工作流通常分为批处理和流处理两种模式。

  1. 批处理:批处理是大数据处理的经典模式,它依赖于存储系统(例如HDFS)来存储大量数据,然后通过MapReduce等计算模型对数据进行批量处理。批处理通常在非实时需求的情况下使用,其优点是能够处理大量历史数据,适用于离线分析,但是其延迟较高,不适合实时数据处理场景。

  2. 流处理:与批处理不同,流处理是基于事件驱动的处理方式,能够实时处理数据。它不需要等待所有数据都被存储再进行处理,而是持续接收和处理数据。流处理的优点是具有低延迟,适用于实时数据处理和快速响应需求。但是,由于其连续处理数据,对窗口操作和时间管理提出了较高要求。

然而,这种工作流的架构带来了开发和管理上的挑战,因为必须将批处理和流处理统一到一个处理流程中。Apache Flink作为一个流处理和批处理一体化的框架,能够解决这类问题,将批处理视作流处理的一种特殊情况,使得开发和管理过程大为简化。

3. 事务型处理

在电子银行系统、在线购物商城、航空订票系统等场景中,这种事务型处理是非常常见的。例如在一个购物车结账操作中,可能包含减少商品的库存数量、将商品添加到购买历史记录、更新客户支付信息等步骤,这些步骤需要构成一个完整的事务,以保证数据的完整性和一致性。

事务型处理(Transaction Processing)是特定于应用和特定于业务的一种任务执行和数据管理方式,通常在数据库管理系统(DBMS)中进行。这种处理类型侧重于完成一系列操作,以产生一组一致、原子性、隔离性和持久性(ACID)的结果。

4. 分析型处理

分析型处理(Analytical Processing)是用于分析和管理业务数据的技术。它发生在数据库中,并侧重于制定业务策略和决策的数据驱动分析。这通常包括收集和检查历史数据以发现趋势、行为模式和洞见,帮助组织利用这些信息改善其业务流程。

分析型处理通常与在线分析处理(OLAP)和数据仓库(Data Warehousing)相关。OLAP 是一种多维的分析方法,它允许用户从不同的视角和维度(如时间、地点、产品类型等)进行数据分析。

以下是几种常见的分析处理:

  1. 描述性分析(Descriptive Analysis):对历史数据进行分析,以了解过去发生了什么。例如,过去一年中的销售数据分析。

  2. 预测性分析(Predictive Analysis):通过使用数据挖掘、机器学习和预测模型来预测未来可能发生的情况。

  3. 诊断性分析(Diagnostic Analysis):对数据进行深入研究,以了解特定结果发生的原因。

  4. 预防性分析(Prescriptive Analysis):利用优化和模拟算法,根据预测然后决定应采取什么行动。

在许多行业,如零售、金融、医疗、市场研究等,分析型处理往往扮演着关键角色,它帮助决策者理解业务现状,预测未来趋势,从而做出更明智的决策。

  1. 零售:零售商可能利用描述性分析来确定特定时间段内的最佳销售产品,或在地理位置上的销售差异。预测性分析可能用于预测下一个季度或者节日购物季的销售趋势。预防性分析则可以辅助决策,例如基于预期的销售对库存进行调整。

  2. 金融:在金融行业中,描述性分析可用于分析过去的股票市场趋势或客户的往来交易行为。预测性分析可以用于预测未来的股市趋势,或评估借款人违约的可能性。此外,预防性分析常用于根据预测结果优化投资组合。

  3. 医疗:在医疗领域,描述性分析可能被用来研究特定疾病在某地区的发病率。预测性分析可能用于预测未来在特定情况下(例如大型活动或旅游旺季)的疾病爆发风险。而预防性分析则可用于制定有效的公共健康政策和疾病预防计划。

  4. 市场研究:市场研究人员可能会利用描述性分析来理解消费者的购买行为和态度。预测性分析可以帮助他们预测未来的市场趋势或消费者行为。预防性分析可以帮助他们在研究的基础上制定市场营销策略。

分析型处理的基本流程是一种处理海量数据、并从中获取有用信息以进行决策和策略制定的方法。以下是一个常见的分析处理流程:
在这里插入图片描述

  1. 数据收集: 这一步需要确定需要收集的数据类型和来源。例如,您可能需要收集客户交易数据、公司内部数据、公开可用的数据,等等。为了提高效率,数据收集应当尽可能自动化。

  2. 数据清洗: 数据清洗是一个重要步骤,用于移除无关数据、修正数据错误或完善缺失数据。这一步保证了后续分析的准确性。

  3. 数据整理: 在此步骤中,原始数据被转换为可以用于分析的格式。可能需要进行的任务包括分类、排序、合并和划分数据。

  4. 数据分析: 数据分析师会运用一系列统计和机器学习技术来挖掘数据中的信息。分析的目标可能包括找出数据趋势、建立预测模型、检查变量之间的关系等。

  5. 数据呈现: 分析结果常被整理为报告或数据可视化形式,这样决策者可以很容易地理解和利用分析结果。

  6. 决策和行动: 最后,基于分析结果,决策者会制定和执行相应的策略或行动计划。

用于数据分析的传统数据仓架构

在处理数据分析任务时,通常会应用到的一种方法是使用传统的数据仓库架构。这一架构通常包括以下几个关键组成部分:

  1. 源系统:这是数据仓库获取数据的原始位置。这些系统可以是各种类型的应用程序数据,如企业资源规划(ERP)系统,客户关系管理(CRM)系统,金融系统,日志文件等。

  2. ETL过程:即提取,转换,加载(Extract, Transform, Load)。数据从源系统提取出来,然后转换以满足数据仓库的规定格式和质量,最后加载到数据仓库中。

  3. 数据仓库:这是针对分析和报告的整合数据的中央存储库。它通常以一种可以提供优化查询性能和数据分类的模式(比如星型模式或雪花模式)来组织数据。

  4. 数据集市:这是针对特定业务部门或报表需求的数据仓库分区。数据集市存储的信息比数据仓库中的信息更加精细和细致,直接面向具体的业务用户。

  5. 报表和分析工具:这是在数据仓库中执行查询以查看和理解数据的工具。它们可以是商业智能(BI)工具,数据可视化工具,或者更高级的数据科学和机器学习工具。

这种架构对于大量历史数据的存储和分析是非常有用的,并且它提供了一种方式来实现跨多个源系统的数据一致性和整合。然而,它通常不适合处理实时或近实时的数据分析需求,或者处理非结构化的大数据。对于这些需求,你可能需要查看更现代和灵活的数据架构方法,如数据湖、流处理等。
在这里插入图片描述

状态化流处理

5. 事件驱动型应用

什么是事件驱动型应用?

事件驱动型应用是一类具有状态的应用,它从一个或多个事件流提取数据,并根据到来的事件触发计算、状态更新或其他外部动作。

事件驱动型应用是在计算存储分离的传统应用基础上进化而来。在传统架构中,应用需要读写远程事务型数据库。

相反,事件驱动型应用是基于状态化流处理来完成。在该设计中,数据和计算不会分离,应用只需访问本地(内存或磁盘)即可获取数据。系统容错性的实现依赖于定期向远程持久化存储写入 checkpoint。下图描述了传统应用和事件驱动型应用架构的区别。

  1. 实时推荐 例如在客户浏览商家页面的同时进行产品推荐
  2. 模式识别或复杂事件处理 例如根据信用卡交易记录进行欺诈识别
  3. 异常检测 例如计算机网络入侵检测

事件驱动型应用架构
在这里插入图片描述

6. 数据管道

什么是数据管道?

提取-转换-加载(ETL)是一种在存储系统之间进行数据转换和迁移的常用方法。ETL 作业通常会周期性地触发,将数据从事务型数据库拷贝到分析型数据库或数据仓库。

数据管道和 ETL 作业的用途相似,都可以转换、丰富数据,并将其从某个存储系统移动到另一个。但数据管道是以持续流模式运行,而非周期性触发。因此它支持从一个不断生成数据的源头读取记录,并将它们以低延迟移动到终点。例如:数据管道可以用来监控文件系统目录中的新文件,并将其数据写入事件日志;另一个应用可能会将事件流物化到数据库或增量构建和优化查询索引。

在这里插入图片描述

Flink 如何支持数据管道应用?

很多常见的数据转换和增强操作可以利用 Flink 的 SQL 接口(或 Table API)及用户自定义函数解决。如果数据管道有更高级的需求,可以选择更通用的 DataStream API 来实现。Flink 为多种数据存储系统(如:Kafka、Kinesis、Elasticsearch、JDBC数据库系统等)内置了连接器。同时它还提供了文件系统的连续型数据源及数据汇,可用来监控目录变化和以时间分区的方式写入文件。

假设我们是一个在线购物网站,需要对实时的用户购物行为数据(例如浏览、点击、购买等行为)进行处理分析,以便于实时推荐产品或者进行其他营销活动。这个场景下,我们就可以使用 Flink 构建实时数据处理管道。

  1. 数据采集:首先,用户的行为数据会被实时地打到 Kafka 这样的消息中间件。这时,Flink 可以利用自带的 Kafka connector 从 Kafka 中读取数据。

  2. 数据处理:Flink 支持实时流处理以及复杂事件处理。在读取到 Kafka 中的数据之后,Flink 可以实时处理这些数据,例如过滤出购买行为,或者对浏览行为进行计数等等。这里可以利用 Flink 的窗口操作进行时间窗口内的数据聚合。

  3. 数据存储和推荐系统的反馈:处理完的数据可以存储到例如 HDFS 或者 Elasticsearch 这样的系统中以便后续的离线分析。同时,处理结果也可以实时地发送到推荐系统,推荐系统根据这些信息实时调整推荐策略。这部分可以利用 Flink 的 sink 功能实现。
    使用 Apache Flink 进行流处理的简单示例,

假设我们在接收一流的商品交易记录,并将交易额大于某个值的记录筛选出来。

首先连接到 Kafka 作为数据源并消费其中的消息。然后,我们将每条消息转换为 Transaction 对象(该对象是我们自定义的,包含了 productprice 信息),然后通过 filter 函数过滤出价格大于 100 的交易记录。

// 创建一个 Flink 执行环境
StreamExecutionEnvironment environment = StreamExecutionEnvironment.getExecutionEnvironment();

// 假设我们从 Kafka 中读取数据,所以需要定义一个 KafkaSource
Properties kafkaProps = new Properties();
kafkaProps.put("bootstrap.servers", "localhost:9092");
kafkaProps.put("group.id", "test");

FlinkKafkaConsumer<String> kafkaConsumer = new FlinkKafkaConsumer<>("flink-topic", new SimpleStringSchema(), kafkaProps);

// 添加 source
DataStream<String> stream = environment.addSource(kafkaConsumer);

// 我们假设从 Kafka 中获得的消息是一个 JSON 字符串,包含 product 和 price,我们需要解析 JSON 字符串并过滤出价值大于 100 的交易。
DataStream<Transaction> transactions = stream.map(new MapFunction<String, Transaction>() {
    private static final long serialVersionUID = -6867736771747690202L;

    @Override
    public Transaction map(String value) throws Exception {
        ObjectMapper objectMapper = new ObjectMapper();
        return objectMapper.readValue(value, Transaction.class);
    }
});

DataStream<Transaction> filteredTransactions = transactions.filter(new FilterFunction<Transaction>() {
    @Override
    public boolean filter(Transaction t) throws Exception {
        return t.getPrice() > 100;
    }
});

// 打印结果
filteredTransactions.print();

// 执行作业
environment.execute("Flink Streaming Java API Skeleton");

进一步完善以上流程可以形成一个闭环,形成一个实时的、动态调整的数据处理与产品推荐体系。这就是一个实际应用中 Flink 如何支持数据管道应用的例子。通过 Flink,我们可以构建出实时反应、高效的、确保数据一致性的数据管道。

典型的数据管道应用实例

电子商务中的实时查询索引构建
在这里插入图片描述

电子商务中的持续 ETL

7. 流式分析

流式分析应用示例

在这里插入图片描述

在这里插入图片描述

示例

Apache Flink 是专为分布式、高性能、总持续大数据处理而设计的开源流处理框架。它提供了用于常规批处理和流处理的 API 。其核心是一个流处理引擎,专门设计用于执行任意数据流的计算,在内存执行以提供高性能。

以下是一个简单的 Apache Flink 流处理示例,用于读取 Stream 数据、处理后输出。

socket作为数据源,每接收到一行文本数据,就拆分为多个单词,然后通过 keyBy 和 sum 进行类似 MapReduce 的处理,最后将结果打印到标准输出。为运行此程序,您需要在本地主机的9999端口上启动一个套接字服务器。

import org.apache.flink.api.common.functions.FlatMapFunction;
import org.apache.flink.api.java.tuple.Tuple2;
import org.apache.flink.streaming.api.datastream.DataStream;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
import org.apache.flink.util.Collector;

public class WordCountStream {

    public static void main(String[] args) throws Exception {

        // 创建 stream execution environment
        final StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();

        // 创建一个 DataStream,数据来源可以是网络套接字、文件、kafka、数据集等
        DataStream<String> textStream = env.socketTextStream("localhost", 9999);

        // 使用空格拆分接收到的字符串,然后对结果执行 word count
        DataStream<Tuple2<String, Integer>> wordCountStream = textStream
            .flatMap(new Tokenizer())
            .keyBy(0)
            .sum(1);

        // 打印结果到 stdout (这也可以写出到文件或网络等)
        wordCountStream.print();

        // 启动流计算
        env.execute("WordCount Stream");
    }

    public static final class Tokenizer implements FlatMapFunction<String, Tuple2<String, Integer>> {
        @Override
        public void flatMap(String value, Collector<Tuple2<String, Integer>> out) {
            // 使用非字母字符拆分字符串
            String[] words = value.split("\\W+");

            // 对单词进行计数
            for (String word : words) {
                if (word.length() > 0) {
                    out.collect(new Tuple2<>(word, 1));
                }
            }
        }
    }
}

参考文档

https://flink.apache.org/zh/what-is-flink/use-cases/#%E4%BB%80%E4%B9%88%E6%98%AF%E6%95%B0%E6%8D%AE%E7%AE%A1%E9%81%93

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1146313.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

二叉树三种遍历的递归与非递归写法

目录 ​编辑 一&#xff0c;前序遍历 题目接口&#xff1a; 递归解法&#xff1a; 非递归解法&#xff1a; 二&#xff0c;中序遍历 题目接口&#xff1a; 递归解法&#xff1a; 非递归写法&#xff1a; 三&#xff0c;后序遍历 题目接口&#xff1a; 递归解法&…

IOC课程整理-17 Spring事件

1. Java 事件/监听器编程模型 2. 面向接口的事件/监听器设计模式 3. 面向注解的事件/监听器设计模式 4. Spring 标准事件-ApplicationEvent 5. 基于接口的 Spring 事件监听器 6. 基于注解的 Spring 事件监听器 7. 注册 Spring ApplicationListener 8. Spring 事件发布器 9. Spr…

基于VectorGrid加载GeoServer发布的矢量瓦片实例

目录 前言 一、关于VectorGrid 1、开源地址 2、本地示例 二、与LeafLet集成 1、新建html页面 2、地图初始化 3、pbf瓦片地址配置 4、pbf初始化 三、GeoServer跨域问题 1、web.xml配置 2、重启tomcat 总结 前言 回望10月&#xff0c;发生了一些变动&#xff0c;面向未…

状态机图和活动图

在面向对象软件分析过程中&#xff0c;状态机图和活动图用于建立软件的动态模型&#xff0c;主要描述系统随时间变化的行为。 1.状态图 1.1概念 状态图用来描述对象状态和事件之间的关系&#xff0c;强调一个实体基于事件反应的动态行为。状态图适合用于表述在不同用例之间的…

C语言#error和#line

C语言#error和#line #error #error用于生成一个编译错误消息&#xff0c;并停止编译 示例&#xff1a; 随便找了一个工程测试下#error 看图中我圈起来的部分&#xff0c;编译器提示warning和error。看我的程序如果没有定义TEST_#ERROR这个宏&#xff0c;编译器会报错You di…

我是如何快速从python小白达到20k?

前言 首先说一下我自己的情况&#xff0c;我之前是学JAVA的&#xff0c;JAVA亡了只好转行python 很多新手就在好奇自己明明都认认真真的学习了python&#xff0c;但就是感觉很杂很乱&#xff0c;按照我这个流程&#xff0c;至少可以省一大半时间&#xff0c;完整的知识体系很重…

LED主流光源-环形光源

1&#xff09;产品特点&#xff1a; ① 环形光源提供不同角度照射&#xff0c;能突出物体的三维信息有效的解决对角照射阴 影问题&#xff1b; ② 周围表面采用滚花设计&#xff0c;扩大散热面积保障光源的使用寿命&#xff1b; ③ 根据客户不同需求可 选配不同漫射板&#xff…

AIGC如何助力产品研发的创新和性能提升

1、现有的产品和系统的升级 a&#xff09;、关键算法的替换&#xff0c;用深度学习来替换&#xff0c;用数学来描述&#xff1a; 需要定义好中间状态的和&#xff0c;总体过程是,中间的过程,替换为。 总体过程表示成下面的方式: 完成替换过程&#xff1a; 。 b&#xff09;…

vivado窗口使用与分析2-IDE 中的逻辑分析

逻辑分析 包括 &#xff1a; • “ Netlist ”窗口 • “ Hierarchy ”窗口 • “ Schematic ”窗口 1、 “ Netlist ”窗口 “ Netlist ” &#xff08; 网表 &#xff09; 窗口显示了网表中由综合工具所处理的设计层级。 根据综合设置 &#xff0c; 网表层级与原始 RT…

【网络】序列化反序列化

序列化反序列化 一、序列化反序列化1、概念2、序列化作用3、序列化框架的选择 二、Json1、介绍2、简单使用 一、序列化反序列化 1、概念 在前文《网络编程套接字》中&#xff0c;我们实现了服务器与客户端之间的字符串通信&#xff0c;这是非常简单的通信&#xff0c;在实际使…

JavaScript从入门到精通系列第二十五篇:JavaScript中的Date对象

文章目录 一&#xff1a;Date对象简介 1&#xff1a;概念简介 二&#xff1a;Date对象 1&#xff1a;创建当前时间 2&#xff1a;创建指定时间 三&#xff1a;日期对象函数 1&#xff1a;getDate() 2&#xff1a;getDay() 3&#xff1a;getMonth() 4&#xff1a;getF…

基于springboot环保话题管理系统-计算机毕设 附源码 28550

springboot环保话题管理系统 摘 要 随着科学技术的飞速发展&#xff0c;社会的方方面面、各行各业都在努力与现代的先进技术接轨&#xff0c;通过科技手段来提高自身的优势&#xff0c;中小型企业当然也不能排除在外。环保话题管理系统是以实际运用为开发背景&#xff0c;运用软…

Flask路由机制分析之二

一、前言 上篇 《Flask 路由机制分析之一》主要讲了Python函数的特性以及装饰器的基本概念&#xff0c;这节我们具体分析一下路由内部机制&#xff0c;Flask路由依赖于werkzegu的routing模块来实现。 二、werkzegu的routing模块介绍 Werkzegu库的routing模块主要功能在于URL…

iMazing2024年最新许可证-iMazing许可证激活补丁

《iMazing》2024年最新许可证&#xff0c;iMazing 号称是 Mac 和PC上最好的iOS设备管理器。iMazingapp还可以帮助用户轻松地管理应用程序&#xff0c;可以方便的进行拷贝&#xff0c;安装&#xff0c;删除和更新应用程序。它可以帮助用户轻松访问文件系统&#xff0c;并可以轻松…

使用FastAPI部署Ultralytics YOLOv5模型

YOLO是You Only Look Once(你只看一次)的缩写&#xff0c;它具有识别图像中的物体的非凡能力&#xff0c;在日常应用中会经常被使用。所以在本文中&#xff0c;我们将介绍如何使用FastAPI的集成YOLOv5&#xff0c;这样我们可以将YOLOv5做为API对外提供服务。 Python有几个web框…

深入探究Python中的深度学习:神经网络与卷积神经网络

当下&#xff0c;深度学习已经成为人工智能研究和应用领域的关键技术之一。作为一个开源的高级编程语言&#xff0c;Python提供了丰富的工具和库&#xff0c;为深度学习的研究和开发提供了便利。本文将深入探究Python中的深度学习&#xff0c;重点聚焦于神经网络与卷积神经网络…

基于springboot实现校园台球厅人员与设备系统项目【项目源码+论文说明】计算机毕业设计

基于springboot实现校园台球厅人员与设备系统演示 摘要 在Internet高速发展的今天&#xff0c;我们生活的各个领域都涉及到计算机的应用&#xff0c;其中包括校园台球厅人员与设备管理系统的网络应用&#xff0c;在外国管理系统已经是很普遍的方式&#xff0c;不过国内的管理网…

CN考研真题知识点二轮归纳(1)

本轮开始更新真题中涉及过的知识点&#xff0c;总共不到20年的真题&#xff0c;大致会出5-10期&#xff0c;尽可能详细的讲解并罗列不重复的知识点~ 目录 1.三类IP地址网络号的取值范围 2.Socket的内容 3.邮件系统中向服务器获取邮件所用到的协议 4.RIP 5.DNS 6.CSMA/CD…

C++标准模板(STL)- 类型支持 (类型特性,is_member_object_pointer,is_member_function_pointer)

类型特性 类型特性定义一个编译时基于模板的结构&#xff0c;以查询或修改类型的属性。 试图特化定义于 <type_traits> 头文件的模板导致未定义行为&#xff0c;除了 std::common_type 可依照其所描述特化。 定义于<type_traits>头文件的模板可以用不完整类型实例…

IOC课程整理-11 Spring 资源管理

1. 引入动机 2. Java 标准资源管理 3. Spring 资源接口 4. Spring 内建 Resource 实现 5. Spring Resource 接口扩展 6. Spring 资源加载器 7. Spring 通配路径资源加载器 8. Spring 通配路径资源扩展 9. 依赖注入Spring Resource 10. 依赖注入 ResourceLoader 11. 面试题精选 …