人工智能之计算机视觉的发展历程与相关技术内容,相应的模型介绍

news2024/11/15 23:37:40

大家好,我是微学AI,今天给大家介绍一下人工智能之计算机视觉的发展历程与相关技术内容,相应的模型介绍。本文围绕计算机视觉这一领域,以问答的形式呈现了关键问题及详细解答。内容涵盖计算机视觉的基本概念、技术原理、应用场景等多个方面。通过这些问题与解答,读者可以全面了解计算机视觉的发展现状、面临的挑战以及未来的发展趋势。无论是对于专业人士深入研究该领域,还是初学者快速入门,本书都具有重要的参考价值,为读者提供了丰富的知识和深入的思考。
在这里插入图片描述

文章目录

  • 一、计算机视觉基础概念
    • 1.1 计算机视觉基本定义
    • 1.2 发展历程
      • 1.2.1 初创期(20世纪50-60年代)
      • 1.2.2 特征提取与匹配时期(20世纪70-80年代)
      • 1.2.3 机器学习驱动时期(20世纪90年代至21世纪初)
      • 1.2.4 深度学习主导时期(21世纪10年代至今)
    • 1.3 核心任务与挑战
  • 计算机视觉常见任务
    • 2.1 图像分类
    • 2.2 图像增强
    • 2.3 图像生成
    • 2.4 目标检测
    • 2.5 目标定位
    • 2.6 目标跟踪
    • 2.7 语义分割
    • 2.8 场景文字识别
  • 三、计算机视觉相关技术
    • 3.1 反卷积的用途
    • 3.2 模型压缩方法
    • 3.3 Batch Normalization 与 Group Normalization 的区别
      • 3.3.1 Batch Normalization (BN)
      • 3.3.2 Group Normalization (GN)
    • 3.4 神经网络的万能逼近定理
    • 3.5 图像预处理中的归一化
  • 四、计算机视觉模型与工具
    • 4.1 CNN的概念及发展历程
      • 4.1.1 CNN基础
      • 4.1.2 发展历程
    • 4.2 AlexNet
      • 4.2.1 概述与贡献
    • 4.3 VGGNet
      • 4.3.1 结构特点
    • 4.4 GoogleNet/Inception v1
      • 4.4.1 创新点
    • 4.5 ResNet
      • 4.5.1 残差学习与影响
    • 4.6 工具与框架
      • 结论
  • 五、计算机视觉应用领域与综合问题
    • 5.1 计算机视觉的核心应用领域
      • 5.1.1 交通领域的视觉应用
      • 5.1.2 安防监控的智能化
      • 5.1.3 金融领域的应用拓展
      • 5.1.4 医疗健康的精准辅助
      • 5.1.5 工业生产的自动化与优化
    • 5.2 视觉与自然语言处理的融合:视觉关系检测

一、计算机视觉基础概念

计算机视觉,作为人工智能领域的核心分支之一,旨在赋予机器以类似于人类的视觉能力,使其能够理解和解析图像及视频中的丰富信息。这一技术的发展不仅推动了自动化、智能化进程,还深刻影响了人们的生活方式和工作模式。本部分将深入介绍计算机视觉的基本定义、历史演进过程,以及当前的核心任务和挑战。

1.1 计算机视觉基本定义

计算机视觉是一门多学科交叉的科学,它综合运用了图像处理、机器学习、统计学、计算机图形学等领域的知识和技术,旨在使计算机系统能够“看”并理解环境。这不仅仅是简单地识别图像中的物体,更在于理解这些物体之间的关系、它们的行为以及所处的上下文环境。简而言之,计算机视觉的目标是模拟人类视觉系统,实现对视觉数据的高层次理解。

1.2 发展历程

计算机视觉的研究可追溯至20世纪50年代,历经了四个主要的发展阶段:

1.2.1 初创期(20世纪50-60年代)

这一时期,计算机视觉主要集中在低层次的图像处理技术,如边缘检测、阈值分割等。研究重点是通过算法来简化或增强图像,以便于后续的分析。

1.2.2 特征提取与匹配时期(20世纪70-80年代)

随着数学形态学和特征描述子的发展,该阶段计算机视觉开始关注如何从图像中自动提取有意义的特征,并进行匹配与识别。SIFT、SURF等局部特征描述子在此期间应运而生。

1.2.3 机器学习驱动时期(20世纪90年代至21世纪初)

随着机器学习理论和算法的进步,尤其是支持向量机(SVM)的兴起,计算机视觉开始利用统计学习方法解决更为复杂的分类和识别问题。这标志着从手工设计特征向数据驱动特征转变的开始。

1.2.4 深度学习主导时期(21世纪10年代至今)

自2012年AlexNet在ImageNet竞赛中的突破性表现以来,深度学习彻底改变了计算机视觉领域。基于深度神经网络(DNNs),特征表达和语义理解的能力得到了前所未有的提升。从卷积神经网络(CNNs)到循环神经网络(RNNs),再到生成对抗网络(GANs),这些技术极大地推进了图像分类、目标检测、语义分割等任务的精度和效率。

1.3 核心任务与挑战

计算机视觉的核心任务主要包括图像分类、目标检测与识别、语义分割、目标跟踪、图像生成等。深度学习的引入,使得这些任务的性能显著提高,但同时也带来了新的挑战:

  • 特征表达:如何在复杂多变的视觉场景中学习到鲁棒且具有判别性的特征,是计算机视觉的基础也是挑战。
  • 语义理解:超越物体识别,理解图像中的场景、动作和关系,是迈向更高水平视觉智能的关键。
  • 泛化能力:在新环境、新视角下保持良好的表现,减少过拟合,是衡量模型实用性的标准之一。
  • 计算资源:深度学习模型往往需要大量计算资源和存储空间,模型压缩与加速技术成为研究热点。

计算机视觉作为一门既古老又年轻的学科,在技术迭代与应用场景拓展中持续进化。深度学习的引入为其提供了强大的工具,但同时也提出了新的研究方向和挑战,如更高效的学习方法、更强的模型解释性以及更广泛的应用探索等。随着技术的不断进步,计算机视觉将在未来社会的众多领域发挥更加关键的作用。

计算机视觉常见任务

计算机视觉作为一门多领域交叉学科,旨在使机器通过图像和视频理解世界。这一部分将深入探讨计算机视觉中常见的八大任务,分析它们各自的特点、技术挑战及应用场景。

2.1 图像分类

图像分类是计算机视觉的基础任务之一,目标是识别并标记图像中的主要内容。这项任务面临的挑战包括图像中的视角变化、大小缩放、遮挡以及复杂的背景干扰。解决这些难点的关键技术有深度卷积神经网络(CNN),特别是VGGNet、ResNet等模型,它们通过多层非线性变换提取图像的高级特征,实现对数千类物体的精确分类。

2.2 图像增强

图像增强是预处理技术,旨在通过调整亮度、对比度或旋转、翻转等操作增加训练集多样性,从而提高模型的泛化能力。该过程需谨慎平衡增强强度,避免引入无关噪声或改变原有类别信息。自动增强策略,如基于政策的搜索方法,正逐渐成为研究热点,它们能在训练过程中动态调整增强参数,提升模型性能。

2.3 图像生成

图像生成涉及使用模型(如GANs)创造逼真的新图像或修改现有图像。难点在于保持生成图像的高分辨率、多样性和与训练数据的一致性,同时避免模式塌陷和生成伪影。CycleGAN、StyleGAN等技术通过循环一致性损失和更复杂的网络结构,实现了风格迁移、人脸生成等高难度任务。

2.4 目标检测

目标检测不仅要求识别出图像中的对象,还需精确地标记其位置。该任务的挑战在于处理不同尺度的对象、重叠对象以及如何在保持速度的同时提升精度。两阶段方法如R-CNN系列侧重于候选区域的选择与精炼,而单阶段方法如YOLO则通过端到端学习简化流程,实现更快的检测速度。

2.5 目标定位

目标定位是检测任务的一个子集,专注于精确地标记出单个感兴趣对象的位置。它要求更高的定位准确性,尤其是在复杂场景下。Anchor-based和Anchor-free算法是解决此问题的两种主流思路,前者如Faster R-CNN利用预设的锚框来预测边界框,后者如CornerNet直接预测对象角点,减少了预定义锚框带来的偏差。

2.6 目标跟踪

目标跟踪关注连续帧中特定对象的位置变化,要求算法具有鲁棒性,能够应对光照变化、快速运动、形变等挑战。近年来,基于深度学习的方法,如SiamFC、DeepSORT,通过学习目标表观特征和运动模式,显著提升了跟踪性能,特别是在复杂动态环境中的应用。

2.7 语义分割

语义分割旨在为图像中的每个像素分配一个类别标签,实现对图像内容的精细划分。这要求算法具备对细粒度特征的捕捉能力以及处理不同尺度对象的能力。全卷积网络(FCN)、U-Net等模型通过端到端的学习,实现了像素级的分类,并通过跳跃连接等机制保留了空间细节,提高了分割质量。

2.8 场景文字识别

场景文字识别(OCR)旨在从自然场景图像中提取并识别文本信息,面临字符形变、模糊、排列不规则等挑战。现代OCR系统结合了深度学习和传统图像处理技术,如CRNN利用CNN提取特征,LSTM进行序列建模,有效提升了识别率。EAST、SegLink等方法进一步通过改进的网络架构和损失函数,实现了对任意方向文本的高效检测与识别。计算机视觉的常见任务涵盖了从基础的图像分析到复杂的场景理解,每一项任务都在不断推动技术前沿,以适应更加多样和复杂的实际需求。通过深入研究这些任务的特点与难点,我们可以更好地设计和优化计算机视觉系统,为众多行业带来智能化变革。

三、计算机视觉相关技术

计算机视觉的进步离不开一系列关键技术的支撑,这些技术不仅增强了模型的性能,还促进了模型在实际应用中的高效部署。本部分将深入探讨计算机视觉中几个核心的技术点,包括反卷积的作用、模型压缩策略、归一化层(尤其是Batch Normalization与Group Normalization)的差异,以及神经网络的万能逼近能力,并解释图像预处理中归一化的必要性。

3.1 反卷积的用途

反卷积(Deconvolution或Transposed Convolution),尽管名称上带有“反”,实际上是一种上采样技术,常用于生成对抗网络(GANs)中的图像生成、语义分割中的上采样过程,以及对象检测中的特征图扩展。它通过在卷积操作的基础上引入填充和 stride 的逆过程,实现特征图尺寸的放大,有助于从低分辨率特征中重建高分辨率细节,为计算机视觉任务提供更丰富的空间信息。

3.2 模型压缩方法

随着模型规模的不断扩大,模型压缩成为部署计算机视觉模型至移动设备和边缘计算环境的关键。主要压缩技术包括权重量化、剪枝、知识蒸馏和低秩分解。权重量化减少表示权重所需的比特数;剪枝移除网络中不重要的连接;知识蒸馏利用复杂的大模型指导小模型学习;低秩分解则将权重矩阵分解为乘积形式,降低参数量。这些方法在不显著牺牲性能的前提下,有效减少了模型的存储和计算需求。

3.3 Batch Normalization 与 Group Normalization 的区别

3.3.1 Batch Normalization (BN)

Batch Normalization是在训练深层神经网络时广泛应用的一种归一化技术,旨在解决内部协变量偏移问题,加速训练过程并提高模型的泛化能力。它通过对每个批次的数据进行标准化,确保每一层的输入具有零均值和单位方差,从而减少训练过程中的梯度消失和爆炸现象。

3.3.2 Group Normalization (GN)

Group Normalization是为了解决BN在小批量尺寸下表现不佳的问题而提出的。不同于BN在整个批次上进行归一化,GN将通道分为多个组,在每个组内独立进行归一化处理,这样即便在小批量情况下也能维持较好的统计稳定性。GN在诸如实时视频处理和医学图像分析等需要高效处理单样本或小批量数据的场景中表现优异。

3.4 神经网络的万能逼近定理

神经网络的万能逼近定理指出,一个具有至少一层隐藏层的神经网络,只要具有足够数量的神经元,理论上可以以任意精度逼近任何连续函数。这一理论支持了深度学习在计算机视觉乃至更广泛领域的广泛应用,意味着给定足够的数据和计算资源,神经网络能够学习到复杂视觉任务的内在规律。

3.5 图像预处理中的归一化

图像输入网络前的归一化处理至关重要。这一步骤通常包括减去平均值(如RGB通道的平均像素值)和除以标准差,目的是消除光照条件、拍摄设备差异等因素带来的影响,使得网络能更好地聚焦于图像的结构和内容特征,而非这些无关的变异性。归一化还能加速训练过程,提升模型的泛化能力,因为网络权重初始化和学习率设置都基于这种标准化后的输入范围。

综上所述,计算机视觉领域的关键技术不仅推动了模型性能的边界,也极大地促进了其在实际应用场景中的普及和效率。反卷积的灵活运用、模型压缩策略的有效实施、归一化技术的创新,以及神经网络理论的支持,共同构成了计算机视觉技术发展的坚实基石。

四、计算机视觉模型与工具

计算机视觉模型的发展极大地推动了该领域的进步,其中卷积神经网络(CNN)作为核心技术,在图像识别、物体检测等领域展现了惊人的能力。本部分将深入探讨CNN的概念、发展历程,以及几个里程碑式的模型——AlexNet、VGGNet、GoogleNet/Inception v1、ResNet,分析它们各自的特点和优势。

4.1 CNN的概念及发展历程

4.1.1 CNN基础

卷积神经网络是一种特殊的神经网络结构,特别适合于处理具有网格结构的数据,如图像。其核心在于卷积层,能够通过学习局部特征来高效提取图像信息,减少了全连接网络所需的参数量,提高了模型的泛化能力。此外,池化层用于下采样,减少计算量,而激活函数如ReLU引入非线性,增强了模型的表达能力。

4.1.2 发展历程

CNN的兴起始于1980年代Fukushima的Neocognitron模型,但真正进入大众视野是在2012年,Hinton团队的AlexNet在ImageNet竞赛中取得突破性成果。自此之后,CNN模型经历了飞速发展,不断刷新各项视觉任务的性能上限。

4.2 AlexNet

4.2.1 概述与贡献

AlexNet是深度学习时代计算机视觉的开山之作,它首次使用GPU加速训练,拥有多达8层的深度结构,展示了深度网络在大规模图像分类上的巨大潜力。AlexNet的成功证明了深度模型的有效性,引领了后续研究者对更深网络结构的探索。

4.3 VGGNet

4.3.1 结构特点

VGGNet通过采用简单但连续的3x3小卷积核,构建出深度达到16到19层的网络,强调网络深度对于提升性能的重要性。这种设计简化了网络结构,易于理解和实现,同时也保持了较高的准确性,成为后来许多模型的基础架构。

4.4 GoogleNet/Inception v1

4.4.1 创新点

GoogleNet,也称为Inception v1,提出了“ inception模块”,该模块通过并行使用不同大小的卷积核来提取多尺度特征,有效增加了网络的宽度而非单纯增加深度,实现了高性能与计算资源的高效利用。这一创新极大影响了后续模型的设计思路。

4.5 ResNet

4.5.1 残差学习与影响

Residual Network(ResNet)解决了深度网络训练中的梯度消失问题,通过引入残差连接,使得网络可以更容易地学习到深层特征,理论上可以无限加深网络层数。ResNet在2015年的ImageNet竞赛中获得冠军,其提出的残差学习机制成为后续众多网络设计的基石。

4.6 工具与框架

在计算机视觉模型开发中,工具和框架起到了关键作用,如TensorFlow、PyTorch等提供了丰富的API和库支持,使得研究人员可以快速搭建和实验新的模型。同时,Keras、FastAI等高级API降低了入门门槛,促进了计算机视觉技术的普及和应用。

结论

CNN及其衍生出的一系列模型,如AlexNet、VGGNet、GoogleNet/Inception v1、ResNet等,不仅显著提升了计算机视觉任务的性能,而且各自以独特的方式推动了技术的进步。这些模型的创新点,如深度、宽度、残差连接等,为后续研究提供了宝贵的思路。随着工具和框架的不断优化,计算机视觉模型的开发和应用将会更加广泛和深入。

五、计算机视觉应用领域与综合问题

计算机视觉作为一门交叉学科,其技术的发展和应用已经深入到社会的方方面面,不仅推动了多个行业的转型和升级,还促进了新应用场景的诞生。本部分将详细探讨计算机视觉的主要应用领域,并触及视觉与自然语言处理相结合的前沿课题。

5.1 计算机视觉的核心应用领域

5.1.1 交通领域的视觉应用

在交通领域,计算机视觉技术被广泛应用于智能驾驶、交通监控和管理系统中。自动驾驶车辆利用摄像头捕获周围环境,通过计算机视觉算法实现道路识别、障碍物检测、行人预测等,提高行驶安全性与效率。交通监控系统则利用视觉技术进行违章行为识别、车流量统计、交通事故预警,有效缓解城市交通压力并提升公共安全水平。

5.1.2 安防监控的智能化

计算机视觉在安防行业的应用显著提升了监控的准确性和响应速度。人脸识别技术使得系统能够快速识别个体身份,有效应用于公共场所的安全管理、罪犯追踪等。行为分析功能可以自动监测异常行为,如入侵检测、遗留物识别,大大减轻了人力监控负担。

5.1.3 金融领域的应用拓展

在金融行业,计算机视觉技术被用于身份验证、欺诈检测和文档分析等方面。通过高精度的人脸识别技术,金融机构能快速完成客户身份核验,提升交易安全性。此外,视觉技术还能自动审核财务文件,识别发票、合同等文档信息,提高工作效率,减少人为错误。

5.1.4 医疗健康的精准辅助

医疗健康领域中,计算机视觉技术为诊断提供精准支持。它能够辅助医生进行病变区域检测(如肿瘤识别)、细胞计数、病理切片分析等,提高诊断准确性。此外,在手术中,通过实时影像分析指导操作,降低手术风险,促进微创手术技术的发展。

5.1.5 工业生产的自动化与优化

工业生产中,计算机视觉技术的应用实现了生产流程的自动化和质量控制的智能化。它可以监控生产线上的产品,进行瑕疵检测、零件定位、装配引导等,确保产品质量,同时优化生产效率。在物流仓储环节,视觉技术也用于货物识别与分拣,提高物流效率。

5.2 视觉与自然语言处理的融合:视觉关系检测

随着AI技术的深入发展,计算机视觉与自然语言处理(NLP)的结合成为新的研究热点,其中视觉关系检测是重要方向之一。该技术旨在理解图像中物体之间的复杂关系,并将其转化为人类可读的自然语言描述。例如,在一张图片中,不仅要识别出“狗”和“球”,还要理解它们之间存在“狗追球”的关系。这不仅需要强大的图像识别能力,还需要理解图像内容的逻辑结构,并能生成准确、流畅的文本描述。视觉关系检测在图像检索、辅助决策系统、智能教育等领域展现出巨大潜力,进一步推动了人工智能的跨领域融合与发展。

计算机视觉技术在多领域的广泛应用,不仅体现了其强大的技术影响力,也预示着未来人工智能与各行业深度融合的趋势。随着技术的不断成熟和创新,计算机视觉将在更多维度和层次上促进社会经济的发展,解决更复杂的实际问题。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2159252.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

全方位洗衣洗鞋小程序系统,重塑干洗店服务新体验;

全方位洗衣洗鞋小程序系统,重塑干洗店服务新体验; 一、核心功能革新: 1.多元化下单模式:融合上门取送、到店服务、寄存网点及智能衣柜四种便捷方式,用户轻松一键下单,享受个性化服务。 2.从下单到送回,全程…

Kotlin高阶函数func

Kotlin高阶函数func fun sum(a: Int, b: Int, someFunc: () -> Unit) {println("${a b}")someFunc() }fun myFunc() {println("计算成功") }fun main() {sum(1, 2, ::myFunc) } 输出: 3 计算成功 Kotlin函数作为参数指向不同逻辑_ketlin 将…

ubuntu中通过源码安装pointnet2_ops_lib

注:本帖所用环境为:ubuntu 24.04、 cuda 12.04 文章目录 1. 克隆 PointNet 源码库2. 安装依赖3. 编译 pointnet2_ops_lib4. 测试安装 1. 克隆 PointNet 源码库 首先,克隆 PointNet 的 GitHub 仓库: git clone https://github.co…

ML 系列:机器学习和深度学习的深层次总结(08)—欠拟合、过拟合,正确拟合

ML 系列赛:第 9 天 — Under、Over 和 Good Fit 文章目录 一、说明二、了解欠拟合、过拟合和实现正确的平衡三、关于泛化四、欠拟合五、过拟合六、适度拟合七、结论 一、说明 在有监督学习过程中,对于指定数据集进行训练,训练结果存在欠拟合…

基于Es和智普AI实现的语义检索

1、什么是语义检索 语义检索是一种利用自然语言处理(NLP)和人工智能(AI)技术来理解搜索查询的语义,以提供更准确和相关搜索结果的搜索技术,语义检索是一项突破性的技术,旨在通过深入理解单词和…

QT菜单栏设计(二级菜单栏)

目的:创建一级菜单栏,添加对应选项,并向一级菜单栏中添加二级菜单栏选项。 #include "mainwindow.h" #include "ui_mainwindow.h"MainWindow::MainWindow(QWidget *parent): QMainWindow(parent), ui(new Ui::MainWindo…

【天怡AI-注册安全分析报告-无验证方式导致安全隐患】

前言 由于网站注册入口容易被黑客攻击,存在如下安全问题: 1. 暴力破解密码,造成用户信息泄露 2. 短信盗刷的安全问题,影响业务及导致用户投诉 3. 带来经济损失,尤其是后付费客户,风险巨大,造…

Netty笔记07-粘包与半包(上)

文章目录 前言1. 粘包造成粘包的原因解决粘包的方法 2. 半包造成半包的原因解决半包的方法 粘包现象服务端代码示例客户端代码示例 半包现象现象分析粘包半包滑动窗口MSS 限制Nagle 算法 前言 粘包和半包问题是网络编程中常见的问题,特别是在TCP协议中。通过合理的设…

C++编程语言:基础设施:源文件和程序(Bjarne Stroustrup)

第15章 源文件和程序 (Source Files and Programs) 目录 15.1 单独编译(Separate Compilation) 15.2 链接(Linkage) 15.2.1 文件局部名(File-Local Names) 15.2.2 头文件(Header Files) 15.2.3 一次定义原则(The One-Definition Rule) 15.2.4 标准库头文件 1…

Python办公自动化教程(001):PDF内容提取

1、Pdfplumber介绍 pdfplumber的github地址: https://github.com/jsvine/pdfplumber/【介绍】:pdfplumber 是一个用于处理 PDF 文件的 Python 第三方库,它提供了一种方便的方式来提取 PDF 文件中的文本、表格和其他信息。【功能】&#xff…

JEDEC DDR3 SRAM standard

DDRDouble Data Rate双倍速率,DDR SDRAM双倍速率同步动态随机存储器,人们习惯称为DDR,其中,SDRAM 是Synchronous Dynamic Random Access Memory的缩写,即同步动态随机存取存储器。而DDR SDRAM是Double Data Rate SDRAM的缩写&…

交叉熵损失函数的使用

交叉熵损失函数 交叉熵损失函数(Cross-Entropy Loss),也称为对数损失(Log Loss),是机器学习和深度学习中常用的损失函数之一,尤其在分类问题中。它衡量的是模型预测的概率分布与真实标签的概率…

写作文的AI,不妨试试这些工具

写作文的AI,随着人工智能技术的迅猛发展,AI写作软件已经成为许多作家、学生和内容创作者的得力助手。这些软件不仅能帮助用户生成高质量的文章,还能提供创意灵感、语法校正和内容优化等多重功能。下面,本文将介绍五款各具特色的AI…

s3c2440——UART串口通信

一、通信方式 1、并行通信:一次可收发2bit/2bit以上。通信效率高;但对SOC硬件资源占用率太高。 串行通信:一次通信传递1bit。降低对硬件占用率;但通信速率低。 2、单工通信:只能A发送,B接收。 半双工通信…

D. Minimize the Difference (Codeforces Round 973 Div. 2)

D. Minimize the Difference 思路: 发现操作是单向的从左往右取高补低,最终目标是尽可能趋于平均,使最大值最小和使最小值最大。可以用二分答案法分别找到两个最值,然后做差即可。 关于这种算法的正确性没有做严格的证明&#x…

国庆节适合买什么东西?精选五款实用又优惠的多功能好物!

临近国庆,我猜很多朋友已经开始为假期做好准备,计划开启出游和购物的节奏了!大家都希望在国庆期间,买到一些平时因为价格太贵而舍不得下单的好物!作为一名家居兼数码博主,每年国庆的时候我都会疯狂采购各种…

那年我双手插兜,使用IPv6+DDNS动态域名解析访问NAS

估计有很多科技宅和我一样,会买一个NAS存储或者自己折腾刷一下黑群晖玩玩,由于运营商不给分配固定的公网IP,就导致我在外出的时候无法访问家里的NAS,于是远程访问常常受到IP地址频繁变动的困扰。为了解决这一问题,结合…

对FPGA加载过程中不同寄存器初始化方式现象的分析

对FPGA加载过程中不同寄存器初始化方式现象的分析 概述目的术语和缩略语参考资料 相关原理分析MMCM时钟锁定分析声明信号时进行初始化RTL测试代码示波器现象 同步复位/置位初始化RTL测试代码示波器现象 异步复位/置位初始化RTL测试代码示波器现象 不进行任何初始化操作&#xf…

JSP 指令标识和脚本标识的使用

文章目录 前言一、JSP 页面是什么?二、JSP 基本语法 1.指令标识 (1)page 指令(2)include 指令(3)taglib 指令2.脚本标识总结 前言 在进行Java Web 应用开发的过程中,JSP 是必不可少的…

9.19工作笔记

怎么做多空对冲 脚本2 read_coin选币单币涨跌幅计算单币资金曲线单币资金曲线均值得到周期总体资金曲线周期总体资金曲线得到周期总体涨跌幅周期总体涨跌幅计算得到总体资金曲线 脚本2怎么实现多空对冲的 首先读取factors和periods中的文件,然后read_coin得到结…