AlexNet中文翻译

news2024/12/24 10:22:12

ImageNet classification with deep convolutional neural networks

原文链接:https://dl.acm.org/doi/abs/10.1145/3065386

目录

使用深度卷积神经网络进行 ImageNet 分类

摘要

1 简介

2 数据集

3 架构

3.1 ReLU非线性

3.2 多GPU上的训练

3.3 局部响应标准化

3.4 重叠池化

3.5 整体架构

4 减少过度拟合

4.1 数据增强

4.2 Dropout

5 学习细节

6 结果

6.1 定性评价

7 讨论


使用深度卷积神经网络进行 ImageNet 分类

摘要

我们训练了一个大型深度卷积神经网络,将 ImageNet LSVRC-2010 竞赛中的 120 万张高分辨率图像分类为 1000 个不同的类别。在测试数据上,我们实现了 37.5% 和 17.0% 的 top-1 和 top-5 错误率,这比之前的最先进水平要好得多。该神经网络拥有 6000 万个参数和 650,000 个神经元,由五个卷积层(其中一些后面是最大池层)和三个全连接层(最终为 1000 路 softmax)组成。为了加快训练速度,我们使用非饱和神经元和非常高效的 GPU 实现卷积运算。为了减少全连接层中的过度拟合,我们采用了最近开发的称为“dropout”的正则化方法,事实证明该方法非常有效。我们还在 ILSVRC-2012 竞赛中输入了该模型的一个变体,并取得了 15.3% 的获胜前 5 名测试错误率,而第二名的测试错误率为 26.2%。

1 简介

当前的物体识别方法充分利用了机器学习方法。为了提高它们的性能,我们可以收集更大的数据集,学习更强大的模型,并使用更好的技术来防止过度拟合。直到最近,标记图像的数据集还相对较小——大约有数万张图像(例如,NORB [16]、Caltech-101/256 [8, 9] 和 CIFAR-10/100 [12])。使用这种大小的数据集可以很好地解决简单的识别任务,特别是如果通过保留标签的转换来增强它们。例如,MNIST 数字识别任务当前的最佳错误率 (<0.3%) 接近人类表现 [4]。

但现实环境中的物体表现出相当大的可变性,因此要学习识别它们,有必要使用更大的训练集。事实上,小型图像数据集的缺点已被广泛认识到(例如,Pinto 等人[21]),但直到最近才成为可能收集包含数百万张图像的标记数据集。新的更大数据集包括 LabelMe [23](由数十万张完全分割的图像组成)和 ImageNet [6](由 22,000 多个类别的超过 1500 万张带标签的高分辨率图像组成)。

为了从数百万张图像中了解数千个物体,我们需要一个具有强大学习能力的模型。然而,对象识别任务的巨大复杂性意味着即使像 ImageNet 这样大的数据集也无法指定这个问题,因此我们的模型还应该拥有大量先验知识来弥补我们没有的所有数据。卷积神经网络(CNN)就是这样一类模型[16,11,13,18,15,22,26]。它们的容量可以通过改变深度和广度来控制,并且它们还对图像的性质(即统计的平稳性和像素依赖性的局部性)做出强有力且基本正确的假设。因此,与具有类似大小层的标准前馈神经网络相比,CNN 的连接和参数要少得多,因此它们更容易训练,而它们理论上的最佳性能可能只是稍差一些。

尽管 CNN 具有吸引人的品质,并且尽管其本地架构相对高效,但大规模应用于高分辨率图像仍然昂贵得令人望而却步。幸运的是,当前的 GPU 与高度优化的 2D 卷积实现相结合,功能强大,足以促进有趣的大型 CNN 的训练,并且 ImageNet 等最近的数据集包含足够的标记示例来训练此类模型,而不会出现严重的过度拟合。

本文的具体贡献如下:我们在 ILSVRC-2010 和 ILSVRC-2012 竞赛 [2] 中使用的 ImageNet 子集上训练了迄今为止最大的卷积神经网络之一,并取得了迄今为止报道过的最佳结果这些数据集。我们编写了高度优化的 2D 卷积 GPU 实现以及训练卷积神经网络固有的所有其他操作,并将其公开发布1。我们的网络包含许多新的和不寻常的功能,这些功能可以提高其性能并减少其训练时间,这些功能将在第 3 节中详细介绍。即使有 120 万个标记的训练示例,我们网络的规模也使得过度拟合成为一个严重问题,因此我们使用了几个防止过度拟合的有效技术,这在第 4 节中进行了描述。我们的最终网络包含五个卷积层和三个全连接层,这个深度似乎很重要:我们发现删除任何卷积层(每个卷积层包含不超过 1 个模型参数的%)导致性能较差。

最后,网络的大小主要受到当前 GPU 上可用内存量以及我们愿意容忍的训练时间的限制。我们的网络需要五到六天的时间在两个 GTX 580 3GB GPU 上进行训练。我们所有的实验都表明,只需等待更快的 GPU 和更大的数据集可用,我们的结果就可以得到改善

2 数据集

ImageNet 是一个包含超过 1500 万张带标签的高分辨率图像的数据集,属于大约 22,000 个类别。这些图像是从网络上收集的,并由人工贴标员使用亚马逊的 Mechanical Turk 众包工具进行标记。从 2010 年开始,作为 Pascal 视觉对象挑战赛的一部分,每年举办一次名为 ImageNet 大规模视觉识别挑战赛 (ILSVRC) 的比赛。 ILSVRC 使用 ImageNet 的子集,每个类别包含大约 1000 个图像。总共大约有 120 万张训练图像、5 万张验证图像和 15 万张测试图像。

ILSVRC-2010 是唯一可用测试集标签的 ILSVRC 版本,因此我们在该版本上执行了大部分实验。由于我们也在 ILSVRC-2012 竞赛中输入了我们的模型,因此在第 6 节中,我们也报告了此版本数据集的结果,其中测试集标签不可用。在 ImageNet 上,通常报告两个错误率:top-1 和 top-5,其中 top-5 错误率是测试图像中正确标签不在模型认为最有可能的五个标签中的比例。

ImageNet 由可变分辨率图像组成,而我们的系统需要恒定的输入维度。因此,我们将图像下采样到固定分辨率 256 × 256。给定一个矩形图像,我们首先重新缩放图像,使短边的长度为 256,然后从生成的图像中裁剪出中央 256 × 256 的块。图像。除了从每个像素中减去训练集的平均活动之外,我们没有以任何其他方式预处理图像。因此,我们根据像素的(居中)原始 RGB 值来训练我们的网络。

3 架构

我们的网络架构如图 2 所示。它包含八个学习层——五个卷积层和三个全连接层。下面,我们描述了我们网络架构的一些新颖或不寻常的特征。第 3.1-3.4 节根据我们对其重要性的估计进行排序,最重要的排在最前面。

3.1 ReLU非线性

将神经元的输出 f 建模为其输入 x 的函数的标准方法是使用 f(x) = tanh(x) 或 f(x) =(1+ 𝑒−𝑥)−1 。就梯度下降的训练时间而言,这些饱和非线性比非饱和非线性 f(x) = max(0, x) 慢得多。遵循 Nair 和 Hinton [20],我们将具有这种非线性的神经元称为整流线性单元 (ReLU)。使用 ReLU 的深度卷积神经网络的训练速度比使用 tanh 单元的深度卷积神经网络快几倍。图 1 对此进行了演示,该图显示了特定四层卷积网络在 CIFAR-10 数据集上达到 25% 训练误差所需的迭代次数。该图表明,如果我们使用传统的饱和神经元模型,我们将无法在这项工作中试验如此大型的神经网络。

我们并不是第一个考虑替代 CNN 中传统神经元模型的人。例如,Jarrett 等人 [11] 声称非线性 f(x) =|tanh(x)| 在 Caltech-101 数据集上的对比度归一化和局部平均池化后效果特别好。然而,在这个数据集上,主要关注的是防止过度拟合,因此他们观察到的效果与我们在使用 ReLU 时报告的加速拟合训练集的能力不同。更快的学习对在大型数据集上训练的大型模型的性能有很大影响。

图 1:使用 ReLU(实线)的四层卷积神经网络在 CIFAR-10 上达到 25% 的训练错误率,比使用 tanh 神经元(虚线)的等效网络快六倍。每个网络的学习率都是独立选择的,以使训练尽可能快。没有采用任何形式的正则化。这里展示的效果大小因网络架构而异,但使用 ReLU 的网络的学习速度始终比使用饱和神经元的网络快几倍

3.2 GPU上的训练

单个 GTX 580 GPU 仅具有 3GB 内存,这限制了可在其上训练的网络的最大大小。事实证明,120 万个训练样本足以训练一个 GPU 无法容纳的庞大网络。因此,我们将网络分布在两个 GPU 上。当前的 GPU 特别适合跨 GPU 并行化,因为它们能够直接读取和写入彼此的内存,而无需通过主机内存。我们采用的并行化方案本质上是将一半的内核(或神经元)放在每个 GPU 上,还有一个额外的技巧:GPU 仅在某些层中进行通信。这意味着,例如,第 3 层的内核从第 2 层中的所有内核映射获取输入。但是,第 4 层中的内核仅从驻留在同一 GPU 上的第 3 层中的那些内核映射获取输入。选择连接模式是交叉验证的一个问题,但这使我们能够精确调整通信量,直到它达到计算量的可接受的分数。

由此产生的架构有点类似于 Cire¸san 等人 [5] 采用的“列式”CNN 的架构,只是我们的列不是独立的(见图 2)。与在一个 GPU 上训练的每个卷积层中内核数量减半的网络相比,该方案将 top-1 和 top-5 错误率分别降低了 1.7% 和 1.2%。双 GPU 网络的训练时间比单 GPU 网络略少。

注:单 GPU 网络实际上在最终卷积层中具有与双 GPU 网络相同的内核数量。这是因为网络的大部分参数都在第一个全连接层中,该层将最后一个卷积层作为输入。因此,为了使两个网络具有大致相同数量的参数,我们没有将最终卷积层(也没有随后的全连接层)的大小减半。因此,这种比较偏向于单 GPU 网络,因为它比双 GPU 网络的“一半大小”还要大。

3.3 局部响应标准化

ReLU 具有理想的特性,即它们不需要输入标准化来防止它们饱和。如果至少有一些训练样例对 ReLU 产生正输入,学习就会在该神经元中发生。然而,我们仍然发现以下局部标准化方案有助于泛化。用𝑎𝑥, 𝑦𝑖表示通过在位置 (x, y) 处应用核 i 然后应用 ReLU 非线性计算的神经元的活动,响应归一化活动 𝑏𝑥, 𝑦𝑖由以下表达式给出:

其中总和运行在同一空间位置的 n 个“相邻”核映射上,N 是层中核的总数。内核映射的顺序当然是任意的,并且在训练开始之前确定。这种响应标准化实现了一种受真实神经元中发现的类型启发的侧向抑制形式,在使用不同内核计算的神经元输出之间创造了对大活动的竞争。常数 k,n,α和β是超参数,其值是使用验证集确定的;我们使用 k = 2、n = 5、α = 10−4 和 β = 0.75。我们在某些层中应用 ReLU 非线性之后应用了这种归一化(参见第 3.5 节)。

该方案与 Jarrett 等人 [11] 的局部对比度归一化方案有一些相似之处,但我们的方案更准确地称为“亮度归一化”,因为我们不减去平均活动。响应归一化将 top-1 和 top-5 错误率分别降低了 1.4% 和 1.2%。我们还在 CIFAR-10 数据集上验证了该方案的有效性:四层 CNN 在没有归一化的情况下实现了 13% 的测试错误率,在归一化的情况下达到了 11%。

3.4 重叠池化

CNN 中的池化层总结了同一内核映射中相邻神经元组的输出。传统上,相邻池单元总结的邻域不重叠(例如,[17,11,4])。更准确地说,池化层可以被认为是由间隔 s 个像素的池化单元网格组成,每个池化单元总结了以池化单元位置为中心的大小为 z × z 的邻域。如果我们设置 s = z,我们就获得了 CNN 中常用的传统局部池化。如果我们设置 s < z,我们就获得重叠池化。这是我们在整个网络中使用的,其中 s = 2 和 z = 3。与非重叠方案 s = 相比,该方案将 top-1 和 top-5 错误率分别降低了 0.4% 和 0.3% ;z = 2,产生等效尺寸的输出。我们通常在训练过程中观察到,具有重叠池化的模型发现过拟合稍微困难一些。

3.5 整体架构

现在我们准备好描述 CNN 的整体架构了。如图 2 所示,该网络包含八个带有权重的层;前五个是卷积的,其余三个是全连接的。最后一个全连接层的输出被馈送到 1000 路 softmax,生成 1000 个类标签的分布。我们的网络最大化多项式逻辑回归目标,这相当于最大化预测分布下正确标签的对数概率的训练案例的平均值。

第二、第四和第五卷积层的内核仅连接到驻留在同一 GPU 上的前一层中的内核映射(参见图 2)。第三卷积层的内核连接到第二层中的所有内核映射。全连接层中的神经元与前一层中的所有神经元连接。响应归一化层位于第一和第二卷积层之后。最大池层(第 3.4 节中描述的那种)位于响应归一化层和第五个卷积层之后。 ReLU 非线性应用于每个卷积层和全连接层的输出。

图 2:我们的 CNN 架构图,明确显示了两个 GPU 之间的职责划分。一个 GPU 运行图顶部的层部分,而另一个 GPU 运行底部的层部分。 GPU 仅在某些层进行通信。网络的输入为 150,528 维,网络剩余层中的神经元数量为 253,440–186,624–64,896–64,896–43,264–4096–4096–1000。

第一个卷积层使用 96 个大小为 11×11×3 的核对 224×224×3 输入图像进行过滤,步幅为 4 个像素(这是核图中相邻神经元接受野中心之间的距离)。

第二个卷积层将第一个卷积层的(响应归一化和池化)输出作为输入,并使用 256 个大小为 5 × 5 × 48 的内核对其进行过滤。

第三、第四和第五卷积层相互连接,没有任何中间池化或归一化层。第三个卷积层有 384 个大小为 3 × 3 × 256 的内核,连接到第二个卷积层的(归一化、池化)输出。第四个卷积层有 384 个大小为 3 × 3 × 192 的内核,第五个卷积层有 256 个大小为 3 × 3 × 192 的内核。每个全连接层有 4096 个神经元。

4 减少过度拟合

我们的神经网络架构有 6000 万个参数。尽管 ILSVRC 的 1000 个类别使每个训练示例对从图像到标签的映射施加 10 位约束,但事实证明,这不足以在不出现严重过拟合的情况下学习如此多的参数。下面,我们描述了对抗过度拟合的两种主要方法。

4.1 数据增强

减少图像数据过度拟合的最简单和最常见的方法是使用标签保留变换人为地扩大数据集(例如,[25,4,5])。我们采用两种不同形式的数据增强,这两种形式都允许通过很少的计算从原始图像生成转换后的图像,因此转换后的图像不需要存储在磁盘上。

在我们的实现中,转换后的图像是在 CPU 上用 Python 代码生成的,而 GPU 则对前一批图像进行训练。因此,这些数据增强方案实际上是无需计算的。

数据增强的第一种形式包括生成图像平移和水平反射。我们通过从 256×256 图像中提取随机 224×224 块(及其水平反射)并在这些提取的块上训练我们的网络来实现此目的4。这将我们的训练集的大小增加了 2048 倍,尽管最终的训练示例当然是高度相互依赖的。如果没有这个方案,我们的网络就会遭受严重的过度拟合,这将迫使我们使用更小的网络。在测试时,网络通过提取五个 224 × 224 补丁(四个角补丁和中心补丁)及其水平反射(因此总共十个补丁)来进行预测,并对网络的 softmax 层做出的预测进行平均在十个补丁上。

(注:这就是图 2 中的输入图像为 224 × 224 × 3 维的原因。)

数据增强的第二种形式包括改变训练图像中 RGB 通道的强度。具体来说,我们对整个 ImageNet 训练集中的 RGB 像素值集执行 PCA。对于每个训练图像,我们添加多个找到的主成分,其大小与相应的特征值乘以从均值为零、标准差为 0.1 的高斯分布中得出的随机变量成正比。因此对于每个RGB图像像素𝐼𝑥𝑦 = [𝐼𝑥𝑦𝑅, 𝐼𝑥𝑦𝐺, 𝐼𝑥𝑦𝐵]𝑇 我们添加以下数量:

其中𝑝𝑖i和λi分别是RGB像素值的3×3协方差矩阵的第i个特征向量和特征值,αi是上述随机变量。每个 αi 仅针对特定训练图像的所有像素绘制一次,直到该图像再次用于训练,此时将重新绘制。该方案大致捕捉了自然图像的一个重要属性,即对象身份对于照明强度和颜色的变化是不变的。该方案将top-1错误率降低了1%以上。

4.2 Dropout

结合许多不同模型的预测是减少测试错误的一种非常成功的方法 [1, 3],但对于已经需要几天时间来训练的大型神经网络来说似乎过于昂贵。然而,有一个非常有效的模型组合版本,在训练期间仅花费大约两倍的成本。最近推出的技术称为“dropout”[10],包括以 0.5 的概率将每个隐藏神经元的输出设置为零。以这种方式“丢弃”的神经元不会对前向传播做出贡献,也不参与反向传播。因此,每次出现输入时,神经网络都会对不同的架构进行采样,但所有这些架构都共享权重。这项技术减少了神经元复杂的共同适应,因为神经元不能依赖于特定其他神经元的存在。因此,它被迫学习更强大的特征,这些特征与其他神经元的许多不同的随机子集结合使用是有用的。在测试时,我们使用所有神经元,但将它们的输出乘以 0.5,这是采用指数多丢失网络产生的预测分布的几何平均值的合理近似值。

我们在图 2 的前两个全连接层中使用了 dropout。如果没有 dropout,我们的网络就会表现出严重的过度拟合。 Dropout 大约使收敛所需的迭代次数增加了一倍。

5 学习细节

我们使用随机梯度下降来训练模型,批量大小为 128 个示例,动量为 0.9,权重衰减为 0.0005。我们发现这种少量的权重衰减对于模型的学习很重要。换句话说,这里的权重衰减不仅仅是一个正则化器:它减少了模型的训练误差。权重w的更新规则为

其中 i 是迭代索引,v 是动量变量,ε是学习率,<𝜕𝐿𝜕𝑤|𝑤𝑖>𝐷𝑖 是目标相对于 w 的导数第 i 批 𝐷𝑖的平均值,在 𝑤𝑖处评估。

我们从标准差为 0.01 的零均值高斯分布初始化每层的权重。我们用常量 1 初始化第二、第四和第五卷积层以及全连接隐藏层中的神经元偏差。这种初始化通过为 ReLU 提供正输入来加速早期阶段的学习。我们用常量 0 初始化剩余层中的神经元偏差

我们对所有层使用相同的学习率,并在整个训练过程中手动调整。我们遵循的启发式方法是,当验证错误率不再随当前学习率提高时,将学习率除以 10。学习率初始化为0.01并且终止前减少了三倍。我们通过 120 万张图像的训练集对网络进行了大约 90 个周期的训练,这在两个 NVIDIA GTX 580 3GB GPU 上花费了五到六天的时间。

6 结果

表 1 总结了我们在 ILSVRC-2010 上的结果。我们的网络实现了 37.5% 和 17.0%5 的 top-1 和 top-5 测试集错误率。 ILSVRC2010 竞赛期间取得的最佳性能为 47.1% 和 28.2%,采用的方法是对在不同特征上训练的六个稀疏编码模型产生的预测进行平均 [2],此后发布的最佳结果为 45.7% 和 25.7%一种对两个分类器的预测进行平均的方法,该分类器是根据两种类型的密集采样特征计算出的费舍尔向量(FV)训练的 [24]。

表 1:ILSVRC2010 测试集上的结果比较。斜体字是其他人取得的最佳结果。

我们还在 ILSVRC-2012 竞赛中输入了我们的模型,并在表 2 中报告了我们的结果。由于 ILSVRC-2012 测试集标签未公开,因此我们无法报告我们尝试过的所有模型的测试错误率。在本段的其余部分中,我们交替使用验证错误率和测试错误率,因为根据我们的经验,它们的差异不会超过 0.1%(参见表 2)。

表 2:ILSVRC-2012 验证集和测试集的错误率比较。斜体字是其他人取得的最佳结果。带星号*的模型经过“预训练”,可以对整个 ImageNet 2011 秋季版本进行分类。详细信息请参见第 6 节。

本文描述的 CNN 实现了 18.2% 的 top-5 错误率。对 5 个相似 CNN 的预测进行平均,错误率为 16.4%。训练一个 CNN,在最后一个池化层上增加一个额外的第六个卷积层,对整个 ImageNet Fall 2011 版本(15M 图像,22K 类别)进行分类,然后在 ILSVRC-2012 上对其进行“微调”,得到的错误率为 16.6 %。将在整个 2011 年秋季版本中预训练的两个 CNN 与上述五个 CNN 的预测进行平均,得出的错误率为 15.3%。第二好的参赛作品通过对根据不同类型的密集采样特征计算出的 FV 训练的几个分类器的预测进行平均的方法实现了 26.2% 的错误率 [7]。

最后,我们还报告了 ImageNet 2009 年秋季版本(包含 10,184 个类别和 890 万张图像)的错误率。在此数据集上,我们遵循文献中的惯例,使用一半图像进行训练,一半图像进行测试。由于没有建立的测试集,我们的分割必然与之前作者使用的分割不同,但这不会明显影响结果。

我们在此数据集上的 top-1 和 top-5 错误率分别为 67.4% 和 40.9%,这是通过上述网络实现的,但在最后一个池化层上增加了第六个卷积层。该数据集上已发表的最佳结果为 78.1% 和 60.9% [19]。

6.1 定性评价

图 3 显示了网络的两个数据连接层学习的卷积核。该网络已经学习了各种频率和方向选择性内核,以及各种彩色斑点。请注意两个 GPU 表现出的专业化,这是第 3.5 节中描述的受限连接的结果。 GPU 1 上的内核很大程度上与颜色无关而 GPU 2 上的内核主要与颜色相关。这种专门化发生在每次运行期间,并且独立于任何特定的随机权重初始化(以 GPU 重新编号为模)。

图 4:(左)八张 ILSVRC-2010 测试图像和我们的模型认为最有可能的五个标签。

正确的标签写在每个图像下方,分配给正确标签的概率也用红色条显示(如果它恰好在前 5 个中)。

(右)第一列中的五张 ILSVRC-2010 测试图像。其余列显示了六个训练图像,它们在最后一个隐藏层中生成特征向量,与测试图像的特征向量的欧几里德距离最小

在图 4 的左图中,我们通过计算 8 个测试图像的前 5 个预测来定性评估网络所学到的内容。请注意,即使是偏离中心的物体,例如左上角的螨虫,也可以被网络识别。大多数前 5 名的标签看起来都是合理的。例如,只有其他类型的猫才被认为是豹子的合理标签。在某些情况下(格栅、樱桃),照片的预期焦点确实存在模糊性。

探测网络视觉知识的另一种方法是考虑图像在最后 4096 维隐藏层引起的特征激活。如果两个图像产生具有较小欧几里德分离的特征激活向量,我们可以说神经网络的更高层认为它们是相似的。图 4 显示了测试集中的 5 张图像和训练集中的 6 张图像,根据此测量,它们与每张图像最相似。请注意,在像素级别,检索到的训练图像在 L2 中通常与第一列中的查询图像不接近。例如,被回收的狗和大象以各种姿势出现。我们在补充材料中提供了更多测试图像的结果。

使用两个 4096 维实值向量之间的欧几里得距离计算相似度效率较低,但可以通过训练自动编码器将这些向量压缩为短二进制代码来提高效率。与将自动编码器应用于原始像素[14]相比,这应该产生更好的图像检索方法,自动编码器不使用图像标签,因此倾向于检索具有相似边缘模式的图像,无论它们在语义上是否相似。

7 讨论

我们的结果表明,大型深度卷积神经网络能够使用纯监督学习在极具挑战性的数据集上取得破纪录的结果。值得注意的是,如果删除单个卷积层,我们的网络性能就会下降。例如,删除任何中间层都会导致网络的 top-1 性能损失约 2%。因此,深度对于实现我们的成果确实很重要

为了简化我们的实验,我们没有使用任何无监督预训练,尽管我们期望它会有所帮助,特别是如果我们获得足够的计算能力来显着增加网络的大小,而无需获得标记数据量的相应增加。到目前为止,我们的结果已经有所改善,因为我们扩大了网络并训练了更长的时间,但为了匹配人类视觉系统的下颞叶路径,我们仍然有许多数量级的工作要做。最终,我们希望在视频序列上使用非常大和深的卷积网络,其中时间结构提供了静态图像中缺失或不太明显的非常有用的信息。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/890762.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

centos安装elasticsearch7.9

安装es 下载elasticsearch安装包解压安装包,并修改配置文件解压进入目录修改配置文件 添加用户&#xff0c;并修改所有者切换用户&#xff0c;运行es如何迁移旧版本的数据 下载elasticsearch安装包 下载地址如下&#xff0c;版本号可以替换成自己想要的。 这里需要注意一点&am…

讯飞星火、文心一言和通义千问同时编“贪吃蛇”游戏,谁会胜出?

同时向讯飞星火、文心一言和通义千问三个国产AI模型提个相同的问题&#xff1a; “python 写一个贪吃蛇的游戏代码” 看哪一家AI写的程序直接能用&#xff0c;谁就胜出&#xff01; 讯飞星火 讯飞星火给出的代码&#xff1a; import pygame import sys import random# 初…

上海亚商投顾盘:沪指震荡反弹 机器人概念股掀涨停潮

上海亚商投顾前言&#xff1a;无惧大盘涨跌&#xff0c;解密龙虎榜资金&#xff0c;跟踪一线游资和机构资金动向&#xff0c;识别短期热点和强势个股。 市场情绪 三大指数今日震荡反弹&#xff0c;科创50盘中涨超1%。机器人概念股掀涨停潮&#xff0c;通力科技、昊志机电、哈焊…

java接口导出csv

1、背景介绍 项目中需要导出数据质检结果&#xff0c;本来使用Excel&#xff0c;但是质检结果数据行数过多&#xff0c;导致用hutool报错&#xff0c;因此转为导出csv格式数据。 2、参考文档 https://blog.csdn.net/ityqing/article/details/127879556 工程环境&#xff1a;…

Spring Clould 网关 - Gateway

视频地址&#xff1a;微服务&#xff08;SpringCloudRabbitMQDockerRedis搜索分布式&#xff09; Gateway网关-网关作用介绍&#xff08;P35&#xff09; Spring Cloud Gateway 是 Spring Cloud 的一个全新项目&#xff0c;该项目是基于 Spring 5.0&#xff0c;Spring Boot 2…

The coming up production issues

Introduction Ladies and gentlemen, give it up for the wonderful world of software production ! Now, I know that what youre thinking. "Software production!?" That sounds exciting, well, let me tell you, its a rollercoaster(过山车、剧烈起伏的事物…

【第六讲---非线性优化】

优化与优化库 优化问题 &#x1f449;优化问题组成 优化对象目标函数/损失函数/评价函数约束条件 &#x1f449;分类 可以分为凸优化和非凸优化 什么是凸优化呢&#xff1f; 目标函数是凸的&#xff08;有单一极值点称为是凸的&#xff09;不等式约束是凸的所在的空间是凸…

容器和云原生(二):Docker容器化技术

目录 Docker容器的使用 Docker容器关键技术 Namespace Cgroups UnionFS Docker容器的使用 首先直观地了解docker如何安装使用&#xff0c;并快速启动mysql服务的&#xff0c;启动时候绑定主机上的3306端口&#xff0c;查找mysql容器的ip&#xff0c;使用mysql -h contain…

【脚踢数据结构】图(纯享版)

(꒪ꇴ꒪ )&#xff0c;Hello我是祐言QAQ我的博客主页&#xff1a;C/C语言&#xff0c;Linux基础&#xff0c;ARM开发板&#xff0c;软件配置等领域博主&#x1f30d;快上&#x1f698;&#xff0c;一起学习&#xff0c;让我们成为一个强大的攻城狮&#xff01;送给自己和读者的…

Pytest和Unittest测试框架的区别?

如何区分这两者&#xff0c;很简单unittest作为官方的测试框架&#xff0c;在测试方面更加基础&#xff0c;并且可以再次基础上进行二次开发&#xff0c;同时在用法上格式会更加复杂&#xff1b;而pytest框架作为第三方框架&#xff0c;方便的地方就在于使用更加灵活&#xff0…

Python Django 模型概述与应用

今天来为大家介绍 Django 框架的模型部分&#xff0c;模型是真实数据的简单明确的描述&#xff0c;它包含了储存的数据所必要的字段和行为&#xff0c;Django 遵循 DRY Principle 。它的目标是你只需要定义数据模型&#xff0c;然后其它的杂七杂八代码你都不用关心&#xff0c;…

龙迅LT9711 2PORT MIPI或者LVDS转TYPE-C

LT9711 1.描述&#xff1a; Lontium LT9711是双端口MIPI/LVDS到DP1.2转换器&#xff0c;内部有c型替代模式开关和PD控制器。MIPI DSI/CSI输入具有可配置的单端口或双端口&#xff0c;具有1个时钟通道&#xff0c;1个~4个数据通道&#xff0c;最大运行2Gbps/通道&#xff0c;可…

2023 年值得关注的 8 个最佳免费开发者工具

开发者工具对开发人员的重要性不言而喻&#xff0c;保持最新工具的更新可以显著提高你的工作效率并简化您的工作流程。随着技术的快速发展&#xff0c;新的开发工具不断被引入市场。今天&#xff0c;我们将分享 2023 年你值得关注的最新开发者工具。 1.Plaky Plaky 是一种基于…

JVM——JDK 监控和故障处理工具总结

文章目录 JDK 命令行工具jps:查看所有 Java 进程jstat: 监视虚拟机各种运行状态信息 jinfo: 实时地查看和调整虚拟机各项参数jmap:生成堆转储快照**jhat**: 分析 heapdump 文件**jstack** :生成虚拟机当前时刻的线程快照 JDK 可视化分析工具JConsole:Java 监视与管理控制台连接…

司徒理财:8.17黄金反弹遇阻,1900现价空!

黄金趋势下跌&#xff0c;现在反弹遇阻&#xff0c;继续空&#xff01;除非行情强势站上1907位置&#xff0c;否则还是空头下跌走势&#xff0c;反弹遇阻直接空&#xff01;      黄金从走势上看&#xff0c;一直阴跌&#xff0c;并且在昨日加速下行&#xff01;现在黄金受…

ubuntu18.04从0到1在ros上跑yolo5

ubuntu篇---ubuntu20.04安装cuda和cudnn_ubuntu安装cudann_心惠天意的博客-CSDN博客操作系统环境&#xff1a;Ubuntu 20.041. 安装N卡驱动首先我们需要添加源&#xff0c;sudo add-apt-repository ppa:graphics-drivers/ppasudo apt update然后检查可以安装的驱动版本&#xff…

华为将收取蜂窝物联网专利费,或将影响LPWAN市场发展

近日&#xff0c;华为正式公布了其4G和5G手机、Wi-Fi6设备和物联网产品的专利许可费率&#xff0c;其中包含了长距离通信技术蜂窝物联网。作为蜂窝物联网技术的先驱&#xff0c;华为是LTE Category NB (NB-IoT)、LTE Category M和其他4G物联网标准的主要贡献者。 在NB-IoT领域…

『论文精读』Data-efficient image Transformers(DeiT)论文解读

『论文精读』Data-efficient image Transformers(DeiT)论文解读 文章目录 一. DeiT简介二. 知识蒸馏(knowledge distillation)2.1. KLDivloss2.2. 蒸馏温度 τ \tau τ2.3. distillation in transformer 三. better hyperparameter四. data augmentation五. label smoothing参…

随机微分方程

应用随机过程|第7章 随机微分方程 见知乎&#xff1a;https://zhuanlan.zhihu.com/p/348366892?utm_sourceqq&utm_mediumsocial&utm_oi1315073218793488384

2023年4大收银系统软件排名(真实测评)

现在满大街的各种服装店、便利店、百货店、母婴店...... 每天都要处理大量的订单。 使用传统的人工开单记账&#xff0c;效率低下、客户体验差、而且容易出错&#xff0c;需要耗费很多时间来回对账&#xff1b; 聪明的零售店老板都已经开始使用收银系统软件&#xff0c;通过手…