Yoshua Bengio:我的一生

news2024/11/25 22:41:07

4ad8900d985592d18d8df911fa8767ed.jpeg

文 | 智商掉了一地

2018 年图灵奖获得者、AI 先驱、深度学习三巨头之一、对抗生成网络 GAN、标志性的银灰卷发和浓眉,如果还没猜到的话,当你看到这个封面,一定就会意识到自己在学习的路上,已经或间接或直接地拜读过大佬的著作了。

a48ad59ba2efdc0d031d95d24a34fb27.png

看到花书的封面,和前面的关键词,也许你会意识到,他就是——Yoshua Bengio。

7b2a3e6103af702a74ed3af59470b982.png

从下面这个记录可以看出,他的著作在谷歌学术上的引用量也是一骑绝尘。

964be6818bbb73ae72ff7a12b01e2105.png

就在这两天的 NeurIPS 2022 New in ML Workshop 上,Yoshua Bengio 做了一个 Live Talk,介绍了自己从本科毕业开始,一直到现在的人生之路。

链接:
https://nehzux.github.io/NewInML2022NeurIPS/assets/YoshuaBengio-NewInML-NeurIPS-28nov2022.pdf

接下来,就是Bengio在大会上亲口讲述“自己一生”的故事。


从最初本科毕业时的“广度优先搜索”,了解到 Hinton 的连接主义, 到探索人脑、初代语言模型、注意力机制等等,以及度过人工智能寒冬,再到现在探索抽象、生成流网络、Ai4Science、HLAI(人类级别智能)、意识先验、System-2、因果推断、元学习、模块化等重要且新颖的领域。Yoshua Bengio 回顾了自己的科研生涯,他说“Staying Humble”。

爱上一个研究方向

一开始,Yoshua 讲述了“他是如何爱上一个研究方向”。

  • 1985 - 1986 年,他刚读完本科,思索自己下一步要做什么,阅读了大量不同领域的论文,将视线聚焦于神经网络研究,尤其是 Geoff Hinton 和 David Rumelhart 等其他早期连接主义者的论文。

  • 1986 - 1988 年,Yoshua 进一步阅读玻尔兹曼机,实现音素分类,完成了关于语音识别的玻尔兹曼机的硕士论文,而后当了解到反向传播时,对它感到兴奋,并开始使用它,在之后参加了 1988 年连接主义的暑期学校,遇到了许多其他充满热情的研究生和研究人员们。

  • 1988-1991 年,Yoshua 完成了关于神经网络(RNNs 和 ConvNets)和 HMM 混合的博士论文。

4638cdf1d478ea1e0a6178bd0b936d8e.png神经网络与人工智能b9b7bd3edb172a2149e19e799ac80851.png

随后,Yoshua 阐述了自己的工作中对于神经网络与 AI 的理解。从一个令人兴奋的先验知识出发,他指出,通过学习,智能(机器、人类或动物)的产生是有一些原则的,这些原则非常简单,可以被简洁地描述出来,类似于物理定律,也就是说,我们的智能不只是一堆技巧和知识的结果,而是获取知识的一般机制。

ebc0f248f7489d9d2a67844626446912.png

他还辨析了传统 AI 和机器学习的要点,提到了人工智能的机器学习方法:

  • 经典的 AI 一般是基于规则、基于符号的:其知识由人类提供,但直觉知识是不可传播的,机器只做推理工作,没有很强的学习和适应能力,对不确定性的处理能力不足

  • 而机器学习则试图解决这些问题:在很大程度上取得了成功,但更高层次的(有意识的)认知尚未实现。

而后 Yoshua 从维度诅咒和分布式表示(指数级优势)这两个细节出发,强调了促使 ML 向 AI 转变的五个关键因素:

  1. 海量&海量的数据;

  2. 非常灵活的模型;

  3. 足够的算力;

  4. 计算效率推断;

  5. 强大的先验知识,可以打破“维度诅咒”,实现对新情况的强泛化。

他还提到了脑启发(Brain-inspired),以及如下特性:

  • 大量简单自适应计算单元的协同作用;

  • 关注分布式表示(如单词表示);

  • 视智能为结合的产物(近似优化器、初始架构/参数化);

  • 端到端学习

长期依赖和梯度下降

紧接着,Yoshua 回顾了机器学习 101 课程的要点:

  • 函数族;

  • 可调参数;

  • 从未知数据中抽样的例子产生分布;

  • 对经过训练的函数所产生的误差的度量;

  • 近似最小化算法搜索最佳参数选择,迭代减少平均训练误差

又引出了他们自己 1994 年的工作 "Learning Long-Term Dependencies with Gradient Descent is Difficult" ,并强调了他的经验:负面结果可能非常重要,它教会了我们一些东西,推动了许多下游研究,比如 2014 年关于自注意力机制的工作。

接下来他展开介绍了这项工作:

如何存储 1 bit?在某些维度上有多个引力盆地的动力学

  • 如果动力系统在某些维度上有多个吸引域,则状态的某些子空间可以存储 1  bit 或多个 bit 信息。

45cc648099cf1fb28bb0152583bd5ca1.png

在有界噪声存在的情况下稳健地存储 1 bit:

  • 光谱半径 > 1,噪声可以踢出吸引子的状态(不稳定);

  • 而当半径 < 1时就不是这样了(收缩→稳定)。

7e7448006685b81b65412c2d10cbb5be.png

可靠地存储→消失的梯度

  • 可靠地存储比特信息需要谱半径 < 1

  • 谱半径 < 1的 T 个矩阵的乘积是一个矩阵,其谱半径在 T 上以指数速度收敛于 0。655e6d6f557bd35c3c0329aba26ebdd0.png

  • 如果 Jacobian 矩阵的谱半径 < 1 →传播梯度消失

为什么它会损害基于梯度的学习?

  • 与短期依赖关系相比,长期依赖关系得到的权重是指数级小的(以 T 为单位)。

309b2daa1dfb29601922f7915ff6c6ef.png
  • 当谱半径 < 1时,时间差越长,谱半径越小。

5e1cdabff27bcd90238b7e4213bcee1f.png深度学习:学习内部表征9e0e327ec0f955023a2d5c4f1b7ba346.png

深度学习并不像其他机器学习方法:

  • 没有中间表示(线性)

  • 或固定的(通常是非常高维的)中间表示(支持向量机、内核机)

那么什么是好的表征形式呢?——使其他或下游任务更容易

52be65bc7c728ba15f58236fa0b2fe76.png

语言模型 LM

于是 Yoshua 又回顾了他们 2003 年的经典工作《A Neural Probabilistic Language Model》,这是首次用神经网络来解决语言模型的问题,也为后来深度学习在解决语言模型问题甚至很多别的 NLP 问题时,奠定了坚实的基础(比如之后 word2vec 的提出)。

  • 每个词由一个分布式连续值代码向量表示=嵌入;

  • 跨n-gram(单词元组)共享;

  • 泛化到语义上与训练序列相似的单词序列

78b82674d89ea00e54c6925c169a1364.png 8820a1e58d27b3f5d91e232a0a9b136c.png

为什么要设置多层(multiple layer)?——世界是可构成的

  • 具有不断增加的抽象级别的表示层次;

  • 每个阶段都是一种可训练的特征变换。

  • 图像识别:像素→边缘→文本→主题→零件→物体;

  • 文本:文字→单词→词组→从句→句子→故事;

  • 语音:样本→谱带→声音→……→电话→音素→单。词

b2e7c7330cc2378dea9a23818d38928e.png

随着深度学习的不断发展,不止 NLP 领域,语音和图像也迈出了重要一步:

120092bf340fc64be22530f88d9b3a62.png
▲2010-2012 年:语音识别领域取得突破
828a08079678f88aaae25b1cfa440a7b.png
▲ImageNet 在 2012 年取得突破

但其实 1996-2012 年也是神经网络的寒冬:

  • AI 研究失去了达到人类智能水平的雄心

  • 关注“更简单”(更容易分析)的机器学习

  • 很难说服研究生进行神经网络的研究

需要坚持下去,但也要处理一些棘手的问题:

  • 遵循直觉

  • 但尝试通过实验或数学方法验证

  • 理清思路以澄清问题,提出“为什么”问题,试着去理解

  • 支持小组的重要性(CIFAR计划)

生成对抗网络 GAN

自 2010 年以来,Yoshua 关于生成式深度学习的论文,尤其是和 Ian Goodfellow 共同研究的生成性对抗网络(GAN),这篇经典之作更是引发了计算机视觉和图形学领域的深刻革命

11d6531398b00f288f2c54a352cdf3f1.png

GAN 以其优越的性能,在短短两年时间里,迅速成为人工智能的一大研究热点,也将多个数据集的结果刷至新高。

Attention 机制的“革命”

对一个输入序列或图像,通过设置权重或每个输入位置的概率,正如 MLP 中所产生的那样,运用到每一个位置。Attention 在在翻译、语音、图像、视频和存储中的应用非常广泛,也具有以下的特点/优点:

  • 一次只关注一个或几个元素;

  • 根据具体情况,了解该让哪参与进来;

  • 能对无序set操作;

  • 是 NLP 中的 SOTA,为 Transformer 的提出奠定基础;

  • 在 RNN 中绕过学习长期依赖的问题!!

f45c2aed34e16ff4ce9e17b302385b15.png

强化学习

深度强化学习在 2016 年初露头角,取得巨大突破:

  • AlphaGo 以 4-1 击败世界冠军李世石;

  • 人工智能和围棋专家没有预料到;

  • 将深度学习与强化学习相结合。

31a7af16ae04f76023bf049426809fda.png

深度学习的生物学突破

除了在计算机领域的成就以外,深度学习也在生物学领域取得重要突破,英国《Nature》杂志在 2021 年发表了一项结构生物学最新研究,人工智能公司 DeepMind 的神经网络 Alphafold 2 ,利用注意力图神经网络,预测的蛋白质结构能达到原子水平的准确度,这也为生命科学领域带来革命性影响。

2a3f265d1d4f2c4dc0d77e54f8406da7.png

b42f5854ca8125278f0c2ce658e04a29.png心得分享70911dbf2711960869a1e04e5e27502e.png

保持谦逊

  • 最好别想奖项、奖品和认可:这些都是危险的干扰!

  • 自负会使我们盲目,使我们过度自信,是科学发现的敌人

  • 损害我们灵活思考的能力,质疑我们认为理所当然的东西,倾听别人不同意我们的观点的能力

  • 多次改变主意:2005 年有监督 vs 无监督,2022 年频率论 vs 贝叶斯。

3a363d335457a10ad069bc6b0b57a042.png

学习更高层次的抽象

(Bengio & LeCun 2007)

深度学习的最大回报是允许学习更高层次的抽象

  • 更高层次的抽象:将解释变量和它们的因果机制分离开,这将使得更容易的泛化和转移到新的任务上去。

如何发现好的解耦表征

  • 如何发现抽象?

  • 什么是好的表现形式?(Bengio et al 2013)

  • 需要线索(=归纳偏差)来帮助理清潜在因素及其依赖性,例如:

    • 空间和时间尺度

    • 要素之间的依赖关系简单稀疏(意识优先)

    • 因果/机制独立性(可控变量=干预)

    • 多个时空尺度(粗略的高层因素解释了较低层的细节)

绕过维度的诅咒

我们需要在机器学习模型中构建组合性,就像人类语言利用组合性为复杂的思想赋予表征和意义一样。

利用组合性:在指代能力上获得指数级的增长;

  • 分布式表示/嵌入:特征学习;

  • 当前的深度架构:多层次的特征学习;

  • 系统 2 深度学习:一次编写几个概念;

先验假设(Priori):组合性有助于有效地描述我们周围的世界

71992308bce3d4181d6b5aa370d80beb.png深度学习目标:发现因果表征f53343a5f9e5a7d942867bbac3519bd7.png

Yoshua 之前也研究过一段时间的因果,这里他也发表了与此相关的一些看法。

我们需要了解这些问题:

  • 正确的表述是什么?解释数据的因果变量

  • 如何发现它们(作为观测数据的函数)?

  • 如何发现他们的因果关系、因果图?

  • 行动如何与因果干预相对应?

  • 原始感官数据如何与高层因果变量相关?高层因果变量如何转化为低层行为和局部观察?

  • 需要额外的偏见:因果关系是关于分布的变化

076bc39fd348cc143938afe7fbfd0ac1.png

当前机器学习的缺失

  • 超越训练分布的理解与泛化;

  • 学习理论只处理同一分布内的泛化;

  • 模型学习但不能很好地泛化(或在适应时具有高样本复杂性)修改后的分布、非平稳性等。

  • 知识重用性差、模块化差

要超越训练分布的泛化

  • 由于性能不佳的 OOD,目前工业强度的机器学习存在鲁棒性问题;

  • 如果没有独立同分布(iid),需要替代假设,否则没有理由期望泛化;

  • 分布如何变化?

  • 人类做得更好!

  • 来自大脑的归纳偏见?

  • 人类如何重用知识?

系统泛化

根据之前的一些工作,将这种能力总结如下:

  • 学过语言学;

  • 动态重组现有概念

  • 即使新组合在训练分布下的概率为 0:

    • 例如:科幻小说场景

    • 例:在一个陌生的城市开车

  • 目前的深度学习不太成功,它可能会“过拟合”训练分布

0cb7fb9330d5f8642b309077e5673d3d.png

SOTA AI 和人类水平智力之间的差距

其主要的差距有:

  • 样本复杂度:学习一项任务所需的样本数量;

  • 非分布泛化;

  • 适应的非分布速度(迁移学习);

  • 因果发现和推理;

  • 复合知识表示和推理

造成差距的唯一原因:有意识的处理?

假设:这种差距源于一种与人类意识处理相关的计算、知识表示和推理,但在人工智能中尚未掌握

有意识的处理帮助人类处理 OOD 设置

  • 面对新奇或罕见的情况,人类总是有意识的注意力,迅速结合适当的知识片段,对它们推理,并设想解决方案。

  • 我们不遵循我们的惯例,在新奇的环境中使用有意识的思维。

系统 1 和系统 2 的认知——2个系统(以及认知任务的类别):

  • 系统 1

    • 直觉、快速、无意识、一步并行、非语言、习惯性;

    • 隐性知识;

    • 当前 DL

  • 系统 2

    • 缓慢的、有逻辑的、顺序的、有意识的;

    • 语言,算法,计划,推理;

    • 明确的知识;

    • DL 2.0

2720d1b3427aca2ecf35eeffd7c8a3e7.png

从推理到 OOD 泛化

  • 目前工业级别的机器学习(包括 NLP)由于糟糕的 OOD 性能而遭受鲁棒性问题;

  • 人类使用更高层次的认知(系统 2)进行非分布泛化;

  • 为什么有帮助,如何有帮助?

  • 这与代理、因果关系有什么关系?

  • 我们如何在深度学习中结合这些原则来获得系统 1 和系统 2 的深度学习?

将知识分解成可组合的片段进行推理

  • 目前的深度学习:同质架构、知识没有本地化、完全分布式;

  • 迁移学习:重用相关的知识片段,最大限度地减少干扰,最大化重用;

  • 系统 2 推理选择和组合可命名的知识片段,形成思想(想象的未来、反事实的过去、问题的解决方案、输入的解释等)。

  • 如何将知识分解成正确的可重组片段?

迁移到修正分布:超越 iid 假设

  • iid 假设太强→分布外泛化能力差;

  • 宽松的假设:相同的因果动力学,不同的状态/干预

21f3a91c0abc999c9e25a7f535774b7b.png

因果关系作为 OOD 泛化、迁移学习、持续学习等的框架:

  • 非平稳知识(变量值)的因子平稳知识(因果机制);

  • 干预=变量的改变,不仅仅是由于默认的因果链接,而是由于代理;

  • 因果模型=分布族(包括任务);

  • 这些分布的指标是干预措施的选择(或初始状态);

  • 固定知识被分解成可重组的因果机制

为什么需要因果?

  • 因果模型=通过干预/环境/初始状态等与共享参数(机制)索引的分布族

  • 学习者必须预测干预措施的效果,需要解决 Out-Of-Distribution(OOD)=新的干预措施;

  • 干预=完美实现代理的抽象动作;

    • 更现实:实现抽象变量变化的意图=目标;

  • 与多任务和元学习不同,不是学习特定于任务或环境的参数,而是对干预进行推断

Yoshua 团队今年在因果领域研究也有着一个研究成果——作为概率推理机的大型深度网络:

99c618ed227ddd4b6c592ba5e6ed0291.png

787748aea57f6bea35487f5cf7a7a287.png总结8dd3aad3138f93785399993c1ba25c52.png

最后,Yoshua 也表达了自己的愿景:让机器学习走出实验室,走入社会

  • 机器学习不再只是一个研究问题

  • 基于机器学习的产品正在设计和部署中

而这也是人工智能科学家、工程师、企业家和政府的共同的新责任。

而 AI 也是一个强大的工具,要重点关注它的:

  • 双重用途;

  • 智慧竞赛:技术进步 vs 智慧进步;

  • 如何最大化其有益的使用,以及减少其误用

同时,一切事物都像双刃剑,AI 也不例,我们也应当避免一些对于社会的负面影响

  • 控制人们思想的 Big Brother 和杀手机器人;

  • 失业人士的痛苦来源,至少在过渡转型时期是这样;

  • 来自广告和社交媒体的操纵;

  • 强化社会偏见和歧视;

  • 使得不平等加剧,权力集中在少数人、公司和国家。

a2bd416604c3d6a0487bc1d3ce6babb5.jpeg后台回复关键词【入群

加入卖萌屋NLP、CV、搜广推与求职讨论群

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/50507.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

云原生主题学习月|成为社区领学员,解锁专属奖励及超多数量社区学员奖品!

CSDN 已上线亚马逊云科技超过 60 门中文数字化培训课程&#xff0c;希望为学习者提供亚马逊云科技基础技能知识和最佳实践。 每门课程时长从十分钟到几小时不等&#xff0c;由亚马逊云科技专家打造&#xff0c;其中包括最受欢迎的《亚马逊云科技云从业者必修知识》&#xff0c…

为什么 FindFirstFile 会查找短文件名?

FindFirstFile 函数会尝试匹配短文件名和长文件名。这可能会产生一些令人惊讶的结果。例如&#xff0c;如果你查找 “*.htm” &#xff0c;那么它会返回给你文件 “x.html” &#xff0c;因为它的短文件名是 “X~1.HTM”。 这确实比较令人感到意外。 为什么 FindFirstFile 会匹…

行业重磅!神策可视化全埋点正式支持 Flutter 平台!

Flutter 框架推出至今&#xff0c;已经在超过 50 万个应用中使用&#xff0c;从 2019 年到现在一直保持着强劲的增长趋势。优秀的性能、跨平台能力和活跃的技术社区使得其愈发受到广大开发者的青睐。而随着 Flutter 的普及和广泛应用&#xff0c;越来越多的企业和开发者对自动高…

答题小程序源码题目选项随机打乱功能分析

答题小程序随机打乱功能分析 通过多年的开发经验及实际使用用户的反馈&#xff0c;答题小程序源码完善了题库选项随机打乱功能&#xff0c;该功能的出现有效避免了用户在答题时不经审题、思索而凭机记忆机械化做出选择的弊端。 那么题库选项随机打乱功能具体是什么样的的呢&…

计算机组成原理期末复习第四章-1(唐朔飞)

计算机组成原理期末复习第四章-1&#xff08;唐朔飞&#xff09; ✨欢迎关注&#x1f5b1;点赞&#x1f380;收藏⭐留言✒ &#x1f52e;本文由京与旧铺原创&#xff0c;csdn首发&#xff01; &#x1f618;系列专栏&#xff1a;java学习 &#x1f4bb;首发时间&#xff1a;&am…

Linux零基础快速入门篇

推荐教程&#xff1a;Linux零基础快速入门到精通 操作系统概述 操作系统是计算机软件的一种&#xff0c;它主要负责&#xff1a;作为用户和计算机硬件之间的桥梁&#xff0c;调度和管理计算机硬件进行工作而计算机&#xff0c;如果没有操作系统&#xff0c;就是一堆无法使用的…

嵌入式系统的开发概述

文章目录嵌入式系统开发基本流程嵌入式软件开发嵌入式软件开发的特点和技术挑战嵌入式软件开发环境交叉开发环境软件模拟环境目标板与评估板嵌入式软件开发的可移植性和可重用性嵌入式系统开发基本流程 面向具体应用的嵌入式开发决定了嵌入式开发的方法、流程各有不同&#xf…

C++语法——map与set的封装原理

目录 一.数据类型封装 &#xff08;一&#xff09;.封装方式 &#xff08;二&#xff09;.封装后如何取key比较 二.迭代器封装 &#xff08;一&#xff09;.底层迭代器&#xff08;红黑树中&#xff09; ①迭代器 ②迭代器-- &#xff08;二&#xff09;.begin&end…

【Pandas数据处理100例】(七十三):Pandas使用groupBy()计算每个组的均值

前言 大家好,我是阿光。 本专栏整理了《Pandas数据分析处理》,内包含了各种常见的数据处理,以及Pandas内置函数的使用方法,帮助我们快速便捷的处理表格数据。 正在更新中~ ✨ 🚨 我的项目环境: 平台:Windows10语言环境:python3.7编译器:PyCharmPandas版本:1.3.5N…

【Python数据科学 | 11】应用实战:我的第一个开源项目-基金定投回测工具

这是机器未来的第60篇文章 原文首发地址&#xff1a;https://robotsfutures.blog.csdn.net/article/details/127712752 《Python数据科学快速入门系列》快速导航&#xff1a; 【Python数据科学快速入门系列 | 01】Numpy初窥——基础概念【Python数据科学快速入门系列 | 02】创…

kotlin入门学习文档

kotlin入门学习文档 前言&#xff1a;本文会着重对比java和kotlin&#xff0c;方便Java选手理解 提前总结&#xff1a;kotlin在服务端应用本质上是基于Java进行的改进&#xff0c;底层都是由JVM翻译成底层语言&#xff0c;我们只需要关注kotlin本身的代码&#xff0c;无需担心…

[附源码]Python计算机毕业设计Django的手机电商网站

项目运行 环境配置&#xff1a; Pychram社区版 python3.7.7 Mysql5.7 HBuilderXlist pipNavicat11Djangonodejs。 项目技术&#xff1a; django python Vue 等等组成&#xff0c;B/S模式 pychram管理等等。 环境需要 1.运行环境&#xff1a;最好是python3.7.7&#xff0c;…

lte基站学习总结

目录 1.nanocell基站的介 2.lte的网络结构 2.1 网络实体 2.2 功能划分 2.3功能描述 2.4业务类型 2.5语音回落原理 3 S1接口上用户注册消息的简介 3.1 S1接口的位置 3.2 S1接口的协议栈关系 3.3 S1接口建立实例 4 3g用户附着流程 5. Lte用户开机附着过程 1.nanocell基站…

[附源码]计算机毕业设计springboot农村人居环境治理监管系统

项目运行 环境配置&#xff1a; Jdk1.8 Tomcat7.0 Mysql HBuilderX&#xff08;Webstorm也行&#xff09; Eclispe&#xff08;IntelliJ IDEA,Eclispe,MyEclispe,Sts都支持&#xff09;。 项目技术&#xff1a; SSM mybatis Maven Vue 等等组成&#xff0c;B/S模式 M…

你安全吗?丨黑客掌握的翻垃圾技术有哪些?大家要警惕!

作者&#xff1a;黑蛋 黑客并不全是大家所想象中&#xff0c;一个黑面罩&#xff0c;一台电脑&#xff0c;绿花花的代码界面&#xff0c;噼里啪啦对着计算机一顿猛敲&#xff0c; image-20221114221628695 除了专业的计算机技术&#xff0c;黑客还有其他非技术手段。今天我们…

拆解小鹏汽车财报:连续三个季度收入下滑,门店月均销量仅为8辆

11月30日&#xff0c;小鹏汽车&#xff08;NYSE:XPEV、HK:09868&#xff09;公布了截至2022年9月30日的2022年第三季度财报。财报显示&#xff0c;小鹏汽车2022年第三季营收68.2亿元&#xff0c;略低于市场预期的68.8亿元&#xff0c;较2021年同期增长19.3%&#xff0c;环比下降…

【JVM故障问题排查心得】「内存诊断系列」JVM内存与Kubernetes中pod的内存、容器的内存不一致所引发的OOMKilled问题总结(下)

承接上文 之前文章根据《【JVM故障问题排查心得】「内存诊断系列」JVM内存与Kubernetes中pod的内存、容器的内存不一致所引发的OOMKilled问题总结&#xff08;上&#xff09;》我们知道了如何进行设置和控制对应的堆内存和容器内存的之间的关系&#xff0c;所以防止JVM的堆内存…

[附源码]计算机毕业设计springboot教学辅助系统

项目运行 环境配置&#xff1a; Jdk1.8 Tomcat7.0 Mysql HBuilderX&#xff08;Webstorm也行&#xff09; Eclispe&#xff08;IntelliJ IDEA,Eclispe,MyEclispe,Sts都支持&#xff09;。 项目技术&#xff1a; SSM mybatis Maven Vue 等等组成&#xff0c;B/S模式 M…

[附源码]Python计算机毕业设计Django的云网盘设计

项目运行 环境配置&#xff1a; Pychram社区版 python3.7.7 Mysql5.7 HBuilderXlist pipNavicat11Djangonodejs。 项目技术&#xff1a; django python Vue 等等组成&#xff0c;B/S模式 pychram管理等等。 环境需要 1.运行环境&#xff1a;最好是python3.7.7&#xff0c;…

12.Java 使用中间件优雅停机方案设计与实现

内核中的信号量开始聊起。 从内核层我们接着会聊到 JVM 层&#xff0c;在 JVM 层一探优雅停机底层的技术玄机。 随后我们会从 JVM 层一路奔袭到 Spring 然后到 Dubbo。在这个过程中&#xff0c;笔者还会带大家一起 Shooting Dubbo 在优雅停机下的一个 Bug&#xff0c;并为大家…