神经网络 (NN) 是 机器学习 模仿人脑结构和运算能力以从训练数据中识别模式的算法。 通过处理和传输信息的互连人工神经元网络,神经网络可以执行复杂的任务,例如 人脸识别, 自然语言理解,以及无需人工协助的预测分析。
尽管神经网络是一种强大的人工智能工具,但它也有一定的局限性,例如:
- 它们需要大量标记的训练数据。
- 它们不按顺序处理数据,导致处理实时数据效率低下。
因此,麻省理工学院计算机科学与人工智能实验室(CSAIL)的一组研究人员介绍 “液体神经网络 或 LNN——一种在工作中学习的神经网络,而不仅仅是在训练阶段。”
下面让我们详细探讨 LNN。
什么是液体神经网络 (LNN)? – 深入探讨
A 液体神经网络 是一个时间连续的 递归神经网络(RNN) 它按顺序处理数据,保留过去输入的记忆,根据新输入调整其行为,并且可以处理可变长度输入以增强神经网络的任务理解能力。
LNN 架构与传统神经网络的不同之处在于它能够有效地处理连续或时间序列数据。 如果有新数据可用,LNN 可以更改每层神经元和连接的数量。
液体神经网络的先驱, 拉敏哈萨尼, 马蒂亚斯莱希纳,其他人已经采取了 灵感 来自 微小线虫秀丽隐杆线虫,一种 1 毫米长的蠕虫,具有结构完善的神经系统,使其能够执行复杂的任务,例如寻找食物、睡眠和向周围环境学习。
“它的神经系统只有 302 个神经元,” 哈萨尼说, “然而它可以产生意想不到的复杂动态。”
LNN 模仿蠕虫的相互关联的电气连接或脉冲来预测网络随时间的行为。 网络表达了任何给定时刻的系统状态。 这与呈现特定时间的系统状态的传统神经网络方法不同。
因此,液体神经网络有两个关键特征:
- 动态架构: 它的神经元比常规神经网络的神经元更具表达能力,使得 LNN 更具可解释性。 它们可以有效地处理实时顺序数据。
- 持续学习和适应能力: 即使在训练后,LNN 也能适应不断变化的数据,与在模型训练阶段后停止学习新信息的传统神经网络相比,它可以更准确地模仿生物体的大脑。 因此,LNN 不需要大量标记的训练数据来生成准确的结果。
由于 LLM 神经元提供丰富的连接,可以表达更多信息,因此与常规神经网络相比,它们的尺寸更小。 因此,研究人员更容易解释 LNN 如何做出决定。 此外,较小的模型大小和较少的计算量可以使它们在企业级别上具有可扩展性。 此外,与神经网络相比,这些网络对输入信号中的噪声和干扰更具弹性。
液体神经网络的 3 个主要用例
液体神经网络在涉及连续序列数据的用例中表现出色,例如:
1. 时间序列数据处理与预测
研究人员面临着几个 挑战 对时间序列数据进行建模,包括时间序列数据中的时间依赖性、非平稳性和噪声。
液体神经网络是专门为时间序列数据处理和预测而构建的。 Hasani 认为,时间序列数据对于正确理解世界至关重要且无处不在。 “现实世界都是关于序列的。 甚至我们的感知——你感知的不是图像,而是图像序列。” 他说。
2. 图像和视频处理
LNN 可以执行图像处理和基于视觉的任务,例如对象跟踪、图像分割和识别。 它们的动态性质使它们能够根据环境的复杂性、模式和时间动态不断改进。
例如,麻省理工学院的研究人员发现 无人机可由 20,000 个参数的小型 LNN 模型引导 与其他神经网络相比,它在导航以前未见过的环境方面表现更好。 这些出色的导航功能可用于构建更精确的自动驾驶车辆。
3.自然语言理解
由于其适应性、实时学习能力和动态拓扑,液体神经网络非常擅长理解长自然语言文本序列。
考虑情感分析,这是一项 NLP 任务,旨在了解潜在的 情感 文字后面。 LNN 从实时数据中学习的能力有助于它们分析不断变化的方言和新短语,从而实现更准确的情感分析。 类似的功能在机器翻译中也很有用。
液体神经网络的限制和挑战
尽管液体神经网络已经超越了不灵活、工作在固定模式且与上下文无关的传统神经网络。 但他们也面临一些限制和挑战。
1.梯度消失问题
与其他时间连续模型一样,LNN 在使用梯度下降训练时可能会遇到梯度消失问题。在深度神经网络中,当用于更新神经网络权重的梯度变得极小时,就会出现梯度消失问题。这个问题会阻止神经网络达到最佳权重。这会限制他们有效学习长期依赖性的能力。
2. 参数调优
与其他神经网络一样,LNN 也面临参数调整的挑战。 对于液体神经网络来说,参数调整既耗时又昂贵。 LNN 有多个参数,包括选择 ODE(常微分方程) 求解器、正则化参数和网络架构,必须进行调整才能获得最佳性能。
寻找合适的参数设置通常需要一个迭代过程,这需要时间。 如果参数调整效率低下或未正确完成,可能会导致网络响应不理想并降低性能。 然而,研究人员正试图通过找出执行特定任务所需的神经元数量来克服这个问题。
3. 缺乏文献
关于液体神经网络的实现、应用和优点的文献有限。 有限的研究使得理解 LNN 的最大潜力和局限性变得具有挑战性。 它们不像卷积神经网络 (CNN)、RNN 或 Transformer 架构那样被广泛认可。 研究人员仍在试验其潜在用例。
神经网络已经从 MLP(多层感知器)发展到液体神经网络。 LNN 比传统神经网络更具动态性、适应性、高效性和鲁棒性,并且具有许多潜在的用例。
我们建立在巨人的肩膀上; 随着人工智能继续快速发展,我们将看到最先进的新技术,这些技术可以解决当前技术的挑战和限制,并带来更多好处。