计算机人工智能前沿进展-大语言模型方向-2024-09-14

news2024/9/20 11:29:30

计算机人工智能前沿进展-大语言模型方向-2024-09-14

1. Multimodal learning using large language models to improve transient identification of nuclear power plants

B Qi, J Sun, Z Sui, X Xiao, J Liang - Progress in Nuclear Energy, 2024

使用大型语言模型进行多模态学习以改进核电站的瞬态识别

摘要
瞬态事件是导致核电站从正常状态过渡到异常状态的事件,如果处理不当,可能导致严重事故。瞬态识别对核电站的安全和运行至关重要。本文提出了一种新颖的多模态文本-时间序列学习框架(MTTL),这是首次将大型语言模型应用于瞬态识别。MTTL包括自监督学习预训练和零样本分类用于瞬态识别。预训练期间,框架利用大型语言模型(LLM)和时间序列(TS)编码器充分利用核电站中可用的丰富多模态信息,即获取文本数据和时间序列数据的嵌入。LLM用于通过学习文本数据捕捉核电站的瞬态知识,而TS编码器用于通过编码时间序列数据捕捉瞬态的时间依赖性。LLM和TS编码器都有线性投影头,将嵌入映射到共同空间。计算文本和时间序列数据嵌入之间的相似性,以最小化对比学习损失并获得具有丰富瞬态知识的预训练模型。在零样本分类期间,框架利用预训练模型有效识别与预训练模拟数据不同的实际核电站瞬态。所提出的框架在高温堆球床模块(HTR-PM)工厂上进行了评估,结果表明MTTL优于几种基线方法,包括Transformer、LSTM和CNN1D。更好的零样本瞬态识别能力使其在实际核电站中表现更佳。

创新点

  1. 首次应用:首次将大型语言模型应用于核电站的瞬态识别。
  2. 多模态学习框架:提出了一种新颖的多模态文本-时间序列学习框架(MTTL),充分利用文本和时间序列数据。
  3. 零样本分类:在零样本分类中,能够识别与预训练模拟数据不同的实际核电站瞬态。

算法模型

  • 大型语言模型(LLM):用于捕捉核电站的瞬态知识,通过学习文本数据。
  • 时间序列(TS)编码器:用于捕捉瞬态的时间依赖性,通过编码时间序列数据。
  • 线性投影头:LLM和TS编码器都有线性投影头,将嵌入映射到共同空间。
  • 对比学习损失:计算文本和时间序列数据嵌入之间的相似性,以最小化对比学习损失。

实验效果

  • 数据集:在高温堆球床模块(HTR-PM)工厂上进行评估。
  • 性能对比:MTTL优于几种基线方法,包括Transformer、LSTM和CNN1D。
  • 结论:MTTL在实际核电站中表现更佳,具有更好的零样本瞬态识别能力。

推荐阅读指数
★★★★☆

推荐理由

  • 创新性:首次将大型语言模型应用于核电站瞬态识别,具有很高的创新性。应用领域的特殊性,为这一篇论文带来加分。
  • 实用性:提出的多模态学习框架在实际核电站中表现优异,具有很高的实用价值。
  • 影响力:对于核电站的安全管理和运行具有重要意义,对相关领域的研究具有较大的推动作用。

扣分项

  • 可能需要更多的实验数据和案例来进一步验证模型的稳定性和泛化能力。

2. Transdisciplinary measurement through AI: Hybrid metrology and psychometrics powered by Large Language Models

M Barney, F Barney - Models, Measurement, and Metrology Extending the SI, 2024

通过人工智能进行跨学科测量:由大型语言模型驱动的混合计量学和心理测量学

摘要:
本文介绍了一种创新的方法论,它结合了人工智能、计量学和心理测量学的原则。通过在大型语言模型(如GPT-4)中设计提示,研究者们专注于这些合成AI“评分员”对感兴趣属性的测量。通过在计算机科学和心理学领域的严格实证评估,展示了AI系统与人类的表现,并使用多面概率测量模型确保线性、精确度和偏差矫正,这些模型直接支持将SI单位扩展到新领域。文章还探讨了物理计量学,说明了该方法如何简化评估材料电阻等传统复杂过程。文章首先介绍了方法论,然后是其多样化的应用,最后讨论了伦理维度。

创新点:

  1. 提出了一种跨学科的混合方法论,结合了大型语言模型(LLMs)、计量学和心理测量学。
  2. 使用AI作为通用语言和方法,连接了不同学科的测量专家。
  3. 利用AI的自然语言处理能力,通过设计精心的提示(prompts)来引导AI进行特定测量任务。
  4. 通过多面概率模型来评估和调整AI生成的数据,确保测量的质量和可靠性。

算法模型:

  • 大型语言模型(LLMs),如GPT-3.5 Turbo和GPT-4,用于处理和生成类似于人类分析的数字、文本、音频、图像和视频。
  • 多面概率模型,用于评估AI系统的表现,并进行必要的调整以确保测量的线性、精确度和无偏差。

实验效果:

  • 在心理学领域的伦理说服语言测试中,使用LLMs的方法与人类专家的表现相当,且在处理时间上大大缩短。
  • 在计算机科学领域,通过比较不同AI系统的性能,展示了LLMs在测量任务中的潜力。
  • 实验中,Cronbach’s alpha接近1.00,人口分离和层次系数在32到44之间,表明测量具有很高的可靠性和区分度。

推荐阅读指数
★★★★☆
这篇论文提出了一种创新的跨学科测量方法,对于希望了解如何将AI技术应用于传统计量学和心理测量学领域的研究人员来说,具有很高的参考价值。论文的实验结果令人鼓舞,展示了AI在提高测量效率和准确性方面的潜力。然而,由于这是一个相对较新的研究领域,可能需要进一步的研究来验证这些初步发现的普遍性和可持续性。因此,给予四星半的推荐指数。

3. LLM Comparator: Interactive Analysis of Side-by-Side Evaluation of Large Language Models

M Kahng, I Tenney, M Pushkarna, MX Liu, J Wexler… - IEEE TVCG, 2024

在这里插入图片描述
大语言模型比较器:对大型语言模型并行评估的交互式分析

摘要
本文介绍了LLM Comparator,这是一个为大型语言模型(LLMs)的并行评估而设计的新视觉分析工具。该工具旨在帮助模型开发者和实践者比较和对比他们自己的LLM(模型A)与基线模型(模型B)生成的文本输出。LLM Comparator通过交互式表格和可视化摘要提供了分析工作流程,使用户能够理解一个LLM何时以及为何优于或逊于另一个LLM,以及它们的响应如何不同。该工具与Google的LLM开发者紧密合作开发,并已集成到Google的LLM评估平台中,同时已开源。

创新点

  1. 交互式分析工具:提供了一种新的交互式工具,用于大规模分析LLMs的并行评估结果。
  2. 视觉分析与个体案例检查的结合:集成了视觉摘要和检查个别案例的能力,使用户能够同时探索模型的定量和定性差异。
  3. 开源:工具已开源,可供社区使用和进一步开发。

算法模型
LLM Comparator的核心算法包括:

  • 自动并行评估(LLM-as-a-judge):使用另一个LLM来比较两个不同模型的文本输出。
  • 评分和理由的聚合:将评分转换为数值分数,并计算多个评分的平均值以确定每个提示的最终得分。
  • 可视化摘要:包括评分分布、按提示类别的指标、理由聚类等,以支持用户分析模型性能。

实验效果

  • 用户反馈:工具在Google内部部署后,吸引了超过1,000名用户,并支持分析了超过2,500个不同的并行评估。
  • 用户研究:通过观察性研究和调查,用户普遍认为工具在加载评估结果、探索个体案例、动态过滤和排序数据方面表现出色。
  • 重要数据与结论:用户能够通过工具快速识别模型性能的差异,发现问题模式,并为模型改进提供见解。

在这里插入图片描述

推荐阅读指数
★★★★☆

推荐理由

  • 对于从事LLM开发和评估的研究人员和工程师来说,这篇文章提供了一个实用的工具和方法论,对实际工作具有直接的指导意义。
  • 工具的开源性质使得更广泛的社区可以受益,促进了技术的共享与进步。
  • 文章详细介绍了工具的设计和实现,对于想要了解或参与LLM评估工具开发的读者来说,是一份宝贵的资源。

扣分理由

  • 文章可能对于非专业读者来说较为技术化,需要一定的背景知识才能充分理解。

4. Harnessing the Power of Large Language Models for Automated Code Generation and Verification

U Antero, F Blanco, J Oñativia, D Sallé, B Sierra - Robotics, 2024

利用大型语言模型的力量实现自动化代码生成与验证

摘要
本文探讨了如何使用大型语言模型(LLMs)来简化机器人软件编程,包括重新编程或重新任务分配,使得非程序员也能轻松完成。研究集中在利用有限状态机(FSMs)作为控制复杂机器人行为的基础,并扩展了FSMs的传统界限,通过集成最新的大型语言模型(LLMs)技术,特别是在高级机器人领域,来革新我们编程FSMs的方式。研究目标是展示这些先进的AI系统如何作为智能监督者,简化编程过程。

在这里插入图片描述

创新点

  1. 双大型语言模型方法:提出了一个创新的双LLM方法,其中一个生成器LLM用于生成代码,另一个判别器或监督LLM用于验证代码的正确性、安全性和整体质量。
  2. 基于FSM的编程简化:通过将复杂的编程任务简化为有限状态机的编程,使得编程过程更加模块化和易于管理。
  3. 自动化内容生成监控:引入了使用LLMs进行自动化生成内容监控的概念,灵感来自生成对抗网络(GANs),以提高代码质量和安全性。

算法模型

  • 生成器LLM:负责根据用户提供的规范生成代码计划。
  • 监督LLM:对生成器LLM生成的代码进行验证,确保逻辑顺序、机器人能力不溢出,并且最终状态符合用户要求。

在这里插入图片描述

实验效果

  • 合成环境(iTHOR模拟环境):在合成环境中,LLMs在处理简单任务时表现出色,但在处理超过1500个令牌的复杂任务时,性能开始下降。
  • 物理机器人:在物理设置中,LLMs在执行简单的拾放任务时表现良好。

重要数据与结论

  • LLMs在速度上有显著优势,可以比人类开发者快90%以上。
  • 在复杂请求处理中,超过1500个令牌的任务会导致LLMs性能下降。
  • 验证了LLMs在自动化编程中的可行性,尽管存在一定的限制。

推荐阅读指数
★★★★☆

推荐理由

  • 本文提供了一个创新的方法,使用LLMs来自动化代码生成和验证,对于AI和机器人领域的研究者和开发者来说,这是一个有价值的参考。
  • 通过实验验证了方法的有效性,尽管存在一些限制,但为未来的研究提供了方向。
  • 对于对LLMs在实际应用中的表现感兴趣的读者,本文提供了深入的分析和实际数据。

扣分理由

  • 文章可能对于非专业读者来说较为技术化,需要一定的背景知识才能完全理解。
  • 一些实验结果表明,当前的LLMs在处理极端复杂任务时仍存在局限性。

5. Large language models reduce public knowledge sharing on online Q&A platforms

RM del Rio-Chanona, N Laurentsyeva, J Wachs - PNAS Nexus, 2024

大型语言模型减少了在线问答平台上的公共知识共享

摘要
本研究探讨了大型语言模型(LLMs)对在线问答(Q&A)平台公共知识共享的影响。特别是,研究了ChatGPT发布后对Stack Overflow活动的影响。研究发现,与ChatGPT发布前相比,Stack Overflow的活动在其发布后的六个月内减少了25%。该研究使用了差异对比模型,并考虑了与ChatGPT影响较小的平台进行对比,发现活动的减少是特定的,并非普遍现象。研究还发现,ChatGPT并没有显著改变帖子的质量,且不同经验水平的用户都减少了内容创作。这表明LLMs不仅替代了重复性、低质量或初学者级别的内容,还减少了用于训练它们的公共数据的生产,带来了重大影响。
在这里插入图片描述

创新点

  1. 实证分析:首次实证分析了大型语言模型(尤其是ChatGPT)对在线公共知识共享平台(如Stack Overflow)的影响。
  2. 对比研究设计:通过与访问ChatGPT受限地区和ChatGPT能力较弱领域的平台进行对比,增强了研究结果的说服力。
  3. 多维度分析:不仅分析了活动总量的变化,还深入探讨了不同编程语言、不同用户经验水平的帖子变化,提供了全面的视角。

算法模型

  • 差异对比模型(Difference-in-Differences Model):用于估计ChatGPT发布对Stack Overflow活动的影响,通过与其他平台的活动进行对比,控制了时间趋势和其他未观测因素的影响。
  • 事件研究设计(Event Study Design):用于分析ChatGPT对不同编程语言帖子活动的影响,通过线性时间趋势模型和季节效应来控制其他因素。

实验效果

  • 关键数据:在ChatGPT发布后的六个月内,Stack Overflow的活动相比于对照平台减少了25%。
  • 质量分析:通过用户投票反馈衡量帖子质量,发现ChatGPT发布后帖子质量没有显著变化。
  • 用户行为:不同经验水平的用户发帖活动均有所减少,表明减少并非仅由新手用户引起。

结论
研究表明,LLMs的快速采用减少了用于训练它们的公共数据的生产,这对公共互联网的未来和AI的未来具有重大影响。研究还指出,随着LLMs的普及,可能会减少对开放数据的生成,从而限制未来模型的训练,并可能导致技术锁定,影响市场竞争和技术进步。

推荐阅读指数
★★★★☆

推荐理由

  • 研究主题具有高度的时效性和相关性,对于理解当前AI技术对社会的影响提供了宝贵的见解。
  • 研究方法严谨,通过对比分析和多维度考量,提供了有力的证据支持其结论。
  • 研究结果对于在线平台、AI开发者和政策制定者都具有重要的启示和指导意义。

扣分理由

  • 研究主要关注了ChatGPT对Stack Overflow的影响,可能需要更多样本和场景来验证结论的普遍性。
  • 研究未深入探讨如何激励和促进公共知识共享的持续发展,这是未来研究可以进一步探讨的方向。

6. Regression with Large Language Models for Materials and Molecular Property Prediction

R Jacobs, MP Polak, LE Schultz, H Mahdavi… - arXiv preprint arXiv …, 2024

用于材料和分子属性预测的大型语言模型回归

摘要
文章展示了大型语言模型(LLMs)在执行材料和分子属性回归任务方面的能力,这与传统的LLM用例有显著不同。研究者们使用LLaMA 3模型对QM9数据集中的多个分子属性和24种材料属性进行了基准测试。模型输入仅基于组成信息的字符串,并且仅在生成性损失上进行微调。研究发现,当使用分子的SMILES表示进行微调时,LLaMA 3提供了有用的回归结果,这些结果可以与QM9数据集上的标准材料属性预测模型(如随机森林或全连接神经网络)相媲美。值得注意的是,LLaMA 3的错误率比使用更细粒度表示(例如原子类型及其坐标)训练的最先进的模型高出5-10倍。有趣的是,与GPT-3.5和GPT-4相比,LLaMA 3提供了改进的预测。这项工作突出了LLMs的多功能性,表明类似LLMs的生成模型有潜力超越其传统应用,以应对复杂的物理现象,为化学、材料科学和其他科学领域的未来研究和应用铺平了道路。

创新点

  1. LLMs用于回归任务:将大型语言模型(LLMs)应用于材料和分子属性的回归预测,这在传统上并非LLMs的典型用途。
  2. 仅使用文本提示进行训练:通过仅使用基于组成的输入字符串(如SMILES)作为模型输入,减少了对复杂特征工程的需求。
  3. 与现有模型的比较:将LLMs的预测能力与现有的随机森林和全连接神经网络等模型进行比较,提供了对LLMs在这一领域潜力的初步评估。

算法模型

  • LLaMA 3模型:使用Meta AI提供的LLaMA 3模型,该模型在生成性损失上进行微调。
  • 输入特征:实验中使用了SMILES字符串和InChI字符串,以及原子坐标和元素类型作为输入特征。
  • 训练方法:通过Unsloth和HuggingFace的Python包对LLaMA 3进行微调,使用生成交叉熵损失函数进行训练。

实验效果

  • QM9数据集:在QM9数据集上,LLaMA 3显示出与随机森林模型相当的性能,但与使用更细粒度分子表示训练的最先进的模型相比,误差高出5-10倍。
  • 材料属性数据集:在24种不同的材料属性数据集上,LLaMA 3的表现与随机森林模型相当,有时甚至更好,这表明LLMs可以作为有效的回归工具,即使在只有组成信息的情况下也能提供有用的预测。
  • 与GPT模型比较:LLaMA 3在形成能量预测方面的表现优于GPT-3.5和GPT-4。

结论
研究表明,LLMs如LLaMA 3可以作为有用的回归模型,尤其是在只有组成信息的情况下。尽管与最先进的模型相比存在性能差距,但LLMs在材料和分子属性预测方面显示出巨大的潜力。此外,LLaMA 3在某些情况下优于GPT模型,这表明LLM的选择和微调方式对结果质量有显著影响。

推荐阅读指数
★★☆☆☆

推荐理由

  • 研究探索了LLMs在非传统领域的新应用,为材料和分子属性预测提供了新的视角。
  • 实验设计严谨,涵盖了广泛的属性和数据集,提供了对LLMs性能的全面评估。
  • 研究结果对于理解LLMs在科学计算中的潜力具有重要意义,对于未来在相关领域的研究具有指导作用。

扣分理由

  • 尽管研究提供了有价值的见解,但LLMs在这一领域的应用仍处于早期阶段,可能需要更多的研究来优化和提高预测准确性。
  • 实验对比的方法上存在缺陷,应该与传统浅层模型及通用的深度模型进行比较,毕竟回归问题是机器学习领域里面一个古老的问题。

7. LLaMA-Omni: Seamless Speech Interaction with Large Language Models

Q Fang, S Guo, Y Zhou, Z Ma, S Zhang, Y Feng - arXiv preprint arXiv:2409.06666, 2024
在这里插入图片描述
LLAMA-OMNI: 与大型语言模型的无缝语音交互

摘要
文章介绍了一种名为LLaMA-Omni的新型模型架构,旨在实现与大型语言模型(LLMs)的低延迟、高质量的语音交互。LLaMA-Omni集成了预训练的语音编码器、语音适配器、LLM和流式语音解码器,消除了语音转录的需求,能够直接从语音指令中同时生成文本和语音响应,且响应延迟极低。研究基于最新的Llama-3.1-8BInstruct模型构建,并为适应语音交互场景,构建了一个包含20万个语音指令和相应语音响应的数据集InstructS2S-200K。实验结果显示,与以前的语音-语言模型相比,LLaMA-Omni在内容和风格上都提供了更好的响应,响应延迟低至226毫秒。此外,LLaMA-Omni的训练时间少于3天,仅需4个GPU,为未来基于最新LLMs的语音-语言模型的高效开发铺平了道路。

创新点

  1. 无缝语音交互:提出了一种新型的模型架构,能够实现与LLMs的低延迟、高质量的语音交互。
  2. 模型集成:LLaMA-Omni整合了语音编码器、语音适配器、LLM和流式语音解码器,无需语音转录即可直接生成响应。
  3. 数据集构建:为了适应语音交互场景,构建了包含20万条语音指令和响应的数据集InstructS2S-200K。
  4. 快速训练:模型训练时间短,不到3天即可完成,大幅减少了资源消耗。

算法模型

  • 语音编码器:使用Whisper-large-v32的编码器提取语音表示。
  • 语音适配器:将语音表示映射到LLM的嵌入空间。
  • LLM:使用Llama-3.1-8B-Instruct作为LLM,直接从语音指令中自回归生成文本响应。
  • 流式语音解码器:基于非自回归的流式Transformer,使用连接时序分类(CTC)预测离散单元序列。

在这里插入图片描述
在这里插入图片描述

实验效果

  • 响应质量:在内容和风格上,LLaMA-Omni的响应质量优于以前的模型。
  • 响应延迟:响应延迟低至226毫秒,显著低于传统文本交互。
  • 训练效率:模型训练时间少于3天,仅需4个GPU,提高了开发效率。

结论
LLaMA-Omni展示了在实现与LLMs的高质量、低延迟语音交互方面的潜力。通过整合语音编码、适配、LLM生成和流式语音解码,该模型能够直接从语音指令生成文本和语音响应,大幅提高了交互效率和用户体验。此外,模型的训练效率高,为未来基于LLMs的语音交互模型的开发提供了新的方向。

推荐阅读指数
★★★★☆

推荐理由

  • 提出了一种创新的模型架构,有效结合了语音处理和语言模型,对语音交互领域的发展具有重要意义。
  • 实验结果表明,模型在响应质量和延迟方面表现出色,对实际应用具有指导价值。
  • 研究方法严谨,数据集构建和模型训练过程详细,为后续研究提供了参考。

扣分理由

  • 文章为预印本,可能需要进一步的同行评审来验证其结论的普适性和稳健性。

8. The Implementation of Multimodal Large Language Models for Hydrological Applications: A Comparative Study of GPT-4 Vision, Gemini, LLaVa, and Multimodal-GPT

LA Kadiyala, O Mermer, DJ Samuel, Y Sermet, I Demir - Hydrology, 2024
在这里插入图片描述
多模态大型语言模型在水文学应用中的实现:GPT-4 Vision、Gemini、LLaVa和多模态GPT的比较研究

摘要
本研究分析了最新的多模态大型语言模型(MLLMs),包括多模态GPT、GPT-4 Vision、Gemini和LLaVa,重点在于水文学应用,如洪水管理、水位监测、农业水排放和水污染管理。研究评估了这些MLLMs在水文特定任务上的表现,测试了它们在复杂现实世界场景中的响应生成和实时适用性。设计了提示以增强模型的视觉推理能力和从图像中的理解能力。研究结果揭示了GPT-4 Vision在解释视觉数据方面表现出色,能够准确评估洪水严重程度和水质。此外,MLLMs在各种水文应用中显示出潜力,包括干旱预测、流量预测、地下水管理和湿地保护。这些模型可以通过预测降雨、蒸发率和土壤湿度水平来优化水资源管理,从而促进可持续的农业实践。研究为高级AI模型在解决复杂水文挑战和改进水资源管理中实时决策的潜在应用提供了宝贵的见解。

创新点

  1. 多模态大型语言模型的应用:将大型语言模型与视觉基础模型相结合,用于水文学应用,如洪水管理和水质监测。
  2. 模型比较研究:对GPT-4 Vision、Gemini、LLaVa和多模态GPT进行了比较,评估了它们在水文特定任务上的表现。
  3. 实时适用性测试:测试了这些模型在复杂现实世界场景中的响应生成和实时适用性,这对于水文学应用尤为重要。

算法模型

  • GPT-4 Vision:集成了先进的视觉和文本处理能力,能够处理图像和文本输入,生成文本输出。
  • Gemini:能够处理多种模态的输入,包括文本、音频和视觉数据。
  • LLaVa:结合了语言和视觉处理,通过生成多模态语言-图像指令跟随数据进行训练。
  • 多模态GPT:利用视觉编码器提取视觉信息,并整合门控交叉注意力层以实现图像和文本之间的无缝交互。

实验效果

  • 洪水严重程度评估:GPT-4 Vision在解释视觉数据方面表现出色,能够准确评估洪水严重程度。
  • 水文特定任务:MLLMs在水文特定任务上的表现与标准材料属性预测模型相当,但在某些任务上误差较高。
  • 实时决策支持:这些模型能够优化水资源管理,通过预测降雨、蒸发率和土壤湿度水平来支持实时决策。

结论
研究结果表明,多模态大型语言模型在水文学应用中具有潜力,能够提供有价值的见解,改进实时决策。GPT-4 Vision在视觉数据解释方面表现突出,而其他模型如LLaVa和多模态GPT也显示出在水文应用中的潜力。

推荐阅读指数
★★★★☆

推荐理由

  • 研究针对水文学应用中的实际问题,提供了创新的解决方案。
  • 对比分析了多种先进的多模态大型语言模型,为相关领域的研究提供了宝贵的参考。
  • 实验设计严谨,结果具有实际应用价值。

扣分理由

  • 文章为预印本,可能需要进一步的同行评审来验证其结论的普适性和稳健性。

9. Ferret: Federated Full-Parameter Tuning at Scale for Large Language Models

Y Shu, W Hu, SK Ng, BKH Low, FR Yu - arXiv preprint arXiv:2409.06277, 2024

Ferret: 适用于大型语言模型的大规模联邦全参数调优

摘要
大型语言模型(LLMs)在众多实际应用中变得不可或缺。然而,特别是在数据隐私和通信效率至关重要的联邦设置中,大规模微调这些模型面临着重大挑战。现有的方法通常采用参数高效微调(PEFT)来减轻通信开销,但这通常会以牺牲模型准确性为代价。为了解决这些限制,我们提出了一种用于LLMs的联邦全参数调优方法(Ferret),这是第一个具有共享随机性的第一阶方法,能够在保持竞争性模型准确性的同时,跨分散的数据源实现LLMs的可扩展全参数调优。Ferret通过三个方面实现这一点:(1) 它采用广泛使用的第一阶方法进行高效的本地更新;(2) 它将这些更新投影到低维空间,显著减少通信开销;(3) 它使用共享随机性从这个低维空间重建本地更新,以促进有效的全参数全局聚合,确保快速收敛和竞争性的最终性能。我们严格的理论分析和见解以及广泛的实验表明,Ferret在保持竞争性模型准确性的同时,显著提高了现有联邦全参数调优方法的可扩展性,实现了高计算效率、减少通信开销和快速收敛。

创新点

  1. 联邦全参数调优:提出了一种新的联邦学习(FL)方法,用于在保持数据隐私的同时,对大型语言模型进行全参数调优。
  2. 共享随机性:首次在第一阶联邦学习方法中引入共享随机性,以减少通信开销。
  3. 低维空间投影:通过将模型更新投影到低维空间,显著降低了与通信相关的计算和数据传输成本。
  4. 快速收敛:通过有效的全局聚合策略,确保了模型的快速收敛和竞争性性能。

算法模型

  • Ferret算法:结合了第一阶优化方法和零阶优化方法的优点,通过共享随机性和低维空间投影来实现高效的联邦学习。
  • 全局聚合:使用随机种子和投影坐标在全局服务器上重建本地更新,然后聚合以形成更新的全局模型。
  • 本地更新:在本地客户端上使用第一阶方法进行参数更新,以适应本地数据分布。
  • 投影更新:将本地更新投影到低维空间,并使用共享随机性在全局服务器上重建这些更新。
    在这里插入图片描述
    实验效果
  • 准确性:Ferret在多个数据集上实现了与现有方法相当的模型准确性。
  • 通信效率:与FedAvg相比,Ferret显著减少了通信开销,使得联邦学习更加高效。
  • 收敛速度:Ferret在较少的通信轮次内实现了快速收敛,表现出了优越的收敛速度。
  • 计算效率:Ferret在本地更新阶段表现出了高计算效率,减少了每轮的计算成本。

结论
Ferret算法为在联邦环境中部署大型语言模型提供了一种高效、可扩展的解决方案。通过实现高计算效率、减少通信开销和快速收敛,Ferret克服了现有方法的局限性,为大规模联邦学习提供了一个理想的选择。

推荐阅读指数
★★★☆☆

推荐理由

  • 提出了一种新的联邦学习方法,适用于大型语言模型的全参数调优。
  • 创新性地结合了第一阶和零阶优化方法,提高了通信效率和模型性能。
  • 实验结果证明了Ferret在多个关键指标上的优势,包括准确性、通信效率和收敛速度。

扣分理由

  • 文章为预印本,可能需要进一步的同行评审来验证其结论的普适性和稳健性。具体实践效果,还有待验证。

10. Exploring the Integration of Large Language Models in Industrial Test Maintenance Processes

L Lemner, L Wahlgren, G Gay, N Mohammadiha, J Liu… - arXiv preprint arXiv …, 2024

探索大型语言模型在工业测试维护过程中的集成

摘要:
这篇文章探讨了大型语言模型(LLMs)在软件测试维护过程中的应用。软件测试过程中的大部分成本和工作量都投入到了测试维护中,即添加、删除或修改测试用例,以保持测试套件与被测系统同步或以其他方式提高其质量。工具支持可以通过自动化过程的某些方面或为开发人员提供指导和支持来降低成本并提高测试维护的质量。

创新点:

  1. 研究了大型语言模型(LLMs)在支持测试维护方面的能力和应用。
  2. 在爱立信公司进行了案例研究,探索了需要测试维护的触发因素,LLMs可以采取的行动,以及在工业环境中部署LLMs时必须考虑的因素。
  3. 提出了两种多代理架构的实现,并展示了它们如何预测源代码更改后哪些测试用例需要维护。

算法模型:
文章提出了两种多代理架构,这些架构可以预测源代码更改后哪些测试用例需要维护。这些架构包括一个规划代理,它协调其他LLM实例和代理的工作,以及一个基于管道的架构,它通过LLM实例和代理之间的调用链来做出预测。
在这里插入图片描述

实验效果:
实验在爱立信公司的工业代码库上进行,使用了四种原型来评估这些架构的性能。实验结果表明,使用规划代理和测试用例摘要的原型在预测测试维护需求方面表现最好,其F1分数为0.2932。尽管这个性能指标还有很大的提升空间,但它展示了LLM代理在实际应用中的可行性。

重要数据与结论:

  • 确定了37个低级源代码更改和7个高级开发决策,这些都可以触发测试维护的需求。
  • 提出的多代理架构原型能够以一定的准确度预测测试用例的维护需求。
  • 实验结果表明,当前的LLMs在测试维护任务中的表现还不足以直接用于实际应用,但它们提供了未来研究方向的一个起点。

推荐阅读指数:
★★☆☆☆

这篇文章对于那些对软件测试自动化、大型语言模型在工业应用中的集成以及多代理系统感兴趣的研究人员和实践者来说是有价值的。尽管它提供了一些有趣的见解和初步的结果,但考虑到目前LLMs在测试维护中的性能还有待提高,因此对于更广泛的读者群体来说,推荐指数是中等。

备注:
原创文章同步发表CSDN与知乎平台,内容仅供学习使用。 – by 夜空流星(sp-fyf-2024)

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2145082.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

Html在线编辑器

Html在线编辑器提供富文本编辑器,在线文章编辑器,富文本编辑器,Html在线编辑器使用,具有高级功能的Html在线编辑器可全屏编辑,Web版Html在线编辑器在线使用,文章,网站编辑,微信公众号可以在线使用编辑器功能等。

select系统调用(实现I/O复用)

API 在一段指定时间内,监听用户感兴趣的文件描述符上的可读、可写、异常事件。 int select(int nfds, fd_set *readfds, fd_set *writefds,fd_set *exceptfds, struct timeval *timeout);文件描述符集合fd_set 是一个用于管理文件描述符集合的结构体。select调用…

flutter集成百度地图定位 ‘BMKLocationManager.h‘ file not found报错

一、写在前面 好久不见~最近接手了一个flutter的项目,需求是接入百度地图的定位插件。但是按照官网的文档来做,安卓没有问题,但是ios就惨了,各种编译报错。 flutter_bmflocation: ^3.6.0 集成报错 ‘BMKLocationManager.h’ fil…

Renesas R7FA8D1BH (Cortex®-M85)内部RTC的应用

目录 概述 1 软硬件 1.1 软硬件环境信息 1.2 开发板信息 1.3 调试器信息 2 FSP配置RTC 2.1 配置参数 2.2 RTC模块介绍 3 RTC相关函数 3.1 R_RTC_Open() 3.2 R_RTC_Close() 3.3 R_RTC_ClockSourceSet() 3.4 R_RTC_CalendarTimeSet() 3.5 R_RTC_CalendarTimeGet()…

HC-SR04超声波传感器详解(STM32)

目录 一、介绍 二、传感器原理 1.原理图 2.引脚描述 3.工作原理介绍 三、程序设计 main.c文件 ultrasonic.h文件 ultrasonic.c文件 四、实验效果 五、资料获取 项目分享 一、介绍 HC-SR04超声波传感器是通过发送和接收超声波,利用时间差和声音传播速度…

Python编码系列—Python团队开发工作流:高效协作的艺术

🌟🌟 欢迎来到我的技术小筑,一个专为技术探索者打造的交流空间。在这里,我们不仅分享代码的智慧,还探讨技术的深度与广度。无论您是资深开发者还是技术新手,这里都有一片属于您的天空。让我们在知识的海洋中…

煤炭检测系统源码分享

煤炭检测检测系统源码分享 [一条龙教学YOLOV8标注好的数据集一键训练_70全套改进创新点发刊_Web前端展示] 1.研究背景与意义 项目参考AAAI Association for the Advancement of Artificial Intelligence 项目来源AACV Association for the Advancement of Computer Vision …

A股上市公司企业创新能力、质量、效率-原始数据+dofile+结果(2006-2023年)

上市公司的创新能力体现在其不断研发新技术、新产品和服务的能力上,这是企业保持竞争优势的关键;质量则是指公司所提供的产品或服务达到高标准的程度,高质量是赢得客户信任和市场份额的基础;效率则涵盖了生产运营中的资源利用程度…

天线工程师进阶指南:只会割铜皮式调天线,就Out了!跨学科天线设计介绍

❝本次推文简单介绍下跨学科天线设计。 什么是天线? 天线是一种变换器,它把传输线上传播的导行波,变换成在无界媒介(通常是自由空间)中传播的电磁波,或者进行相反的变换。 发射天线可以将来自发射机的高频…

资源创建方式

kubernetes支持两种创建资源的方式: 用kubectl命令直接创建,比如:kubectl run nginx-deployment --imagenginx1.7.9 --replicas2,在命令行中通过参数指定资源的属性 通过配置文件和kubectl apply创建,创建nginx.yml文…

9月18日

思维导图 配置桥接网络的过程 配置桥接网络 确保虚拟机提供了桥接模式菜单栏>编辑>虚拟机网络编辑器确保虚拟机可以设置桥接网络(如无法通过桥接连接网络,则可以还原设置后重新尝试,如果还不行则找到VMware的软件安装包,双…

Pc端关于不同PDF阅读器的实际体验

因为马上研究生开学了,平时也会阅读很多pdf,实际上我们电脑上也自带一个pdf阅读的软件:也就是我们的edge,但是还是可能有些不够我们使用。下面是一些容易获取到的软件资源。 下面的评价仅是个人观点,请理性看待。 一…

【Pycharm使用技巧记录手册】批量检索与替换功能——辅助Yolo训练标签label配置文件构建

在yolo训练前的准备工作中,需要编写yaml配置文件中的信息。对于多分类问题,需要将其类别与索引一一对应。实践中,类别与索引的关系可能写在字典数据格式内,如何将其转换为配置文件内的信息,这是一个看起来简单但如果纯…

亲测有效,长期有效的RTSP流地址公网RTSP地址,各种类型的视频源

我们经常需要做一些实时视频流的测试,但是手边又没有办法及时弄到一个摄像机,我们经常会去搜索一下“公网RTSP地址”,但是大部分现在都失效了,有什么办法能够让我们快速构建一个RTSP流,点几下就能直接用? …

yolov5/8/9/10模型在车辆检测中的应用【代码+数据集+python环境+GUI系统】

yolov5/8/9/10模型在车辆检测中的应用【代码数据集python环境GUI系统】 1.背景意义 随着城市化进程的加速和机动车数量的激增,交通拥堵、交通事故等问题日益严重。传统的交通管理手段已经难以满足日益增长的交通需求。基于计算机视觉的车辆检测技术通过实时捕捉道路…

C/C++语言基础--C++面向对象、类、对象概念讲解

本专栏目的 更新C/C的基础语法,包括C的一些新特性 前言 今天更新的比较晚了,主要一直用是谷歌Colab训练模型,访问国内csdn反而不好使了,请大家见谅;C是面向对象的语言,本文将介绍什么是面向对象、什么是类…

jmeter+ant+git+jenkins

基于工具的接口自动化(jmeterantgitjenkins) 1.1 简介 Jmeter、Ant、Git和Jenkins是一套结合了测试、代码管理和持续集成/持续部署(CI/CD)的工具链,可以帮助开发者进行高效的接口开发和测试。这四个工具可以相互配合…

828华为云征文|华为云Flexus云服务器X实例之openEuler系统下部署SQLite数据库浏览器sqlite-web

828华为云征文|华为云Flexus云服务器X实例之openEuler系统下部署SQLite数据库浏览器sqlite-web 前言一、Flexus云服务器X实例介绍1.1 Flexus云服务器X实例简介1.2 Flexus云服务器X实例特点1.3 Flexus云服务器X实例使用场景 二、sqlite-web介绍2.1 sqlite-web简介2.2…

C语言 | Leetcode C语言题解之第406题根据身高重建队列

题目: 题解: int cmp(const void* _a, const void* _b) {int *a *(int**)_a, *b *(int**)_b;return a[0] b[0] ? a[1] - b[1] : b[0] - a[0]; }int** reconstructQueue(int** people, int peopleSize, int* peopleColSize, int* returnSize, int** …

TypeScript入门 (二)控制语句

引言 大家好,我是GISer Liu😁,一名热爱AI技术的GIS开发者。本系列文章是我跟随DataWhale 2024年9月学习赛的TypeScript学习总结文档。本文主要讲解TypeScript中控制语句的部分;希望通过我的知识点总结,能够帮助你更好地…