计算机前沿技术-人工智能算法-大语言模型-最新研究进展-2024-10-21

news2024/11/23 21:22:44

计算机前沿技术-人工智能算法-大语言模型-最新研究进展-2024-10-21


目录

文章目录

  • 计算机前沿技术-人工智能算法-大语言模型-最新研究进展-2024-10-21
    • 目录
    • 1. The Fair Language Model Paradox
      • 摘要
      • 研究背景
      • 问题与挑战
      • 如何解决
      • 创新点
      • 算法模型
      • 实验效果
      • 重要数据与结论
      • 推荐阅读指数:★★★★☆
      • 推荐理由
    • 2. DISP-LLM: Dimension-Independent Structural Pruning for Large Language Models
      • 摘要
      • 研究背景
      • 问题与挑战
      • 如何解决
      • 创新点
      • 算法模型
      • 实验效果
      • 重要数据与结论
      • 推荐阅读指数:★★★★☆
      • 推荐理由
    • 3. Holistic Reasoning with Long-Context LMs: A Benchmark for Database Operations on Massive Textual Data
      • 摘要
      • 研究背景
      • 问题与挑战
      • 如何解决
      • 创新点
      • 算法模型
      • 实验效果
      • 重要数据与结论
      • 推荐阅读指数:★★★★☆
      • 推荐理由
    • 4. Impacts of Continued Legal Pre-Training and IFT on LLMs' Latent Representations of Human-Defined Legal Concepts
      • 摘要
      • 研究背景
      • 问题与挑战
      • 如何解决
      • 创新点
      • 算法模型
      • 实验效果
      • 重要数据与结论
      • 推荐阅读指数:★★★★☆
      • 推荐理由
    • 5. Toolken+: Improving LLM Tool Usage with Reranking and a Reject Option
      • 摘要
      • 研究背景
      • 问题与挑战
      • 如何解决
      • 创新点
      • 算法模型
      • 实验效果
      • 重要数据与结论
      • 推荐阅读指数:★★★★☆
      • 推荐理由
    • 后记


1. The Fair Language Model Paradox

Authors: Andrea Pinto and Tomer Galanti and Randall Balestriero
https://arxiv.org/abs/2410.11985

大型语言模型的公平性悖论

摘要

本文研究了大型语言模型(LLMs)在训练过程中的token级动态,特别是权重衰减对不同频率token性能的影响。研究发现,随着权重衰减的增加,模型对低频token的性能影响更大,这在大多数语言中构成了词汇的绝大多数。这一发现对于确保所有可用token的公平性至关重要,需要开发新的正则化技术。

研究背景

大型语言模型(LLMs)在现实世界的应用中广泛部署,但对其在token级别训练动态的了解甚少。通常的评估依赖于在批量级别测量的聚合训练损失,这忽略了由token级动态和超参数引入的结构偏差所产生的微妙的每个token的偏差。
在这里插入图片描述

问题与挑战

  • 权重衰减虽然常用于稳定训练,但研究发现它在token级别上引入了性能偏差。
  • 在不同数据集大小、模型架构和参数量(从2.7亿到30亿参数)的模型中,随着权重衰减的增加,低频token受到不成比例的贬低。
  • 这些被忽视的低频token在大多数语言的token分布中占绝大多数,这对模型的公平性提出了挑战。

如何解决

研究者们通过实验展示了权重衰减对不同频率token的影响,并提出了需要新的正则化技术来确保所有token的公平性。

创新点

  • 揭示了权重衰减在token级别上引入的偏差,这种偏差在传统的基于批量的评估中是检测不到的。
  • 提出了需要新的正则化技术,以确保在不平衡的token分布上训练的LLMs中所有token的公平性。

算法模型

研究中使用了不同的模型架构和大小,包括Apple OpenELM模型(2.7亿和30亿参数)和Qwen2模型(0.5亿和1.5亿参数)。这些模型在IMDB数据集及其扩展版本上进行了训练,使用了不同的权重衰减水平。

实验效果

  • 实验结果表明,随着权重衰减的增加,模型在低频token上的性能显著下降,而高频token的性能基本不受影响。
  • 通过对比不同权重衰减水平下的每个token的交叉熵损失,研究者们发现低频token在更高的权重衰减下遭受了更高的损失。
  • 研究还发现,随着权重衰减的增加,高频token的学习速度比低频token快,这表明正则化可能对罕见token不利。
    在这里插入图片描述
    在这里插入图片描述

重要数据与结论

  • 在IMDB数据集上,95%的总token被词汇表中顶部0.01%的token捕获,表明了token频率的极端不平衡。
  • 随着权重衰减的增加,模型在低频token上的交叉熵损失显著增加,而高频token的损失增加较少。
  • 研究强调了在LLMs训练实践中一个重大的疏忽:权重衰减虽然可以改善整体损失指标的收敛和稳定性,但可能会严重影响模型处理低频token的能力。

推荐阅读指数:★★★★☆

推荐理由

这篇文章对于理解大型语言模型在训练过程中的内在偏差以及权重衰减对模型性能的影响提供了深刻的见解。它对于自然语言处理领域的研究人员和工程师来说是非常有价值的,因为它揭示了在设计和训练LLMs时需要考虑的新挑战和潜在的改进方向。此外,这项研究还强调了开发新的正则化技术以确保模型公平性的重要性。

2. DISP-LLM: Dimension-Independent Structural Pruning for Large Language Models

Authors: Shangqian Gao and Chi-Heng Lin and Ting Hua and Tang Zheng and Yilin
Shen and Hongxia Jin and Yen-Chang Hsu
https://arxiv.org/abs/2410.11988
在这里插入图片描述
DISP-LLM: 大型语言模型的维度无关结构性剪枝

摘要

本文提出了一种新的结构性剪枝方法,用于压缩大型语言模型(LLMs),而不需要额外的后处理步骤。该方法通过打破传统结构性剪枝方法中的结构依赖,允许不同层选择不同的特征子集,并且可以自由调整每层的宽度,从而显著提高了结构剪枝的灵活性。实验结果表明,该方法在多种LLMs上的表现超过了其他最先进的方法,并首次展示了结构性剪枝可以达到与半结构性剪枝相似的准确性。

研究背景

大型语言模型(LLMs)在自然语言处理任务中取得了显著的成功,但是这些模型的内存和计算成本对于资源受限的设备来说是一个挑战。为了在不牺牲性能的情况下部署这些模型,需要有效的压缩技术。

问题与挑战

现有的结构性剪枝方法要么限制了剪枝的灵活性,要么通过引入额外的投影矩阵增加了模型的参数量。这些方法在减少模型大小和计算成本方面存在局限性。

如何解决

文章提出了一种新的维度无关结构性剪枝方法,该方法通过索引选择和索引添加操作来剪枝,而不是修改残差连接,从而避免了传统方法中的限制。

创新点

  • 提出了一种新的结构性剪枝方法,打破了传统方法中的结构依赖,提高了剪枝的灵活性。
  • 通过超网络和基于梯度的优化方法来学习每层的宽度,而不是引入额外的参数。
  • 实验表明,该方法能够在保持低计算成本的同时,超越现有的结构性和半结构性剪枝方法。

算法模型

文章中提出了DISP-LLM方法,该方法通过在注意力层和MLP层中应用不同的选择矩阵,实现了在不增加额外参数的情况下,对不同层进行不同特征子集的选择。此外,该方法还通过学习每层的宽度来进一步提高灵活性。
在这里插入图片描述
在这里插入图片描述

实验效果

  • 在WikiText-2数据集上的实验结果表明,DISP-LLM在不同的剪枝比例下,都能取得比现有方法更好的性能。
  • 在零样本任务上,DISP-LLM也展现出了优越的性能,与半结构性剪枝方法相当。
  • 文章还提供了关于模型在不同剪枝比例下的困惑度(PPL)和准确率的详细数据。
    在这里插入图片描述

重要数据与结论

  • DISP-LLM在50%的剪枝比例下,对于LLaMA-2 7B模型,其在WikiText-2上的困惑度为9.84,与未剪枝的模型相比,性能损失极小。
  • 在零样本任务中,DISP-LLM在50%剪枝比例下的平均准确率为51.05%,与半结构性剪枝方法相当。

推荐阅读指数:★★★★☆

推荐理由

该方法不仅提高了剪枝的灵活性,而且在保持模型性能的同时减少了计算成本。

3. Holistic Reasoning with Long-Context LMs: A Benchmark for Database Operations on Massive Textual Data

Authors: Seiji Maekawa, Hayate Iso, Nikita Bhutani
https://arxiv.org/abs/2410.11996

整体推理与长文本语境的语言模型:大规模文本数据上的数据库操作基准测试

摘要

随着文本信息的快速增长,我们需要更高效的方法来筛选、组织和理解这些信息。虽然检索增强型生成(RAG)模型在访问大型文档集合中的信息方面表现出色,但它们在处理需要跨多个文档聚合和推理的复杂任务时存在困难,这就是所谓的整体推理。长文本语境的语言模型(LCLMs)在处理大规模文档方面具有很大的潜力,但它们在这方面的能力仍然不清楚。在这项工作中,我们介绍了HoloBench,这是一个新的框架,它将数据库推理操作引入基于文本的上下文中,使系统地评估LCLMs在处理大型文档的整体推理能力变得更加容易。我们的方法调整了上下文长度、信息密度、信息分布和查询复杂性等关键因素,以全面评估LCLMs。我们的实验表明,上下文中的信息量对LCLM性能的影响大于实际的上下文长度。此外,查询的复杂性对性能的影响超过了信息量,特别是对于不同类型的查询。有趣的是,涉及寻找最大值或最小值的查询对LCLMs来说更容易,并且受上下文长度的影响较小,尽管它们对RAG系统构成了挑战。然而,需要聚合多条信息的任务随着上下文长度的增加而准确度明显下降。此外,我们发现,尽管分组相关信息通常会提高性能,但最佳定位因模型而异。我们的发现揭示了在实现长上下文的整体理解方面的进步和持续存在的挑战。这些可以指导未来LCLM的发展,并为创建更强大的语言模型以应用于现实世界的应用奠定基础。

研究背景

随着文本数据的爆炸性增长,需要有效的方法来处理、组织和理解大型文档集合。检索增强型生成(RAG)模型虽然在访问这些庞大资源中的信息方面取得了进展,但在执行需要跨多个文档进行聚合和推理的复杂任务时,它们的能力受限。
在这里插入图片描述

问题与挑战

现有的RAG模型依赖于局部上下文检索,这使得它们在处理需要整体推理的复杂任务时效果不佳。此外,对于长文本的整体推理能力的评价还存在空白,需要一个能够系统评估LCLMs在处理大型文档时的整体推理能力的基准测试。

如何解决

文章提出了HoloBench,这是一个新的评估框架,专门设计用来评估LCLMs在处理长文本数据时的整体推理能力。HoloBench利用数据库操作来创建需要模型聚合和综合分布在广泛上下文中的信息的复杂推理任务。

创新点

  • 提出了HoloBench,一个基于数据库操作的评估框架,用于系统评估LCLMs处理大规模文本数据的整体推理能力。
  • 设计了能够控制影响LCLM性能的关键因素的评估方法,包括上下文长度、信息密度、信息分布和查询复杂性。
  • 实现了自动化和可扩展的评估过程,无需人工注释,提高了评估的效率和可扩展性。

算法模型

HoloBench框架基于文本到SQL的基准测试构建,通过调整上下文长度、信息密度和查询复杂性等因素,动态生成评估数据。该框架利用SQL查询在数据库上执行以生成动态的基准答案,同时控制上下文大小和信息分布。
在这里插入图片描述

实验效果

实验结果表明,上下文中的信息量对模型性能的影响大于上下文的实际长度。查询的复杂性对性能的影响超过了信息量,特别是对于不同类型的查询。涉及寻找最大值或最小值的查询对LCLMs来说更容易,并且受上下文长度的影响较小。然而,需要聚合多条信息的任务随着上下文长度的增加而准确度明显下降。

重要数据与结论

  • 上下文中的信息量对LCLM性能的影响大于上下文的实际长度。
  • 查询的复杂性对性能的影响超过了信息量。
  • 涉及寻找最大值或最小值的查询对LCLMs来说更容易。
  • 需要聚合多条信息的任务随着上下文长度的增加而准确度明显下降。
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述

推荐阅读指数:★★★★☆

推荐理由

这篇文章提供了一个全面的评估框架来测试和改进LCLMs在处理大规模文本数据时的整体推理能力。

4. Impacts of Continued Legal Pre-Training and IFT on LLMs’ Latent Representations of Human-Defined Legal Concepts

Authors: Shaun Ho
https://arxiv.org/abs/2410.12001

继续法律预训练和指令微调对大型语言模型在人类定义的法律概念的潜在表示的影响

摘要

本文旨在为人工智能与法律领域的研究人员和实践者提供更详细的理解,即在法律语料上继续预训练和指令微调(IFT)是否以及如何增加大型语言模型(LLMs)在开发输入序列的全局上下文表示时对人类定义的法律概念的利用。我们比较了三个模型:Mistral 7B、SaulLM-7B-Base(在法律语料上继续预训练的Mistral 7B)和SaulLM-7B-Instruct(进一步IFT)。这个初步评估检查了7个不同的文本序列,每个序列都包含了一个人类定义的法律概念。我们首先比较了模型分配给代表法律概念的标记子集的总注意力的比例。然后,我们可视化了原始注意力分数变化的模式,评估法律训练是否引入了与人类法律知识结构相对应的新颖注意力模式。这项调查揭示了(1)法律训练的影响在各种人类定义的法律概念之间不均匀分布,以及(2)在法律训练中学到的法律知识上下文表示与人类定义的法律概念的结构不相符。我们以进一步调查法律LLM训练动态的建议结束。

研究背景

在法律任务中使用大型语言模型(LLMs)面临挑战,因为许多法律术语与一般语言中的相同词汇具有不同的含义,并且法律语料的统计数据与一般语料不同。虽然在法律语料上的继续预训练和微调(统称为“法律训练”)提高了法律基准的性能,但这些模型在从注释、修辞角色预测到事实模式编码等多样化的实际应用中的表现仍然不确定。

问题与挑战

法律训练数据稀缺且成本高昂,其质量高度依赖于注释者的专业知识和一致性。此外,文献还对微调是否以模型稳定性为代价引入表面改进提出了质疑。需要更深入地理解法律训练的潜在动态,以阐明法律LLMs的优势和劣势,以便它们可以被谨慎和适当地部署。

如何解决

通过分析注意力分数和结构,研究者们可以独立于数据集评估LLMs利用法律概念的程度,从而排除了上述数据质量问题的影响。

创新点

  • 提出了一种新的方法来评估法律训练对LLMs的影响,特别是在处理人类定义的法律概念时。
  • 通过比较不同模型在法律语料上的预训练和微调,揭示了法律训练对模型注意力分配的影响。
  • 可视化了注意力分数变化的模式,以评估法律训练是否引入了与人类法律知识结构相对应的新颖注意力模式。

算法模型

研究比较了三个模型:Mistral 7B、SaulLM-7B-Base和SaulLM-7B-Instruct。这些模型使用相同的架构,为隔离法律训练对通用LLMs的影响提供了理想的比较基础。

实验效果

实验结果表明:

  • 法律训练的影响在各种人类定义的法律概念之间不均匀分布。
  • 在法律训练中学到的法律知识上下文表示与人类定义的法律概念的结构不相符。
  • 法律训练通常减少了对大多数人类定义的法律概念的注意力,有时甚至到了极端程度。额外的IFT调节了这种行为,导致偏斜值更接近零或甚至为正(即更多地关注人类定义的法律概念)。

重要数据与结论

  • 法律训练对模型在开发输入序列的全局上下文表示时利用不同法律概念的程度有不均匀的影响。
  • 法律训练和IFT对模型的注意力分配有显著影响,但这些影响并不总是与人类定义的法律概念结构一致。
    在这里插入图片描述

推荐阅读指数:★★★★☆

推荐理由

这篇文章研究结果揭示了法律训练对LLMs注意力分配的影响,这对于优化法律LLMs的设计和应用具有重要意义。

5. Toolken+: Improving LLM Tool Usage with Reranking and a Reject Option

Authors: Konstantin Yakovlev, Sergey Nikolenko, Andrey Bout
https://arxiv.org/abs/2410.12004

Toolken+: 通过重新排名和拒绝选项改进大型语言模型的工具使用

摘要

最近提出的工具学习范式ToolkenGPT展示了有希望的性能,但存在两个主要问题:首先,它无法从工具文档中受益;其次,它经常在是否使用工具上犯错误。我们介绍了Toolken+,通过重新排名ToolkenGPT选择的前k个工具来缓解第一个问题,并通过特殊的“拒绝”选项解决第二个问题,以便当“拒绝”排名第一时,模型将生成一个词汇标记。我们在多步骤数值推理和工具选择任务上展示了Toolken+的有效性。

研究背景

大型语言模型(LLM)通过允许访问外部工具(如符号计算引擎、作为外部内存的数据库等)被扩展。Tool learning paradigms可以分为两类:一类是监督微调以利用工具,另一类是在上下文中学习,提供示例。ToolkenGPT旨在结合这两种方法的优点,通过可训练的嵌入和扩展词汇表来表示每个工具。
在这里插入图片描述

问题与挑战

ToolkenGPT面临的挑战包括:

  1. 无法利用对LLMs有帮助的工具文档。
  2. 在判断何时使用工具时经常出错,调用工具过于频繁。

如何解决

Toolken+通过以下方式解决这些问题:

  1. 引入工具嵌入的副本来重新排名检索到的工具。
  2. 引入一个额外的“拒绝”工具,以便在不需要调用任何工具时切换回文本生成。

创新点

  • 引入重新排名机制,使模型能够根据工具文档选择最相关的工具。
  • 引入“拒绝”选项,减少不必要的工具调用,提高模型的鲁棒性。

算法模型

Toolken+模型扩展了工具集,包括一个特殊的“拒绝”工具,并在推理过程中重新排名前k个工具。该模型使用softmax函数来计算下一个标记的概率,并在工具选择过程中引入掩码向量。
在这里插入图片描述

实验效果

实验结果表明,Toolken+在GSM8K、MetaTool和VirtualHome数据集上的表现显著优于ToolkenGPT。具体数据包括:

  • 在MetaTool数据集上,Toolken+在所有考虑的LLM上都显著提高了结果。
  • 在GSM8K数据集上,Toolken+通过拒绝机制显著提高了准确性。
  • 在VirtualHome数据集上,Toolken+在生成动作序列的任务中一致性地优于ToolkenGPT。
    在这里插入图片描述
    在这里插入图片描述

重要数据与结论

Toolken+通过引入重新排名和拒绝选项,显著提高了模型在工具使用过程中的鲁棒性和准确性。这使得基于现代LLM的AI代理和用户面向工具更加可靠。

推荐阅读指数:★★★★☆

推荐理由

Toolken+通过重新排名和拒绝选项解决了ToolkenGPT的局限性,提高了模型在使用外部工具时的准确性和鲁棒性。此外,该研究还为未来在更广泛的任务和数据集上测试和改进Toolken+框架提供了基础。

后记

如果您对我的博客内容感兴趣,欢迎三连击(点赞、收藏、关注和评论),我将持续为您带来计算机人工智能前沿技术(尤其是AI相关的大语言模型,深度学习和计算机视觉相关方向)最新学术论文及工程实践方面的内容分享,助力您更快更准更系统地了解 AI前沿技术

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2229225.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

Python——实时域名通信状态监控

在互联网时代,网站和在线服务的可用性对于个人和企业都至关重要。域名的通信状态直接关系到服务的可达性,因此,实时监控域名的通信状态成为了一项基本需求。本文将详细介绍一个使用Python编写的简单域名通信状态监控工具,该工具能…

vue vxeui 上传组件 vxe-upload 全局配置上传方法,显示上传进度,最完美的配置方案

Vxe UI 上传组件 vxe-upload 全局配置上传方法,显示上传进度,最完美的配置方案 正常使用上传组件 vxe-upload,都是在用的时候传自定义上传方法,然后进行处理。几个页面是没什么问题,当系统页面非常多的时候&#xff0…

springboot 修复 Spring Framework 特定条件下目录遍历漏洞(CVE-2024-38819)

刚解决Spring Framework 特定条件下目录遍历漏洞(CVE-2024-38816)没几天,又来一个新的,真是哭笑不得啊。 springboot 修复 Spring Framework 特定条件下目录遍历漏洞(CVE-2024-38816)https://blog.csdn.ne…

SSH登录介绍

说明:一般登录服务器,我们可以用远程连接工具,如XShell、Windterm等,或者通过公司搭建的JumpServer(跳板机、堡垒机)来连接。前者是点对点登录,输入主机、端口,通过SSH协议登录&…

Unity计算二维向量夹角余弦值和正弦值的优化方法参考

如果不考虑优化问题,计算两个向量的余弦值或者正弦值可以直接使用类似的方法: [SerializeField] Vector2 v1, v2;void Start() {float valCos Mathf.Acos(Vector2.SignedAngle(v1, v2));float valSin Mathf.Asin(Vector2.SignedAngle(v1, v2)); } 但是…

理解 CSS 中的绝对定位与 Flex 布局混用

理解 CSS 中的绝对定位与 Flex 布局混用 在现代网页设计中,CSS 布局技术如 flex 和绝对定位被广泛使用。然而,这两者结合使用时,可能会导致一些意想不到的布局问题。本文将探讨如何正确使用绝对定位元素,避免它们受到 flex 布局的…

JAVA力扣每日一题:P3216. 交换后字典序最小的字符串

本题来自&#xff1a;力扣-每日一题 力扣 (LeetCode) 全球极客挚爱的技术成长平台https://leetcode.cn/ 题解&#xff1a; class Solution {public String getSmallestString(String s) {int len s.length();int[] arr new int[len];for (int i 0; i < len; i) {arr[i…

Vue3 学习笔记(十二)侦听器详解

在 Vue 3 中&#xff0c;侦听器是一种响应式特性&#xff0c;允许你观察和响应 Vue 实例上的数据变动。Vue 提供了 watch 和 watchEffect 两个函数来创建侦听器。 1、watch 侦听器 watch 是一个用于侦听特定数据源变化的函数。它允许你指定一个或多个数据源&#xff0c;并在这些…

#渗透测试#SRC漏洞挖掘# 信息收集-常见端口及谷歌语法

免责声明 本教程仅为合法的教学目的而准备&#xff0c;严禁用于任何形式的违法犯罪活动及其他商业行为&#xff0c;在使用本教程前&#xff0c;您应确保该行为符合当地的法律法规&#xff0c;继续阅读即表示您需自行承担所有操作的后果&#xff0c;如有异议&#xff0c;请立即停…

SAP ABAP开发学习——第一代增强(包含增强演示)

​​​​​​SAP ABAP开发学习——第二代增强&#xff08;包含增强演示&#xff09;-CSDN博客 SAP ABAP开发学习——第三代增强&#xff08;BADI)-CSDN博客 概念 第一代增强(增强嵌入标准程序中) 第一代出口-User exit 以SD用户出口为例 SD及MM较多的程序都是基于源码控制来…

安宝特分享 | AR技术引领:跨国工业远程协作创新模式

在当今高度互联的工业环境中&#xff0c;跨国合作与沟通变得日益重要。然而&#xff0c;语言障碍常常成为高效协作的绊脚石。安宝特AR眼镜凭借其强大的多语言自动翻译和播报功能&#xff0c;正在改变这一局面&#xff0c;让远程协作变得更加顺畅。 01 多语言翻译优势 安宝特A…

动态规划 01背包(算法)

现有四个物品&#xff0c;小偷的背包容量为8&#xff0c;怎么可以偷得价值较多的物品 如: 物品编号&#xff1a; 1 2 3 4 物品容量&#xff1a; 2 3 4 5 物品价值&#xff1a; 3 4 5 8 记f(k,w) ,当背包容量为w,可以偷k件物品…

AWD挨打记录

前言 昨天参加了星盟的AWD集训&#xff0c;本来寻思能猛猛乱杀&#xff0c;结果加固时间只有20分钟&#xff0c;WAF还没push上去就被三家上了不死马QAQ cms是站帮主&#xff0c;之前没打过&#xff0c;D盾啥也没扫出来&#xff0c;还寻思是个贼安全的系统&#xff0c;结果洞满…

InstructIR: High-Quality Image Restoration Following Human Instructions 论文阅读笔记

这是Radu大佬所在的Wrzburg大学的computer vision lab实验室发表在ECCV2024上的一篇论文&#xff0c;代码开源。文章提出了一种文本引导的All-in-One的restoration模型&#xff0c;如下图所示&#xff1a; 这个工作其实跟"InstructPix2Pix: Learning to Follow Image Edit…

libavdevice.so.58: cannot open shared object file: No such file ordirectory踩坑

博主是将大图切分成小图时遇到 问题一、linux编译后&#xff0c;找不到ffmpeg中的一个文件 产生原因&#xff0c;各种包集成&#xff0c;然后安装以后乱七八糟&#xff0c;甚至官方的教程也不规范导致没有添加路径到系统文件导致系统执行的时候找不到 1.下载 博主进行的离线…

【SQL实验】表的更新和简单查询

完整代码在文章末尾 在上次实验创建的educ数据库基础上&#xff0c;用SQL语句为student表、course表和sc表中添加以下记录 【SQL实验】数据库、表、模式的SQL语句操作_创建一个名为educ数据库,要求如下: (下面三个表中属性的数据类型需要自己设计合适-CSDN博客在这篇博文中已经…

UHF机械高频头的知识和待学习的疑问

电路图如上所示&#xff1a; 实物开盖清晰图如下&#xff1a; 待学习和弄懂的知识&#xff1a; 这是一个四腔的短路线谐振。分别是输入调谐&#xff0c;放大调谐&#xff0c;变频调谐和本振 第一个原理图输入为75欧&#xff08;应该是面向有同轴线的天线了&#xff09;如下图…

学习路之TP6--workman安装

一、安装 首先通过 composer 安装 composer require topthink/think-worker 报错&#xff1a; 分析&#xff1a;最新版本需要TP8&#xff0c;或装低版本的 composer require topthink/think-worker:^3.*安装后&#xff0c; 增加目录 vendor\workerman vendor\topthink\think-w…

【三十八】【QT开发应用】vlcplayer视频播放器(一)实现视频播放,视频暂停,视频停止,进度条调节,音量调节,时长显示功能

效果展示 vlcplayer_test视频播放器 MainWidget.ui 注意控件的布局和命名&#xff0c;控件的命名和信号与槽函数的绑定有关&#xff0c;所以这点很重要。 下载VLC组件和环境配置 videolan下载地址我下载的是vlc-3.0.8-win64版本. 将下载的文件复制粘贴到项目文件中. 复制粘…

5G NR NARFCN计算SSB中心频率MATLAB实现

本期给大家带来5G NR中已知绝对射频信道号NARFCN如何计算SSB的中心频率&#xff0c;用MATLAB实现&#xff0c;参考3GPP 38.104 下图是NARFCN与SSB中心频率换算关系&#xff0c;其中NREF就是NARFCN。 函数输出频率的单位是MHZ&#xff0c;输入是NARFCN。 有不清楚的地方欢迎来…