大模型面试宝典:问题全集及权威解答

news2024/10/7 15:15:02

导读

自ChatGPT开启大模型时代以来,大模型正迎来飞速发展,现在从事大模型开发相关工作可谓是处在时代的风口。那么大模型面试需要哪些技能和技巧呢,本文详细整理了全套的面试问题及答案,希望对大家有所帮助!

目录

  • [x] 大模型(LLMs)基础面

  • [x] 1. 目前 主流的开源模型体系 有哪些?

  • [x] 2. prefix LM 和 causal LM 区别是什么?

  • [x] 3. 涌现能力是啥原因?

  • [x] 4. 大模型LLM的架构介绍?

  • [x] 大模型(LLMs)进阶面

  • [x] 1. llama 输入句子长度理论上可以无限长吗?

  • [x] 1. 什么是 LLMs 复读机问题?

  • [x] 2. 为什么会出现 LLMs 复读机问题?

  • [x] 3. 如何缓解 LLMs 复读机问题?

  • [x] 1. LLMs 复读机问题

  • [x] 2. llama 系列问题

  • [x] 3. 什么情况用Bert模型,什么情况用LLaMA、ChatGLM类大模型,咋选?

  • [x] 4. 各个专业领域是否需要各自的大模型来服务?

  • [x] 5. 如何让大模型处理更长的文本?

  • [x] 大模型(LLMs)微调面

  • [x] 1. 如果想要在某个模型基础上做全参数微调,究竟需要多少显存?

  • [x] 2. 为什么SFT之后感觉LLM傻了?

  • [x] 3. SFT 指令微调数据 如何构建?

  • [x] 4. 领域模型Continue PreTrain 数据选取?

  • [x] 5. 领域数据训练后,通用能力往往会有所下降,如何缓解模型遗忘通用能力?

  • [x] 6. 领域模型Continue PreTrain ,如何 让模型在预训练过程中就学习到更多的知识?

  • [x] 7. 进行SFT操作的时候,基座模型选用Chat还是Base?

  • [x] 8. 领域模型微调 指令&数据输入格式 要求?

  • [x] 9. 领域模型微调 领域评测集 构建?

  • [x] 10. 领域模型词表扩增是不是有必要的?

  • [x] 11. 如何训练自己的大模型?

  • [x] 12. 训练中文大模型有啥经验?

  • [x] 13. 指令微调的好处?

  • [x] 14. 预训练和微调哪个阶段注入知识的?

  • [x] 15. 想让模型学习某个领域或行业的知识,是应该预训练还是应该微调?

  • [x] 16. 多轮对话任务如何微调模型?

  • [x] 17. 微调后的模型出现能力劣化,灾难性遗忘是怎么回事?

  • [x] 18. 微调模型需要多大显存?

  • [x] 19. 大模型LLM进行SFT操作的时候在学习什么?

  • [x] 20. 预训练和SFT操作有什么不同

  • [x] 21. 样本量规模增大,训练出现OOM错

  • [x] 22. 大模型LLM进行SFT 如何对样本进行优化?

  • [x] 23. 模型参数迭代实验

  • [x] 大模型(LLMs)langchain面

  • [x] 1. 基于LLM+向量库的文档对话 基础面

  • [x] 2. 基于LLM+向量库的文档对话 优化面

  • [ ] 3. 基于LLM+向量库的文档对话 工程示例面

  • [x] 1. LLMs 存在模型幻觉问题,请问如何处理?

  • [x] 2. 基于LLM+向量库的文档对话 思路是怎么样?

  • [x] 3. 基于LLM+向量库的文档对话 核心技术是什么?

  • [x] 4. 基于LLM+向量库的文档对话 prompt 模板 如何构建?

  • [x] 1. 痛点1:文档切分粒度不好把控,既担心噪声太多又担心语义信息丢失

  • [x] 2. 痛点2:在基于垂直领域 表现不佳

  • [x] 3. 痛点3:langchain 内置 问答分句效果不佳问题

  • [x] 4. 痛点4:如何 尽可能召回与query相关的Document 问题

  • [x] 5. 痛点5:如何让LLM基于query和context得到高质量的response

  • [ ] 1. 避坑记录

  • [ ] 2. 本地知识库问答系统(Langchain-chatGLM)

  • [x] 1. 什么是 LangChain?

  • [x] 2. LangChain 包含哪些 核心概念?

  • [x] 3. 什么是 LangChain Agent?

  • [x] 4. 如何使用 LangChain ?

  • [x] 5. LangChain 支持哪些功能?

  • [x] 6. 什么是 LangChain model?

  • [x] 7. LangChain 包含哪些特点?

  • [x] 8. LangChain 如何使用?

  • [ ] 9. LangChain 存在哪些问题及方法方案?

  • [x] 10. LangChain 替代方案?

  • [x] 1. LangChain 中 Components and Chains 是什么?

  • [x] 2. LangChain 中 Prompt Templates and Values 是什么?

  • [x] 3. LangChain 中 Example Selectors 是什么?

  • [x] 4. LangChain 中 Output Parsers 是什么?

  • [x] 5. LangChain 中 Indexes and Retrievers 是什么?

  • [x] 6. LangChain 中 Chat Message History 是什么?

  • [x] 7. LangChain 中 Agents and Toolkits 是什么?

  • [x] 1. LangChain 如何调用 LLMs 生成回复?

  • [x] 2. LangChain 如何修改 提示模板?

  • [x] 3. LangChain 如何链接多个组件处理一个特定的下游任务?

  • [x] 4. LangChain 如何Embedding & vector store?

  • [x] 1. LangChain 低效的令牌使用问题

  • [ ] 2. LangChain 文档的问题

  • [ ] 3. LangChain 太多概念容易混淆,过多的“辅助”函数问题

  • [ ] 4. LangChain 行为不一致并且隐藏细节问题

  • [x] 5. LangChain 缺乏标准的可互操作数据类型问题

  • [x] 大模型(LLMs)langchain 面

  • [x] 基于LLM+向量库的文档对话 经验面

  • [x] 大模型(LLMs)参数高效微调(PEFT) 面

  • [x] 一、LoRA篇

  • [x] 二、QLoRA篇

  • [x] 三、AdaLoRA篇

  • [x] 四、LoRA权重是否可以合入原模型?

  • [ ] 五、ChatGLM-6B LoRA后的权重多大?

  • [x] 六、LoRA 微调优点是什么?

  • [x] 七、LoRA微调方法为啥能加速训练?

  • [x] 八、如何在已有LoRA模型上继续训练?

  • [x] 1.1 什么是 LoRA?

  • [x] 1.2 LoRA 的思路是什么?

  • [x] 1.3 LoRA 的特点是什么?

  • [x] 2.1 QLoRA 的思路是怎么样的?

  • [x] 2.2 QLoRA 的特点是什么?

  • [x] 3.1 AdaLoRA 的思路是怎么样的?

  • [x] 一、为什么需要 提示学习(Prompting)?

  • [x] 二、什么是 提示学习(Prompting)?

  • [x] 三、提示学习(Prompting) 有什么优点?

  • [x] 四、提示学习(Prompting)有哪些方法,能不能稍微介绍一下它们间?

  • [x] 4.4.1 为什么需要 P-tuning v2?

  • [x] 4.4.2 P-tuning v2 思路是什么?

  • [x] 4.4.3 P-tuning v2 优点是什么?

  • [x] 4.4.4 P-tuning v2 缺点是什么?

  • [x] 4.3.1 为什么需要 P-tuning?

  • [x] 4.3.2 P-tuning 思路是什么?

  • [x] 4.3.3 P-tuning 优点是什么?

  • [x] 4.3.4 P-tuning 缺点是什么?

  • [x] 4.2.1 为什么需要 指示微调(Prompt-tuning)?

  • [x] 4.2.2 指示微调(Prompt-tuning)思路是什么?

  • [x] 4.2.3 指示微调(Prompt-tuning)优点是什么?

  • [x] 4.2.4 指示微调(Prompt-tuning)缺点是什么?

  • [x] 4.2.5 指示微调(Prompt-tuning)与 Prefix-tuning 区别 是什么?

  • [x] 4.2.6 指示微调(Prompt-tuning)与 fine-tuning 区别 是什么?

  • [x] 4.1.1 为什么需要 前缀微调(Prefix-tuning)?

  • [x] 4.1.2 前缀微调(Prefix-tuning)思路是什么?

  • [x] 4.1.3 前缀微调(Prefix-tuning)的优点是什么?

  • [x] 4.1.4 前缀微调(Prefix-tuning)的缺点是什么?

  • [x] 4.1 前缀微调(Prefix-tuning)篇

  • [x] 4.2 指示微调(Prompt-tuning)篇

  • [x] 4.3 P-tuning 篇

  • [x] 4.4 P-tuning v2 篇

  • [x] 一、为什么 需要 适配器微调(Adapter-tuning)?

  • [x] 二、适配器微调(Adapter-tuning)思路?

  • [x] 三、 适配器微调(Adapter-tuning)特点是什么?

  • [x] 四、AdapterFusion 思路 是什么?

  • [x] 五、AdapterDrop 思路 是什么?

  • [x] 六、AdapterDrop 特点 是什么?

  • [x] 七、MAM Adapter 思路 是什么?

  • [x] 八、MAM Adapter 特点 是什么?

  • [x] 微调方法是啥?如何微调?

  • [x] 为什么需要 PEFT?

  • [x] 介绍一下 PEFT?

  • [x] PEFT 有什么优点?

  • [x] 微调方法批处理大小模式GPU显存速度?

  • [x] Peft 和 全量微调区别?

  • [x] 多种不同的高效微调方法对比

  • [x] 当前高效微调技术存在的一些问题

  • [x] 高效微调技术最佳实践

  • [x] PEFT 存在问题?

  • [x] 能不能总结一下各种参数高效微调方法?

  • [x] 大模型(LLMs)参数高效微调(PEFT) 面

  • [x] 适配器微调(Adapter-tuning)篇

  • [x] 提示学习(Prompting)

  • [x] LoRA 系列篇

  • [x] 大模型(LLMs)推理面

  • [x] 1. 为什么大模型推理时显存涨的那么多还一直占着?

  • [x] 2. 大模型在gpu和cpu上推理速度如何?

  • [x] 3. 推理速度上,int8和fp16比起来怎么样?

  • [x] 4. 大模型有推理能力吗?

  • [x] 5. 大模型生成时的参数怎么设置?

  • [x] 6. 有哪些省内存的大语言模型训练/微调/推理方法?

  • [x] 7. 如何让大模型输出合规化

  • [x] 8. 应用模式变更

  • [x] 大模型(LLMs)评测面

  • [x] 大模型怎么评测?

  • [x] 大模型的honest原则是如何实现的?

  • [x] 模型如何判断回答的知识是训练过的已知的知识,怎么训练这种能力?

  • [x] 大模型(LLMs)强化学习面

  • [x] 奖励模型需要和基础模型一致吗?

  • [x] RLHF 在实践过程中存在哪些不足?

  • [x] 如何解决 人工产生的偏好数据集成本较高,很难量产问题?

  • [x] 如何解决三个阶段的训练(SFT->RM->PPO)过程较长,更新迭代较慢问题?

  • [x] 如何解决 PPO 的训练过程同时存在4个模型(2训练,2推理),对计算资源的要求较高 问题?

  • [x] 大模型(LLMs)软硬件配置面

  • [x] 大模型(LLMs)训练集面

  • [x] SFT(有监督微调)的数据集格式?

  • [x] RM(奖励模型)的数据格式?

  • [x] PPO(强化学习)的数据格式?

  • [x] 找数据集哪里找?

  • [x] 微调需要多少条数据?

  • [x] 有哪些大模型的训练集?

  • [x] 进行领域大模型预训练应用哪些数据集比较好?

  • [ ] 大模型(LLMs)显存问题面

  • [ ] 大模型(LLMs)分布式训练面

  • [x] 大模型(LLMs)agent 面

  • [x] 如何给LLM注入领域知识?

  • [x] 如果想要快速体验各种模型,该怎么办?

  • [ ] Token及模型参数准备篇

  • [x] 预训练数据 Token 重复 是否影响 模型性能?

  • [ ] SFT需要训练Token数?

  • [ ] LLMs 位置编码篇

  • [x] 6.1 ALiBi (Attention with Linear Biases) 思路是什么?

  • [x] 6.2 ALiBi (Attention with Linear Biases) 的偏置矩阵是什么?有什么作用?

  • [x] 6.3 ALiBi (Attention with Linear Biases) 有什么优点?

  • [ ] 6.4 ALiBi (Attention with Linear Biases) 被哪些 LLMs 应用?

  • [x] 5.1 什么是 长度外推问题?

  • [x] 5.2 长度外推问题 的 解决方法 有哪些?

  • [x] 4.1 旋转位置编码 RoPE 思路是什么?

  • [ ] 4.2 推导一下 旋转位置编码 RoPE ?

  • [x] 4.3 旋转位置编码 RoPE 有什么优点?

  • [ ] 4.4 旋转位置编码 RoPE 被哪些 LLMs 应用?

  • [x] 1 什么是位置编码?

  • [x] 2 什么是绝对位置编码?

  • [x] 3 什么是相对位置编码?

  • [ ] 4 旋转位置编码 RoPE篇

  • [ ] 5 长度外推问题篇

  • [ ] 6 ALiBi (Attention with Linear Biases)篇

  • [ ] LLMs Tokenizer 篇

  • [x] Byte-Pair Encoding(BPE)篇

  • [x] WordPiece 篇

  • [x] SentencePiece 篇

  • [x] 对比篇

  • [x] 1 Byte-Pair Encoding(BPE) 如何构建词典?

  • [x] 1 WordPiece 与 BPE 异同点是什么?

  • [x] 简单介绍一下 SentencePiece 思路?

  • [x] 1 举例 介绍一下 不同 大模型LLMs 的分词方式?

  • [x] 2 介绍一下 不同 大模型LLMs 的分词方式 的区别?

  • [x] LLMs Tokenizer 篇

  • [x] Layer Normalization 篇

  • [x] LLMs 各模型分别用了 哪种 Layer normalization?

  • [x] 1 LN 在 LLMs 中的不同位置 有什么区别么?如果有,能介绍一下区别么?

  • [x] Layer Norm 篇

  • [x] RMS Norm 篇 (均方根 Norm)

  • [x] Deep Norm 篇

  • [x] Deep Norm 有什么优点?

  • [x] Layer Norm 的计算公式写一下?

  • [x] RMS Norm 的计算公式写一下?

  • [x] RMS Norm 相比于 Layer Norm 有什么特点?

  • [x] Deep Norm 思路?

  • [x] 写一下 Deep Norm 代码实现?

  • [x] Layer normalization-方法篇

  • [x] Layer normalization-位置篇

  • [x] Layer normalization 对比篇

答案

在这里插入图片描述

如何学习AI大模型?

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

在这里插入图片描述

第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;

第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

在这里插入图片描述

👉学会后的收获:👈
• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。

在这里插入图片描述

1.AI大模型学习路线图
2.100套AI大模型商业化落地方案
3.100集大模型视频教程
4.200本大模型PDF书籍
5.LLM面试题合集
6.AI产品经理资源合集

👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

在这里插入图片描述

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2194396.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

脉冲神经网络(SNN)论文阅读(六)-----ECCV-2024 脉冲驱动的SNN目标检测框架:SpikeYOLO

原文链接:CSDN-脉冲神经网络(SNN)论文阅读(六)-----ECCV-2024 脉冲驱动的SNN目标检测框架:SpikeYOLO Integer-Valued Training and Spike-Driven Inference Spiking Neural Network for High-performance …

MySQL数据库专栏(二)SQL语句基础操作

目录 数据库操作 创建数据库 查看数据库 选择数据库 删除数据库 数据表操作 数据表数据类型 数据表列约束 数据表索引 创建表 查看表 查看表结构 删除表 数据表的增删改操作 …

自由学习记录

约束的泛型通配符? Java中的泛型 xiaomi和byd都继承了car&#xff0c;但是只是这两个类是car的子类而已&#xff0c;而arraylist<xiaomi> ,arraylist<byd> 两个没有半毛钱继承关系 所以传入的参数整体&#xff0c;是car的list变形&#xff0c;里面的确都能存car…

YOLO11改进 | 卷积模块 | 添加选择性内核SKConv【附完整代码一键运行】

秋招面试专栏推荐 &#xff1a;深度学习算法工程师面试问题总结【百面算法工程师】——点击即可跳转 &#x1f4a1;&#x1f4a1;&#x1f4a1;本专栏所有程序均经过测试&#xff0c;可成功执行&#x1f4a1;&#x1f4a1;&#x1f4a1; 在标准卷积神经网络 (CNN) 中&#xff0…

单调栈day54|42. 接雨水(高频面试题)、84. 柱状图中最大的矩形、两道题思维导图的汇总与对比

单调栈day54|42. 接雨水&#xff08;高频面试题&#xff09;、84. 柱状图中最大的矩形、两道题思维导图的汇总与对比 42. 接雨水84. 柱状图中最大的矩形两道题思维导图的汇总与对比 42. 接雨水 给定 n 个非负整数表示每个宽度为 1 的柱子的高度图&#xff0c;计算按此排列的柱…

2025,企业管理平台的理想模型V0.1

1.前言 近期出于综合考虑&#xff0c;准备休息一段时间......... 在这段时间里&#xff0c;准备重新梳理下企业管理平台应该具备的能力.并准备使用开源项目来一次组合式组装&#xff0c;最终形成一个初步可行的运行平台。 2.企业管理平台的主要组成 企业管理平台不是独立存…

《python语言程序设计》2018版第8章20题使用Rational类编写一个程序(上)-修改一下8-4Rational类我认为的错误

首先抄一下Rational类,可以安静的抄一遍 一、抄写中的问号 各种报错的截图1各种报错的截图2各种报错的截图3各种报错的截图4添加一个str我将n和d修改为self 书中214-215页间程序清单8-4的代码如下: class Rational:def __init__(self, numerator1, denominator0):divisor gcd(…

产品经理内容分享(二):AI产品经理的入门路线图

引言 想象这样一个场景&#xff1a;早晨的阳光穿透窗帘&#xff0c;投射在新一代智能机器人上&#xff0c;它正静静等待着你的第一个命令开始全新的一天。这样的场景听起来像是科幻小说里的情节&#xff0c;但实际上&#xff0c;这正是AI产品经理们工作的成果。如果你对这样的…

使用axios封装AJAX

一 、Http 请求报文 包括了三部分: 求情行、请求头,请求体。 1、请求行: 是HTTP请求的第一行,包含了请求方法、请求目标和HTTP协议版本。常用的请求方法有GET、POST、PUT、DELETE等,用于指定客户端希望服务器执行的操作。请求目标是指请求的资源路径,可以是一个具体的…

国外电商系统开发-运维系统资产属性-命令执行功能

当前开发中&#xff0c;还不支持点击拓扑图标打开资产的功能&#xff0c;后期有时间补全对应的开发。 该功能如同Xshell、SecureCRT、Putty一样&#xff0c;可以批量的发送系统命令&#xff0c;让Linux服务器执行。 默认情况下&#xff0c;系统已经选择全部主机&#xff0c;如果…

番外篇 | CRAS-YOLO:基于卫星图像的多类别船舶检测和分类

前言:Hello大家好,我是小哥谈。目前,基于卫星图像的多类别船舶检测和分类由于在军事和民用领域的重要应用而备受关注。针对传统检测效果不佳的情形,我们进一步提出了一种新的多类船检测,称为CRAS-YOLO,它由卷积块注意力模块(CBAM)、感受野块(RFB)和基于YOLOv5s的自适…

2024计算机毕业设计最简单的完成流程

一、计算机专业毕业设计选题-选题推荐 1.基于深度学习的生活垃圾智能分类系统&#xff08;微信小程序YOLOv5训练数据集开题报告中期检查论文&#xff09; &#xff08;1&#xff09;程序界面 &#xff08;2&#xff09;论文大纲 &#xff08;3&#xff09;论文详情链接 基于…

【高等代数笔记】线性空间(十九-二十四上半部分)

课程视频剪辑得太抽象了&#xff0c;一节课不能完整学完&#xff0c;拆的零零散散得。 3. 线性空间 3.19 满秩矩阵 【推论4】设 rank ( A ) r \text{rank}(\boldsymbol{A})r rank(A)r&#xff0c;则 A \boldsymbol{A} A的不为0的 r r r阶子式所在的列&#xff08;行&#x…

75 华三vlan端口隔离

华三vlan端口隔离 为了实现端口间的二层隔离&#xff0c;可以将不同的端口加入不同的VLAN&#xff0c;但VLAN资源有限。采用端口隔离特性&#xff0c;用户只需要将端口加入到隔离组中&#xff0c;就可以实现隔离组内端口之间二层隔离&#xff0c;而不关心这些端口所属VLAN&…

【每日一题 | 24.10.7】Fizz Buzz 经典问题

1. 题目2. 解题思路3. 代码实现&#xff08;AC_Code&#xff09; 个人主页&#xff1a;C_GUIQU 归属专栏&#xff1a;每日一题 1. 题目 Fizz Buzz 经典问题 2. 解题思路 【法1】逻辑硬解&#xff1a;按照题目逻辑分四种情况&#xff0c;用if else 判断即可。 【法2】switc…

大数据新视界 --大数据大厂之 Ibis:独特架构赋能大数据分析高级抽象层

&#x1f496;&#x1f496;&#x1f496;亲爱的朋友们&#xff0c;热烈欢迎你们来到 青云交的博客&#xff01;能与你们在此邂逅&#xff0c;我满心欢喜&#xff0c;深感无比荣幸。在这个瞬息万变的时代&#xff0c;我们每个人都在苦苦追寻一处能让心灵安然栖息的港湾。而 我的…

【电力系统】基于MATLAB的储能辅助电力系统调峰的容量需求研究

摘要 本研究基于MATLAB仿真平台&#xff0c;探讨了储能系统在电力系统中辅助调峰的容量需求问题。通过对风电、微型燃气机等分布式能源的实际出力曲线与理论输出进行比较分析&#xff0c;我们探讨了在不同负荷条件下储能系统的调峰能力。实验结果表明&#xff0c;储能系统的合…

js逆向--某招标公告公示搜索引擎DES解密

js逆向--某招标公告公示搜索引擎DES解密 一、寻找数据接口二、寻找解密入口三、编写代码一、寻找数据接口 打开网页,在搜索框中输入关键词python。 试图通过按F12或者右键打开开发者工具,发现均没有反应。这时需要点击浏览器右上角的三个点,然后点击更多工具–开发者工具,…

(笔记)第三期书生·浦语大模型实战营(十一卷王场)–书生基础岛第5关---XTuner 微调个人小助手认知

学员闯关手册&#xff1a;https://aicarrier.feishu.cn/wiki/ZcgkwqteZi9s4ZkYr0Gcayg1n1g?open_in_browsertrue 课程视频&#xff1a;https://www.bilibili.com/video/BV1tz421B72y/ 课程文档&#xff1a; https://github.com/InternLM/Tutorial/tree/camp3/docs/L1/XTuner 关…

复现文章:R语言复现文章画图

文章目录 介绍数据和代码图1图2图6附图2附图3附图4附图5附图6 介绍 文章提供画图代码和数据&#xff0c;本文记录 数据和代码 数据可从以下链接下载&#xff08;画图所需要的所有数据&#xff09;&#xff1a; 百度云盘链接: https://pan.baidu.com/s/1peU1f8_TG2kUKXftkpYq…