『2023北京智源大会』开幕式以及基础模型前沿技术论坛

news2024/11/19 13:24:29
『2023北京智源大会』开幕式以及基础模型前沿技术论坛

文章目录

  • 一. 黄铁军丨智源研究院院长
    • 1. 大语言模型
    • 2. 大语言模型评测体系FlagEval
    • 3. 大语言模型生态(软硬件)
    • 4. 三大路线通向 AGI(另外2条路径)
  • 二. Towards Machines that can Learn, Reason, and Plan(杨立昆丨图灵奖得主)
  • 三. 基础大模型——工程化打造Al中的“CPU" | 林咏华 | 智源研究院副院长
  • 四. Build an Al system: Applying Reinforcement learning withhuman feedback (RLHF) on LLM to advance customization
  • 五. 多模态预训练的进展回顾与展望丨中科院自动化所研究员丨刘静
    • 1. 多模态预训练的研究背景一为什么关注?
    • 2. 多模态预训练的研究进展 一 当前怎么做?
    • 3. 多模态预训练的几点思考一以后怎么做?
  • 六. Scaling Large Language Models: From Power Law to Sparsity丨谷歌研究科学家丨周彦祺
    • 1. Moore's Law and Power Law(摩尔定律和幂律)
    • 2. T5: Unified Text-to-Text Transformer T5(统一的文本到文本转换器)
    • 3. Scaling LLM with MoE(使用MoE扩展LLM)
    • 4. Advanced MoE techniques(先进的MoE技术)
    • 5. Q&A(谷歌周彦祺:LLM浪潮中的女性科学家多面手)
  • 参考文章

一. 黄铁军丨智源研究院院长

  • 通用人工智能(AGI)的三条技术路线:信息论模型(目前主流)、具身模型以及自然进化。

在这里插入图片描述

在这里插入图片描述

1. 大语言模型

  • 大模型大该2018年我们就开始了,大模型这个词在国内也是智源2021年首次提出。

在这里插入图片描述

  • 何为大模型?

在这里插入图片描述

  • 智源发布的大模型

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

  • 智源通用分割模型和meta的segment anything同一天发布

在这里插入图片描述
在这里插入图片描述

  • 视频目标分割与追踪:第一帧图像和对应的物体掩码作为上下文示例,自动对后续视频帧进行分割并追踪

在这里插入图片描述

  • 这样一个模型在自动驾驶、机器人等领域发挥基础性的作用

在这里插入图片描述
在这里插入图片描述

  • 零样本的视频编辑:简单 prompt(提示)即可视频编辑,提示需要做什么。

在这里插入图片描述

  • 在此基础上,进一步扩展了一个新模型Emu

在这里插入图片描述
在这里插入图片描述

  • 悟道.天鹰大模型,目前开源的模型参数量7B+33B,后续会陆续更新…

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

  • 前面提及的模型升级

在这里插入图片描述

2. 大语言模型评测体系FlagEval

  • 大语言模型评测体系FlagEval:

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

3. 大语言模型生态(软硬件)

在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

4. 三大路线通向 AGI(另外2条路径)

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

二. Towards Machines that can Learn, Reason, and Plan(杨立昆丨图灵奖得主)

  • 图灵奖得主杨立昆:GPT模式五年就不会有人用了,世界模型才是AGI未来:https://mp.weixin.qq.com/s/a58hZLxo-1Hxlz5KvsJkBw

三. 基础大模型——工程化打造Al中的“CPU" | 林咏华 | 智源研究院副院长

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

  • AI:2023年6月9日北京智源大会演讲分享之基础模型前沿技术论坛—《工程化打造AI中的CPU》、《构建一个AI系统:在LLM上应用带有RLHF来推进定制》、《多模态预训练的进展回顾与展望》:https://blog.csdn.net/qq_41185868/article/details/131137542

四. Build an Al system: Applying Reinforcement learning withhuman feedback (RLHF) on LLM to advance customization

在这里插入图片描述

大语言模型近期取得了极大的突破,受到广泛关注。新的技术进步有效地提高了人们的生产力。然而, 如果我们想进一步提升其价值,还需要在个性化定制大语言模型上发力, 使其更贴切的输出我们想要的内容。我们需要建立这样一个产品:它可以高效地收集专业人士对大语言模型的反馈 (humans-in-the-loop), 利用人类反馈的强化学习(RLHF)技术, 让大语言模型在不同领域变得更专业化。

  • 构建一个人工智能系统:在LLM上应用带有人类反馈的强化学习(RLHF)来推进定制
  • 14:05-14:50—《Build an Al system: Applying Reinforcement learning withhuman feedback (RLHF) on LLM to advance customization构建一个人工智能系统:在LLM上应用带有人类反馈的强化学习(RLHF)来推进定制》:https://blog.csdn.net/qq_41185868/article/details/131137542
  • Building a Real-Time Al System:如何利用大语言模型,人类的反馈信息搭建一个实时的系统?来收集反馈信息,去train更好的model,这是一个很贴近生活的例子
  • 一个客户打电话说,4月份的时候买了1个打印机,然后呢现在降价了,然后这个时候接话员会做两件事情。第一件事,我要调出这个客户的信息,确定他确实在4月份购买了商品。然后我要看这个客户他是一个什么样的客户,他的消费频率是什么?他是不是会员,他每次消费的额度是多少?当我确定这是一个非常高价值的客户,我想让他开心,我像留住他,想让他持续的在这里消费。第二件事这个接听员要去查一下公司内部的政策,那公司的退款政策是什么?可能是60天内降价可以退款,但是60天以后就不可以退款,那结合这2者信息,接线员做出最后的决定,首先先抑后扬,60天退款政策已经过了不能退款,但是你非常的特别,我们为了你愿意更该政策,所以我们决定给你一个代金券,你可以下次使用。
  • 这个情况下,大语言模型会做到什么样的应用呢?首先大语言模型有聆听这段对话,大语言模型语义理解根据交流谈话判断出事退款的想法,同时它又走到database中,查询出客户是1个高质量的客户。结合这两种信息,大语言模型推荐给接话员一个回应,可以给一个代金券供下次使用。接线员采纳了大语言模型的推荐,我不可以退款,但是可以给一个代金券,但是他用一种更愉悦的方式传达出了这份信息,让客户更开心。这个时候大语言模型会在后面收集到了这份信息,然后他学会了下次去训练一个排序模型,我下一次的时候会用这种方式去说,这种方式会让客户更满意,这个时候会进行强化学习,收集这些信息。

在这里插入图片描述

五. 多模态预训练的进展回顾与展望丨中科院自动化所研究员丨刘静

  • 14:50-15:35—多模态预训练的进展回顾与展望刘静:https://blog.csdn.net/qq_41185868/article/details/131137542

在这里插入图片描述

近年来,从预训练模型到预训练大模型,从文本、音频、视觉等单模态大模型,到现在的图文、图文音等多模态预训练大模型,无论在学术界还是企业界预训练模型都得到了广泛关注与爆发式发展。多模态预训练通过联合图文音等多模态内容进行模型学习,其发展在多模态理解、搜索、推荐、问答,语音识别与合成,人机交互等应用领域中具有潜力巨大的市场价值。本报告主要包含三方面内容:分析多模态预训练模型的重要性与必要性;回顾当前多模态预训练的最新研究进展;多模态预训练模型主要应用场景与未来展望。

1. 多模态预训练的研究背景一为什么关注?

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

2. 多模态预训练的研究进展 一 当前怎么做?

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

  • 模型如何迁移适配到下游任务? 这里的研究范式又分为几个阶段,从最早期的Pretraining + Finetune,也就是通过下游任务的小样本全监督的学习,来实现这样一个的全参数的微调。随着模型规模越来越大,比如百亿千亿万亿,那我其实在少量的这样的下游任务数据上,其实经很难全监督的微调了。因此业内大家就想怎么够去更高效,低代价的去微调这样的模型又变为了一个重要的方向,因此业内不断提出包括Prompt-Tuning、Adaptor-Tuning、LORA,希望去实现这种低代价的这样的一种增量式的微调。
  • 希望模型在微调的过程中,既不要忘记它大模垫该具备的能力,同时能够很好的去适配下午任务,从而实现增量的学习。
  • 另外一块,多模态下游任务可想象的空间是非常大的,简单理解下游任务都是生成类和理解类。


在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

3. 多模态预训练的几点思考一以后怎么做?

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

六. Scaling Large Language Models: From Power Law to Sparsity丨谷歌研究科学家丨周彦祺

在这里插入图片描述

深度学习的模型容量和训练时间的加倍均可导致模型质量的线性提升,这个被堪称新摩尔定律的Power Law直接促使了各大科技公司在模型容量和训练时长上的军备竞赛(e.g T5, Megatron, PaLM, GPT, etc.) 该讲座将围绕大语言模型的scaling展开,深入浅出的讨论如何用mixture-of-experts方法在不增加运算量的前提下提高模型的容量,以及如何用AutoML搜索出一款最适配目标硬件的的稀疏模型来。

  • LLM缩放:从幂律到稀疏性

在这里插入图片描述

1. Moore’s Law and Power Law(摩尔定律和幂律)

  • 戈登·摩尔提出,在给定空间中可以装入的晶体管数量每两年翻一番。现在我们正接近摩尔定律的物理极限,因为晶体管的高温使得创建更小的电路成为不可能。当然,芯片的性能不仅受到晶体管的限制,还受到内存带宽(内存墙)等其他原因的限制。

在这里插入图片描述

  • 幂律规则深度学习

在这里插入图片描述

  • 通过统一的文本到文本转换器探索迁移学习的极限

在这里插入图片描述

2. T5: Unified Text-to-Text Transformer T5(统一的文本到文本转换器)

  • 文本到文本的简单运作,将每个问题都定义为以文本作为输入并生成文本作为输出。

在这里插入图片描述

  • C4 Dataset:
  • 从公开可用的Common Crawl获取源数据,这是一个网络爬取的数据集。
  • Common Crawl包含很多嘈杂的“网页提取文本”
  • 数据集在外部是完全可用和可再现的。
  • 应用大量的过滤:
  • 删除不以. , ! " … 结尾的行
  • 删除短行
  • 删除带有不良短语(例如冒犯性词语,“服务条款”,"lorem ipsum"等)的行
  • 在文档之间进行句子级去重复
  • 等等
  • 生成约750 GB的干净英文文本+其他语言中的大量文本。

在这里插入图片描述

  • Experiment实验: 我们选择参数和策略,以尽可能简化流程。

在这里插入图片描述

  • Objective目标

在这里插入图片描述

  • Model Architectures模型架构: 深灰色线表示完全可见掩码,浅灰色线表示因果掩码。

在这里插入图片描述

  • Comparing High Level Approaches for UnsupervisedObjectives对无监督目标的高级方法进行比较

在这里插入图片描述

  • What should you do with 4x compute? 有了4倍的计算能力应该做什么? 更长时间的训练、训练更大的模型和集成都可以提供性能上的正交增强

在这里插入图片描述

  • Scalling Up: 扩展

在这里插入图片描述

  • Hitting and End of Dense Model Scaling:密集模型扩展的极限

在这里插入图片描述

3. Scaling LLM with MoE(使用MoE扩展LLM)

在这里插入图片描述

  • Hitting an End of Dense Model Scaling(达到密集模型扩展的极限)
  • “GLaM: Efficient Scaling of Language Models with Mixture-of-Experts", Nan Du and others, ICML 2022.
  • “GLaM:用混合专家的方式有效扩展语言模型”,Nan Du等人,ICML 2022。

在这里插入图片描述

  • Efficient Scaling of Language Models with MoE(使用MoE进行高效扩展语言模型)
  • 仅解码器
  • ln-context少样本学习
  • 使用GShard Top2路由的稀疏门控网络
  • 总参数量扩展到1.2T,激活参数量为970B

在这里插入图片描述

  • GLaM Model Architecture(GLaM模型架构)
  • 稀疏激活的前馈神经网络
  • GShard Top2门控函数
  • 将密集层与稀疏层交替排列。

在这里插入图片描述

  • Few-shot Results Compared toGPT3(与GPT3相比的少样本结果)
  • 在缩放FLOPs(激活参数)时的NLU和NLG任务的平均少样本性能

在这里插入图片描述
在这里插入图片描述

  • Token-Based MoE hasLimitations…(基于标记的MoE有局限性…)

在这里插入图片描述

  • MoE with Expert Choice Routing(具有专家选择Routing的MoE)
  • 每个专家独立选择前k个标记。
  • 完美的负载均衡
  • 标记可以由可变数量的专家接收。

在这里插入图片描述

  • Expert Choice Gather(专家选择聚合)

在这里插入图片描述

  • Comparison with GLaM 与GLaM的比较
  • 训练效率
  • 达到良好困惑度需要多少步骤?
  • 步骤时间
  • 达到良好困惑度需要多少步骤?
  • EC-CF2的收敛速度比2倍快
  • 每步时间减少20%

在这里插入图片描述

在这里插入图片描述

4. Advanced MoE techniques(先进的MoE技术)

在这里插入图片描述

  • Brainformers: Trading Simplicity for Efficiency Brainformers(以效率换取简单性)
  • 现有的MoE架构在步骤时间上扩展性差。
  • 提出一种非均匀架构,以低秩多专家原语为基础
  • 展示比GLaM更快的训练收敛速度和更快的步骤时间,速度提升5倍

在这里插入图片描述

  • How we derive the model search space?(我们如何得出模型搜索空间?)
  • Transformer是从低秩和多专家派生出来的特殊情况!

在这里插入图片描述

  • Brainformer Search(Brainformer搜索)
  • 基于块的架构搜索空间
  • 计算高效的搜索目标

在这里插入图片描述

  • Training Convergence Comparing to GLaM与GLaM相比的训练收敛速度

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

  • LLM training is expensive…(LLM的训练成本高昂…)

在这里插入图片描述

  • 动机
  • 用例1:时间相关数据集
  • 跟踪语言趋势,保持数据集更新
    ①每隔几个月收集新样本
    ②谷歌搜索、论坛、对话、维基百科、GitHub等等。
  • 在大型数据集上训练耗时资源
  • 在新样本上训练将更加廉价
  • 用例2:通用预训练数据集->用于对话的数据集
  • 需要在针对目标领域的新数据混合中进行微调,比如聊天机器人。
  • 会出现遗忘现象。

在这里插入图片描述

  • Forgetting遗忘
  • 原始数据集的分布:A
  • 新样本的分布:B
  • 分布从A到B发生变化
  • A和B上的性能都很重要!
  • 构建通用模型是趋势。
  • “遗忘问题”:如果我们只在B上进行训练,A上的性能会下降,假设:新数据按序列进入,我们可能无法“访问”旧数据。

在这里插入图片描述

  • Lifelong Language Pretraining with Distribution-specialized Experts使用专门化分布的专家进行终身语言预训练
  • 基于分布的MoE
  • 逐渐增加更多专家以适应新数据分布
  • 添加正则化以减轻遗忘。

在这里插入图片描述

  • 分布A → B=c
  • 在Tarzan上进行模拟:“A”= 维基/网络,“B”= 非英语,“C”= 对话
  • “正则化”
  • 我们不希望模型过度拟合B
  • 我们不希望模型权重过于偏离A
  • 在适应B的同时对模型进行正则化
  • “扩展”
  • 允许模型在适应新分布时扩展(专家)层

在这里插入图片描述

  • Lifelong Pretraining on MoE:Expansion+Regularization(MoE上的终身预训练:扩展+正则化)
  • 为新分布扩展专家
  • 部分冻结旧的专家/门控
  • 使用“无遗忘学习”(LwF)损失进行训练

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

  • Final Thoughts & QA(最后的思考和问答)
  • 持续扩展密集LLM已经达到了极限。
  • MoE变得对进一步推进LLM扩展至关重要。
  • 我们需要更好的MoE架构,以及训练策略。①非均匀架构;②终身学习

在这里插入图片描述

5. Q&A(谷歌周彦祺:LLM浪潮中的女性科学家多面手)

  • 谷歌周彦祺:LLM浪潮中的女性科学家多面手: https://new.qq.com/rain/a/20230529A07QOQ00

参考文章

  • 北京智源大会:https://2023.baai.ac.cn/schedule

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/653982.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

UE4/5样条线学习(四):样条线的创建和自然摆动

这一次我们创建一个actor蓝图,不过我们这次并不需要在一开始就创建样条线组件,而是在游戏中根据两个点去创建样条线,然后用时间轴根据样条线带动物品旋转位移。 制作: 组件部分: 第一步,创建一个actor蓝图…

CSDN铁粉增长秘籍

🎈个人主页:🎈 :✨✨✨初阶牛✨✨✨ 🐻推荐专栏1: 🍔🍟🌯C语言初阶 🐻推荐专栏2: 🍔🍟🌯C语言进阶 🔑个人信条: 🌵知行合一 &#x1f…

【Jmeter】在进行综合场景压测时,由于不同的请求,要求所占比例不同,那如何实现呢?

在进行综合场景压测时,由于不同的请求,要求所占比例不同,那如何实现呢? 有人说将这些请求分别放到单独的线程组下,然后将线程组的线程数按照比例进行配置,这种方法不是很好,想想,不…

【计算机网络自顶向下】如何学好计网-第二章应用层

第二章 应用层 应用层协议原理 网络应用程序体系结构 客户机/服务器体系结构:至少有一个服务器,一个客户机,其中服务器总是打开的,具有固定的众所周知的IP地址,主机群集常被用于创建强大的虚拟服务器,而客…

OpenCV 笔记_1

笔记_1 文章目录 笔记_1Mat类数据类型读取Mat类支持的运算图像读取,显示,保存imread 图像读取namedWindow 创建要显示的窗口imshow 窗口显示imwrite 图像保存 视频加载与摄像头的使用VideoCapture 加载视频或摄像头get 获取属性VideoWriter 保存视频 图像…

vue 生命周期

人的-生命周期 一组件从 创建 到 销毁 的整个过程就是生命周期 Vue_生命周期 1. 钩子函数 Vue 框架内置函数,随着组件的生命周期阶段,自动执行 作用: 特定的时间点,执行特定的操作 场景: 组件创建完毕后,可以在created 生命周期…

实际项目中使用gorm-gen来生成实体类

一、为什么要使用gorm-gen来生成实体类和查询 1、根据gorm官网地址,正常的写法是先写数据模型,然后由数据模型自动同步生成到数据库中,但是这样的工作量会比较大,对于写后端的人来说都熟悉sql语句,正常来说都是先自己手动创建表,利用工具将表字段同步到项目实体类中…

java商业销售分析系统Myeclipse开发mysql数据库web结构jsp编程计算机网页项目

一、源码特点 java 商业销售分析系统是一套完善的java web信息管理系统,对理解JSP java编程开发语言有帮助,系统具有完整的源代码和数据库,系统主要采用B/S模式开发。开发环境为TOMCAT7.0,Myeclipse8.5开发,数据库为Mysql5.0&…

电脑重装系统后需要更新哪些驱动

在电脑重装系统后,由于系统的重置,您需要重新安装和更新一些关键的驱动程序,以确保硬件设备正常工作和性能最佳化。以下是在电脑重装系统后需要更新的一些常见驱动程序。 工具/原料: 系统版本:win10系统 品牌型号&…

TOGAF10®标准中文版-(介绍和核心概念)摘要

第1章:简介 TOGAF标准是企业架构的框架。任何希望开发企业架构以在该组织内使用的组织都可以免费使用它(见第1.3.1节)。 TOGAF标准由The Open Group成员在架构论坛内开发和维护(请参阅www.opengroup.org/Architecture&#xff0…

java8 (jdk 1.8) 新特性——Lambda 以及函数式接口

1. 什么是lambda? 目前已知的是,有个箭头 -> 说一大段官方话,也没有任何意义 我们直接看代码: 之前我们创建线程是这样的 Runnable runnable new Runnable() {Overridepublic void run() {System.out.println("run。。。。。。…

阿里云服务器的网络性能如何?有多快?是否适合高流量应用?

阿里云服务器的网络性能如何?有多快?是否适合高流量应用?   [本文由阿里云代理商[聚搜云www.4526.cn]撰写]    阿里云服务器网络性能简介   阿里云服务器(ECS)在网络性能方面表现卓越,可满足用户对高…

通过环路分析仪得到系统的闭环传递函数方法(Matlab System Identification)

目录 前言 环路分析仪数据整理 Matlab导入环路分析仪的数据 System Identification使用 闭环传递函数导出 总结 前言 之前开发的时候通过Matlab的环路设计工具实现了控制系统的补偿器参数整定,然后在系统硬件上面进行了验证,设计带宽和环路分析仪的…

基于Java实验中心管理系统设计实现(源码+lw+部署文档+讲解等)

博主介绍: ✌全网粉丝30W,csdn特邀作者、博客专家、CSDN新星计划导师、java领域优质创作者,博客之星、掘金/华为云/阿里云/InfoQ等平台优质作者、专注于Java技术领域和毕业项目实战 ✌ 🍅 文末获取源码联系 🍅 👇🏻 精…

排序算法:插入排序(直接插入排序、希尔排序)

朋友们、伙计们,我们又见面了,本期来给大家解读一下有关排序算法的相关知识点,如果看完之后对你有一定的启发,那么请留下你的三连,祝大家心想事成! C 语 言 专 栏:C语言:从入门到精通…

CQ 社区版 v2.1.0 发布 | 新增数据发布变更、内置脱敏规则等功能

Hello,社区的小伙伴们,又到了每月版本发布时间。🎉🎉🎉 本次社区版更新带来了新功能 「发布变更」,以及内置脱敏规则、授权粒度细化、连接池管理、变更链接密钥等,信息量不少,一起来…

在生信中利用Chat GPT/GPT4

论文链接Ten Quick Tips for Harnessing the Power of ChatGPT/GPT-4 in Computational Biology | Papers With Code 之前在paper with code上比较火的一篇文章,最近要给生科的学长学姐们个分享所以把这个翻了翻,原文自认为废话比较多,于是选…

基于Java物流管理系统设计实现(源码+lw+部署文档+讲解等)

博主介绍: ✌全网粉丝30W,csdn特邀作者、博客专家、CSDN新星计划导师、java领域优质创作者,博客之星、掘金/华为云/阿里云/InfoQ等平台优质作者、专注于Java技术领域和毕业项目实战 ✌ 🍅 文末获取源码联系 🍅 👇🏻 精…

【图书推荐 | 14】后端系列

【赠书活动第十四期 】 图书推荐 本期书籍:后端系列 图书列表 本期图书列表: Spring Cloud 微服务快速上手项目驱动零起点学JavaNode.js 从基础到项目实战Diango Web 开发实例精解Flask Web 全栈开发实战精通Hadoopsmysql 数据库基础与实战应用Neo4j 图谱…

ChatGLM-6B云服务器部署教程

目录 一、准备服务器1.购买服务器2.开机进入终端3.进入终端 二、部署ChatGLM1.执行命令2.本地代理访问地址2.1 结果如下2.2 api接口一样操作 三、Fastapi流式接口1.api_fast.py1.2 将api_fast.py上传到服务器 2.准备插件3.访问地址 博客园地址:https://www.cnblogs.…