开源模型应用落地-食用指南-以最小成本博最大收获

news2025/3/18 12:19:39

一、背景

    时间飞逝,我首次撰写的“开源大语言模型-实际应用落地”专栏已经完成了一半以上的内容。由衷感谢各位朋友的支持,希望这些内容能给正在学习的朋友们带来一些帮助。

    在这里,我想分享一下创作这个专栏的初心以及如何有效的,循序渐进的学习。

    从事IT行业15年来,从来没有写博客的习惯,但从今年年初开始,突然发现,如今在社会生存的压力是越来越大。每天都要面对各种信息焦虑工作竞争压力高昂的学习成本,以及身体健康的透支。为此,我突发奇想,希望把自己工作实践中的一些经验分享出来,通过这个专栏,向朋友们介绍一些前沿技术的实际应用,比如开源大语言模型的应用场景。希望能让大家更好地了解这些技术在实际工作中的应用价值,帮助大家在学习和工作中增加一些实用的能力。

一)信息焦虑

二)工作竞争压力

三)高昂的学习成本

四)身体健康的透支

    为什么要设置成付费专栏?主要是在信息无限,精力有限的时代,当大家为内容付费之后,就会更加重视这个内容,并希望从中获得相应的收获和回报。毕竟,既然花费了金钱,那么必然就希望能够从中得到一些有价值的东西。


二、学习路线

2.1.探索模型之旅

(一)开源大语言模型探索

  QWen模型试炼

        开源模型应用落地-qwen模型小试-入门篇(一)

            重点:在windows环境下,使用transformer调用Qwen-1_8B-Chat模型

        开源模型应用落地-qwen模型小试-入门篇(二)

           重点:在windows环境下,使用transformer设置模型参数/System Prompt/历史对话

        开源模型应用落地-qwen模型小试-入门篇(三)

            重点:在linux环境下,使用transformer调用Qwen-1_8B-Chat模型

        开源模型应用落地-qwen模型小试-入门篇(四)

            重点:使用gradio,构建Qwen-1_8B-Chat模型的测试界面

        开源模型应用落地-qwen模型小试-入门篇(五)

            重点:使用modelscope api调用Qwen-1_8B-Chat模型,实现非流式/流式输出

        开源模型应用落地-qwen模型小试-调用qwen1.5新模型-进阶篇(六)

            重点:Qwen1.5系列模型的新特性及使用方式

        开源模型应用落地-qwen模型小试-Zero/One/Few Shot-进阶篇(九)

            重点:深入理解Zero/One/Few-Shot,让模型可以更好地处理新任务

        开源模型应用落地-qwen模型小试-function call(十)

            重点:如何使用qwen1.5-7b-chat,正确调用function call

        开源模型应用落地-qwen模型小试-Qwen-Agent(十一)

            重点:在qwen1.5-7b-chat模型下,利用Qwen-Agent构建智能代理,理解和响应用户查询

       开源模型应用落地-模型量化-Qwen1.5-7B-Chat-GPTQ-Int8(一)

            重点:理解GPTQ模型量化技术,以低成本体验大语言模型的魅力

       开源模型应用落地-模型量化-Qwen1.5-7B-Chat-AWQ(二)

            重点:理解AWQ模型量化技术,以低成本体验大语言模型的魅力

        开源模型应用落地-模型量化-AWQ vs GPTQ(三)

            重点:分析GPTQ和AWQ模型量化技术之间的差异

        开源模型应用落地-Qwen1.5-MoE-1/3的激活参数量达到7B模型的性能

            重点:使用Qwen1.5-MoE-A2.7B,体验更快的推理速度

  BaiChuan模型试炼
        开源模型应用落地-baichuan模型小试-入门篇(一)

            重点:在windows环境下,使用transformer调用Baichuan2-7B-Chat模型

        开源模型应用落地-baichuan2模型小试-入门篇(二)

            重点:在windows环境下,使用transformer设置模型参数/System Prompt/历史对话

        开源模型应用落地-baichuan2模型小试-入门篇(三)

            重点:在linux环境下,使用transformer调用Baichuan2-7B-Chat模型

  ChatGLM模型试炼

        开源模型应用落地-chatglm3-6b模型小试-入门篇(一)

            重点:在windows环境下,使用transformer调用chatglm3-6b模型

        开源模型应用落地-chatglm3-6b模型小试-入门篇(二)

            重点:在windows环境下,使用transformer设置模型参数/System Prompt/历史对话

        开源模型应用落地-chatglm3-6b模型小试-入门篇(三)

            重点:在linux环境下,使用transformer调用chatglm3-6b模型

        开源模型应用落地-chatglm3-6b-批量推理-入门篇(四)

            重点:在低成本下,连续批处理提升LLM推理吞吐量,减少延迟

        开源模型应用落地-chatglm3-6b-zero/one/few-shot-入门篇(五)

            重点:在Zero-Shot/One-Shot/Few-Shot场景下,ChatGLM3-6B的推理表现

        开源模型应用落地-chatglm3-6b-function call-入门篇(六)

            重点:在ChatGLM3-6B模型下,实现Function Call

        开源模型应用落地-chatglm3-6b-gradio-入门篇(七)

            重点:使用gradio搭建AI交互界面

        开源模型应用落地-chatglm3-6b-streamlit-入门篇(八)

            重点:使用streamlit搭建AI交互界面

        开源模型应用落地-chatglm3-6b-模型输出违禁词检测(九)

            重点:识别模型输出是否命中违禁词

        开源模型应用落地-chatglm3-6b-集成langchain(十)

            重点:LangChain与ChatGLM3结合,提高对话系统的性能和用户体验

  KnowLM模型试炼

        开源模型应用落地-KnowLM模型小试-入门篇(一)

            重点:调用KnowLM模型,实现知识抽取

        开源模型应用落地-KnowLM模型小试-入门篇(二)

            重点:优化模型参数,提高知识提取效率和质量

CodeQwen模型试炼

        开源模型应用落地-CodeQwen模型小试-小试牛刀(一)

            重点:CodeWen模型初体验,测试生成/修改代码的能力

        开源模型应用落地-CodeQwen模型小试-SQL专家测试(二)

            重点:探索CodeWen模型的SQL能力

        开源模型应用落地-CodeQwen模型小试-探索更多使用场景(三)

            重点:探索CodeWen模型更多的使用场景

        开源模型应用落地-CodeQwen模型小试-集成langchain(四)

            重点:CodeWen模型集成LangChain,提供更便捷的推理方式


(二)开源大语言辅助工具

        开源模型应用落地-Gradio正确集成Fastapi-助力模型交互-入门篇(一)

            重点:正确集成Gradio和Fastapi两大技术框架

        开源模型应用落地-Gradio正确集成Fastapi-助力模型交互-实践篇(二)

            重点:实践qwen1.5-7b-chat模型,同时提供界面交互和接口服务两种能力

        开源模型应用落地-工具使用篇-JMeter(一)

            重点:使用JMeter工具压测AI服务链路,及时发现潜在的性能瓶颈

        开源模型应用落地-工具使用篇-SLB(二)

            重点:引入负载均衡,以提高AI服务的性能和故障转移能力

        开源模型应用落地-工具使用篇-Ollama(六)

            重点:使用Ollama快速集成QWen1.5系列模型

        开源模型应用落地-工具使用篇-Spring AI(七)

            重点:通过Spring AI调用OpenAI及Ollama系列模型

        开源模型应用落地-工具使用篇-Spring AI-Function Call(八)

            重点:通过Spring AI调用OpenAI,并实现function call的高级用法

        开源模型应用落地-工具使用篇-Spring AI-高阶用法(九)

            重点:通过Spring AI调用OpenAI,并实现历史上下文传递及模型参数优化


2.2.实战技能一网打尽

(一)开源大语言模型微调

        开源模型应用落地-qwen-7b-chat-LoRA微调(一)

            重点:使用官方正确方式微调qwen-7b-chat模型

        开源模型应用落地-qwen1.5-7b-chat-LoRA微调(二)

            重点:使用官方正确方式微调qwen1.5-7b-chat模型

        开源模型应用落地-qwen-7b-chat-LoRA微调-Firefly(三)

            重点:使用第三方开源Firefly框架微调qwen-7b-chat模型

        开源模型应用落地-qwen1.5-7b-chat-LoRA微调-Firefly(四)

            重点:使用第三方开源Firefly框架微调qwen1.5-7b-chat模型

        开源模型应用落地-qwen1.5-7b-chat-LoRA微调代码拆解

            重点:深度剖析官方qwen1.5-7b-chat模型微调代码

        开源模型应用落地-qwen模型小试-调用Lora模型-进阶篇(七)

            重点:调用微调后的qwen-7b-chat模型

        开源模型应用落地-qwen模型小试-合并Lora模型-进阶篇(八)

            重点:将qwen-7b-chat基座模型与Lora模型进行合并


(二)开源大语言模型应用框架

        开源模型应用落地-LangChain试炼-Zero/One/Few Shot

            重点:基于LangChain框架,体验Zero/One/Few-Shot的使用

        开源模型应用落地-LangChain高阶-QWen1.5-外部实时数据

             重点:通过LangChain调用外部“心知天气”服务,并将结果返回给QWen1.5模型处理

        开源模型应用落地-LangChain高阶-知识图谱助力记忆增强

            重点:通过知识图谱为模型提供丰富的语义信息和外部记忆支持 

        开源模型应用落地-LangChain高阶-事件回调-合规校验

            重点:通过事件回调机制,实现用户输入和模型输出的合规检测

        开源模型应用落地-LangChain试炼-CPU调用QWen1.5(一)

            重点:基于LangChain框架,通过CPU调用本地qwen1.5-7b-chat模型

        开源模型应用落地-LangChain高阶-GPU调用QWen1.5(二)

            重点:基于LangChain框架,通过GPU调用本地qwen1.5-7b-chat模型

       开源模型应用落地-LangChain高阶-集成vllm-QWen1.5(一)

            重点:LangChain与vllm、QWen1.5模型结合,提高对话系统的性能和用户体验

        开源模型应用落地-LangChain高阶-集成vllm-QWen1.5(二)

            重点:LangChain与vllm、QWen1.5模型结合,提高对话系统的性能和用户体验

        开源模型应用落地-LangChain高阶-集成vllm-QWen1.5-OpenAI-Compatible Server(三)

            重点:LangChain集成vllm,构建与OpenAI-API兼容的API服务

        开源模型应用落地-LangChain高阶-Tools工具-ShellTool(一)

            重点:通过使用LangChain提供的ShellTool工具,让LLM与本地文件系统进行交互

        开源模型应用落地-LangChain高阶-Tools工具-WolframAlpha(二)

            重点:通过使用LangChain提供的WolframAlpha工具,实现在线计算知识引擎和智能搜索。

        开源模型应用落地-LangChain高阶-Tools工具-GoogleSerperAPIWrapper(三)

            重点:通过使用LangChain提供的GoogleSerperAPIWrapper工具,实现在线实时搜索

        开源模型应用落地-LangChain高阶-Tools工具-集成agents(四)

            重点:将代理串联工具,将大语言模型的能力和本地、云服务能力结合

        开源模型应用落地-LangChain高阶-Tools工具-Multi-Agent(五)

            重点:串联多个agents协同合作,高效完成复杂任务

        开源模型应用落地-LangSmith试炼-入门初体验(一)

            重点:使用LangSmith的Trace进行模型的开发和调试

       开源模型应用落地-LangSmith试炼-入门初体验-数据集管理(二)

            重点:使用LangSmith更好地管理数据,提高了数据的组织性和可访问性。


2.3.业务整合落地

(一)开源大语言模型业务实践

        开源模型应用落地-qwen-7b-chat与vllm实现推理加速的正确姿势(一)

            重点:qwen-7b-chat集成vllm

        开源模型应用落地-qwen-7b-chat与vllm实现推理加速的正确姿势(二)

            重点:gunicorn+flask构建AI服务

        开源模型应用落地-qwen-7b-chat与vllm实现推理加速的正确姿势(三)

            重点:supervisor提升服务的稳定性

        开源模型应用落地-qwen-7b-chat与vllm实现推理加速的正确姿势(四)

            重点:鉴权和限流提升AI服务的安全性和稳定性

        开源模型应用落地-qwen-7b-chat与vllm实现推理加速的正确姿势(五)

            重点:定时任务处理隐藏盲点

        开源模型应用落地-qwen-7b-chat与vllm实现推理加速的正确姿势(六)

            重点:改变模型自我认知

        开源模型应用落地-qwen-7b-chat与vllm实现推理加速的正确姿势(七)

            重点:AI服务性能优化

        开源模型应用落地-qwen1.5-7b-chat与vllm实现推理加速的正确姿势(八)

            重点:qwen1.5-7b-chat集成vllm

        开源模型应用落地-qwen1.5-7b-chat与vllm实现推理加速的正确姿势(九)

            重点:qwen1.5-7b-chat集成vllm,构建与OpenAI-API兼容的API服务

        开源模型应用落地-业务整合篇-多种方式调用AI服务(一)

            重点:使用HttpURLConnection/OkHttp/HttpClient多种方式调用AI服务

        开源模型应用落地-业务整合篇-构建WebSocket服务(二)

            重点:使用Netty库快速构建WebSocket服务,实现客户端与AI服务交互

        开源模型应用落地-业务整合篇-Springboot集成Netty(三)

            重点:spring boot集成netty服务,实现用户界面交互

        开源模型应用落地-业务整合篇-构建websocket校验机制(四)

            重点:构建websocket身份校验机制,避免无效连接

        开源模型应用落地-业务整合篇-构建websocket心跳机制(五)

            重点:构建websocket心跳机制,及时释放一些无效的连接

        开源模型应用落地-业务优化篇(一)

            重点:使用线程池提升处理效率

        开源模型应用落地-业务优化篇(二)

            重点:使用Redis队列和分布式锁实现请求排队

        开源模型应用落地-业务优化篇(三)

            重点:使用SLB实现AI服务水平扩容

       开源模型应用落地-业务优化篇(四)

            重点:多级数据缓存概述

        开源模型应用落地-业务优化篇(五)

            重点:使用HanLP进行词性标注,并使用Redis作为一级缓存

        开源模型应用落地-业务优化篇(六)

            重点:使用向量数据库作为二级缓存,来为AI服务减负,提升处理效率

        开源模型应用落地-业务优化篇(七)

            重点:使用RocketMQ提升处理效率

        开源模型应用落地-业务优化篇(八)

            重点:统计问题的请求频次,实现热门问题的实时缓存


(二)开源大语言模型应用合规

        开源模型应用落地-安全合规篇-用户输入合规性检测(一)

            重点:使用DFA算法检测用户输入内容的合法性

        开源模型应用落地-安全合规篇-用户输入合规性检测(二)

            重点:使用腾讯云文本内容安全服务检测用户输入内容的合法性

        开源模型应用落地-安全合规篇-模型输出合规性检测(三)

            重点:使用腾讯云文本内容安全服务检测模型输出内容的合法性


(三)开源大语言模型记忆增强

        开源模型应用落地-工具使用篇-向量数据库(三)

            重点:Milvus Lite向量数据库的基本使用

        开源模型应用落地-工具使用篇-向量数据库进阶(四)

            重点:Milvus Lite向量数据库的进阶使用

        开源模型应用落地-工具使用篇-获取文本向量(五)

            重点:通过GPT和开源模型等方式获取文本向量

        开源模型应用落地-模型记忆增强-概念篇(一)

            重点:理解增强大语言模型的记忆能力的方法

        开源模型应用落地-模型记忆增强-向量数据库准备-实践篇(二)

            重点:实践使用长期记忆模块增强大语言模型的记忆能力

        开源模型应用落地-模型记忆增强-提升向量检索准确率-实践篇(三)

            重点:使用长期记忆模块增强大语言模型的记忆能力,优化向量检索准确率

        开源模型应用落地-模型记忆增强-整合AI服务-QWen1.5-7B-Chat(四)

            重点:业务流程(AI服务)集成长期记忆模块,提升用户对话体验

2.4.知识拓展

        开源模型应用落地-qwen1.5-7b-chat与sglang实现推理加速的正确姿势(一)

            重点:qwen1.5-7b-chat集成sglang,实现5倍加速

        开源模型应用落地-qwen1.5-7b-chat与sglang实现推理加速的正确姿势(二)

            重点:sglang性能优化,让其跑的更快


三、学习收获

  1. 掌握如何使用Transformer库调用业界流行的大语言模型
  2. 掌握大语言模型推理加速的正确方式
  3. 掌握LangChain/LangSmith等应用框架的高阶使用
  4. 掌握如何把大语言模型能力落地于实际业务
  5. 掌握如何做好互联网信息服务深度合成管理规定
  6. 掌握如何提高大语言模型的记忆能力
  7. 掌握如何通过大语言模型构建知识图谱
  8. 掌握如何在昂贵算力面前寻求降本增效方法
  9. 掌握开源大语言模型下Function Call、Agent等使用方式
  10. 掌握Spring AI、Ollama、Netty、HanLP、Redis等综合运用

四、后续

    纸上得来终觉浅,绝知此事要躬行,老铁们不要被当下困境所困扰,用坚韧不拔的精神和勇气开启自己新的辉煌。我会持续更新,把工作中的所思、所想、所得,毫无保留地分享出来,希望能给大家带来一丝帮助。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1694505.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

机器视觉-硬件

机器视觉-硬件 镜头焦距凸透镜焦点不止一个相机镜头由多个镜片组成对焦和变焦 镜头光圈光圈的位置光圈系数F 镜头的景深景深在光路中的几何意义 远心镜头远心镜头的种类远心镜头特性应用场景 镜头的分辨率镜头反差镜头的MTF曲线镜头的靶面尺寸镜头的几何相差相机镜头接口螺纹接…

私域流量的真谛:构建并运营属于你自己的私域生态

大家好,我是来自一家专注于私域电商行业的软件开发公司的产品经理,拥有超过七年的行业经验。今天,我想和大家聊聊私域流量的真正含义,以及为何我们应该关注并努力打造属于自己的私域生态。 什么是私域流量? 私域流量&…

文心大模型4.0创建智能体:资深研发专家一对一辅导

目录 前言 一、什么是文心智能体平台? 1、通过平台能做什么 2、平台的优势 3、智能体类型 二、如何访问和使用这个智能体? 1、零代码开发:一句话创建智能体 2、资深研发专家一对一辅导智能体介绍 总结 前言 在当今快节奏和高度竞争的…

【高时效通路】

一 高时效通路 1.1 pathchdumper 实时数据拉取、实时数据处理、5分钟微批dump来加速时效性,具体来说: 实时数据拉取(Fetcher):基于Databus Fetcher基建,直接对接F0层实时拉取最新数据,保证该…

哥白尼哨兵系列卫星数据不能下载的解决方法

自2023年1月24日起,一个新的哥白尼数据空间生态系统已经启动,为所有哨兵数据(Sentinel-1, Sentinel-2, Sentinel-3 and Sentinel-5P)提供可视化和数据处理,地址为:https://dataspace.copernicus.eu/。详细介…

Linux驱动(2)---Linux内核的组成

1.Linux内核源码目录 arch包含和硬件体系相关结构相关源码,每个平台占用一个目录 block:块设备驱动程序I/O调度 crypto:常用加密和三列算法,还有一些压缩和CRC校验算法。 documentation:内核个部分的通用解释和注释.。 drive…

护眼小贴士:学生如何正确使用台灯?

随着电子设备的普及和长时间的用眼,长时间盯着屏幕或学习,眼睛需要不断调节焦距,导致眼睛肌肉疲劳,进而引发视力下降。这种现象在年轻一代甚至青少年中尤为普遍,这种疲劳状态不仅影响眼睛的舒适度,还会导致…

【Linux】网络层——IP协议

欢迎来到Cefler的博客😁 🕌博客主页:折纸花满衣 🏠个人专栏:Linux 目录 👉🏻IP协议基本概念👉🏻IP的协议头格式👉🏻IP协议的网段划分五类IP地址子…

fastapi中实现多个路由请求

大家伙,我是雄雄,欢迎关注微信公众号:雄雄的小课堂。 前言 最近在写机器人相关的接口,顺手学了学python,发现这是个好东西,写代码效率比java要高很多,比如写个词云呀,写个回调呀&am…

从参数变化解读 MySQL 8.2.0 发版说明

↑ 关注“少安事务所”公众号,欢迎⭐收藏,不错过精彩内容~ 日前,MySQL 8.2.0 创新版本已正式上线,并提供安装包下载,但 docker 镜像尚未更新。 在 MySQL 8.1.0 刚发版时也做过分析,欢迎阅读: 重…

云部署最简单python web

最近在玩云主机,考虑将简单的web应用装上去,通过广域网访问一下,代码很简单,所以新手几乎不会碰到什么问题。 from flask import Flaskapp Flask(__name__)app.route(/) def hello_world():return Hello, World!app.route(/gree…

html通过数据改变,图片跟着改变

改变前 改变后 通过数据来控制样式展示 <template><div>通过num控制图标是否更改{{num}}<div class"box"><!-- 如果num大于1则是另一种&#xff0c;样式&#xff0c;如果小时1&#xff0c;则是另一种样式 --><div class"item&qu…

字节面试:百亿级数据存储,怎么设计?只是分库分表吗?

尼恩&#xff1a;百亿级数据存储架构起源 在40岁老架构师 尼恩的读者交流群(50)中&#xff0c;经常性的指导小伙伴们改造简历。 经过尼恩的改造之后&#xff0c;很多小伙伴拿到了一线互联网企业如得物、阿里、滴滴、极兔、有赞、希音、百度、网易、美团的面试机会&#xff0c…

WGCLOUD可以使用短信告警通知吗

支持的 以下是官网的说明 告警报警配置说明 - WGCLOUD

2024.5.25晚训题解

这套题挺简单的。。。 A题 AC率差不多100% B题 AC率差不多75% C题 AC率也差不多75% D题 AC率 50% E题 AC率 25% 向着top 1%出发 A题题解 Stair, Peak, or Neither? 简单判断题&#xff0c;自己写 #include<bits/stdc.h> using namespace std; int A[5]; int main() {…

增强版 Kimi:AI 驱动的智能创作平台,实现一站式内容生成(图片、PPT、PDF)!

前言 基于扣子 Coze 零代码平台&#xff0c;我们从零到一轻松实现了专属 Bot 机器人的搭建。 AI 大模型&#xff08;LLM&#xff09;、智能体&#xff08;Agent&#xff09;、知识库、向量数据库、知识图谱&#xff0c;RAG&#xff0c;AGI 的不同形态愈发显现&#xff0c;如何…

HarmonyOS鸿蒙应用开发——ArkTS的“内置组件 + 样式 + 循环和条件渲染”

一、内置组件是咩&#xff1f; 学过前端的都知道&#xff0c;一个组件就是由多个组件组成的&#xff0c;一个组件也可以是多个小组件组成的&#xff0c;组件就是一些什么导航栏、底部、按钮......啥的&#xff0c;但是组件分为【自定义组件】跟【内置组件】 【自定义组件】就…

微信小程序毕业设计-智慧旅游平台系统项目开发实战(附源码+演示视频+LW)

大家好&#xff01;我是程序猿老A&#xff0c;感谢您阅读本文&#xff0c;欢迎一键三连哦。 &#x1f49e;当前专栏&#xff1a;微信小程序毕业设计 精彩专栏推荐&#x1f447;&#x1f3fb;&#x1f447;&#x1f3fb;&#x1f447;&#x1f3fb; &#x1f380; Python毕业设计…

【Python】【Scrapy 爬虫】理解HTML和XPath

为了从网页中抽取信息&#xff0c;必须对其结构有更多了解。我们快速浏览HTML、HTML的树状表示&#xff0c;以及在网页上选取信息的一种方式XPath。 HTML、DOM树表示以及XPath 互联网是如何工作的&#xff1f; 当两台电脑需要通信的时候&#xff0c;你必须要连接他们&#xff…

【数据结构与算法篇】二叉树链式结构及实现

【数据结构与算法篇】二叉树链式结构及实现 &#x1f955;个人主页&#xff1a;开敲&#x1f349; &#x1f525;所属专栏&#xff1a;每日刷题&#x1f34d; &#x1f33c;文章目录&#x1f33c; 4. 二叉树链式结构的实现 4.1 前置说明 4.2 二叉树的遍历 4.2.1 前序、中序以及…