最近私信问我关于入行、转行方面的问题比较多,就专门写一篇讲讲我的理解。
首先说明一下个人的背景和现状,我本人是本科学历,有互联网大厂搜推方向经验,后来跳到中厂继续做推荐,去年开始做大模型。现在是个小组长,做以应用落地为目的的大模型方向工作。有兴趣的可以翻翻我上一篇内容,讲得比较详细。因为人在中厂,分工不像大厂那么细致,所以基本上上下下都摸过,粗肯定是粗,但是可能适合谈谈全流程的认识,现在大模型算法涉及的工作主要分为这几个方向:
1.偏底层的训练和推理框架工作,比如colossal-ai、vm这些,各厂如果自建集群搭建训练推理框架的话也会有一部分工作与之重合
2.预训练;
3. Alignment;
4.应用开发;
上面也就十分粗略的简单做了个划分,其实很多界限并不清晰,只是为了后面叙述有个结构。
底层框架
这一层我是没太接触过的,不过公司内有做这方面的人。以我粗浅的认知,这些人的技术栈和以前搞GPU算子优化、分布式框架的那拨人重合度比较高。不太懂就不多说了。
预训练
在我看来,预训练这块的工作最终肯定是赢家通吃的。现在只是因为大家都还在同一个水平线上,也没有能和开源拉开差距,卖api也卖不了多少,所以看起来竞争还挺激烈。等到决出三六九等之后肯定没有必要存在那么多团队做pretrain。况且即使做pretrain的团队,真正核心在干活的也没几个人。一千张卡可能不够供一个人用,卡就那么多,配用的人也就那么多。剩下的人做的事情我觉得都不是那么有意义,不是说洗数据啥的不重要,重要,但对大多数人来说,对个人价值提升不大。我之前也自己做基于lama的继续pretrain,现在这块工作已经完全放弃了,感觉没啥意义。
再有,所谓垂直领域大模型这个事情我觉得大概率是个伪命题,各方面知识应该是相互促进补充的,遵循奥卡姆剃刀原理我相信最终就是一个模型破一切。
所以我认为虽然现在预训练目前在就业市场上可能还是有比较大的需求量的,但是很多就是纯跟风,迟早得死。对于择业的建议就是:自信自己顶级天赋顶级卷度,势要干翻gpt4的人选这个。
Alignment
我其实觉得sft和强化学习都可以放一起,不知道我这个小标题准不准确。反正都是在基座上进一步提升对话的效果。这块工作其实就开始一定程度接近业务了,比如目前,很多业务团队都会根据下游任务来构造数据进行sft训练。会不会以后基座足够强之后全靠few shot啥的就完全解决问题,这个我不敢猜测。至少在国内,基于开源模型做sft拿到业务上用,应该是挺长一段时间会保持的状态,所以这个方向看起来我觉得是目前市场上需求较大,未来一段时间也还是会持续有比较大需求量的。想训模型的可以选这个方向我觉得挺好。
应用开发
这一块的岗位其实现在大家看到的还不多,主要可能有两个原因吧,第一是openai的接口在国内直接用是有监管问题的。第二是国内开源模型的水平还不行,以及一些相关链路上的工作还没做完(比如functioncalling)。所以时机还不成熟,还不到LLMnative应
用大规模爆发的时候。
但是我觉得毫无疑问这个方向的人才需求以后将远远超出前面几个方向加起来,这就像是你搞安卓系统和
安卓应用开发的对比一样。做操作系统开发才几个人,安卓开发那真是不知道有多少了。
我预计这个时间也不会太长,一两年肯定够了,所以现在找这个方向的机会开始布局也是很不错的。不过先训训模型等真的有机会起来也没问题,毕竟你做应用开发对系统原理了解清楚肯定是优势。
其他
其实除了上面说这些,还存在一些其他的方向,比如类似guidance这样在align模型之后的,和推理框架绑定比较强的组件,我觉得以后应该会融入到推理框架的范围内。
总结
最后简单总结一下,我认为现在总体的行业形势是资本进行了大规模投入,但是基本堆在预训练上,然后这个环节也容纳不了太多人就业,而且暂时也创造不了多少商业价值。所以很有可能一段时间后会有一个下行的阶段,现在做预训练这些创业公司死一批。然后随着应用端的工作越来越多,大家慢慢把投入方向往下移,往应用端发力,这时候会有一些找准机会和方向的公司出来。顺利的话各种LLM native应用就走入千家万户。(就纯粹我自己的想象哈哈哈)
总的来说我认为LLM肯定是一个好的方向,现在进来不管做什么,也算是比较早的了解原理的人,后面做应用应该也会有一些优势。
然后就是这个东西其实没有那么大难度,有的人会鼓吹需要非常高的学历、有多少多少文章xxx才能做,我觉得没啥道理。我前面说了我是本科学历对吧,虽然我这个情况可能确实比较个例,但是如果大家看我之前写的内容就知道,很多工作其实就是在扣细节这个token对不对,训练推理一致了不xxx的。你说需要多强的数学能力啥的我觉得其实没必要。真的搞的时候也都是调库,过程中保持敏感性,细致、观察很重要。当然有很多大佬他们全方位的强,比如我看到guidance、exllama这些一两个人开发的库,作者对数学原理的熟悉、以及极强的工程实现、性能优化能力让人叹为观止,让人心向往之,但是我又不是活不到明年了,也未必就不能至吧。至少试试呗,不行再说嘛。机会留给胆大的人,我是成功了,接下来看你自己了!
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。