大家好,我是herosunly。985院校硕士毕业,现担任算法研究员一职,热衷于机器学习算法研究与应用。曾获得阿里云天池比赛第一名,CCF比赛第二名,科大讯飞比赛第三名。拥有多项发明专利。对机器学习和深度学习拥有自己独到的见解。曾经辅导过若干个非计算机专业的学生进入到算法行业就业。希望和大家一起成长进步。
本文介绍核心内容为如何从宏观层面构建优秀的大语言模型,希望对学习和使用ChatGPT的同学们有所帮助。
文章目录
- 1. 常见误区
- 2. 两个关键定律
-
- 2.1 定律一
- 2.2 定律二
- 3. 预训练、指令微调和强化学习之间的关系
- 4. 大模型的核心能力
- 5. 如何在指令微调上取得较好的效果
1. 常见误区
最近在和一些初学大语言模型的同学们进行交流,发现他们对大模型理解存在着一些常见误区:
- 模型参数量越大,则模型的效果就会越好。
- 模型微调数据量越大,则模型的效果就会越好。
- 根据国内外的部分报道或者测评结果,则说明现有的某些模型已经接近或者赶超ChatGPT&#x