大模型的参数数量与学习的知识数量之间
大模型的参数数量与学习的知识数量之间呈现非线性、条件依赖的复杂关系,其本质是**「表达能力」与「知识编码效率」的动态博弈**。以下从五个维度拆解核心逻辑:
一、参数是知识的「载体容量」,但非唯一决定因素
- 理论上限:参数数量决定模型能拟合的函数复杂度(VC维),1750亿参数的GPT-3理论上可存储约1.4TB浮点数(假设每个参数32位),但实际知识密度远低于此。
- 隐性知识编码:参数更多存储模式关联而非显性事实。例如,GPT-4的参数不直接存“巴黎是法国首都”,而是通过Transformer权重编码“巴黎→国家→法国”的语言模式(类似大脑突触连接编码经验)。
- 反例:T5-11B通过参数高效微调(Prefix Tuning)在某些任务上超越GPT-3 1750亿(如摘要生成),说明结构设计(如注意力层)比原始参数更影响知识提取效率。