目录
In-Context Learning(ICL)
混合上下文学习
核心内容
核心创新点的原理与理论
举例说明
In-Context Learning(ICL)
是一种在大语言模型(LLM)中使用的技术,它允许模型通过提供一组输入输出示例(即“demonstrations”)来适应新任务,而无需对模型参数进行显式微调。这种方法使得模型能够根据上下文中的示例信息来推断如何完成新任务。
简单举例说明:
假设我们有一个大语言模型,并且我们想要它学会区分电子邮件是垃圾邮件还是非垃圾邮件。我们可以使用In-Context Learning的方法如下:
-
提供示例:我们首先向模型提供一系列已标记的电子邮件示例,其中一些被标记为“垃圾邮件”,另一些被标记为“非垃圾邮件”。例如:
- 示例1:这封邮件是垃圾邮件,因为它包含“赢取大奖”的字眼。
- 示例2:这封邮件不是垃圾邮件,因为它来自一个可信赖的朋友。
-
模型推