在自然语言处理领域,大型语言模型(LLMs)的发展迅速,已经在多个领域取得了显著的进展。不过,随着模型的复杂性增加,如何准确评估它们的输出就变得至关重要。传统上,我们依赖人类来进行评估,但这种方式既耗时又难以规模化,无法跟上模型快速发展的步伐。
为了改变这种现状,Salesforce AI 研究团队推出了 SFR-Judge,这是一个由三个大型语言模型组成的评估家族。这些模型分别拥有80亿、120亿和700亿个参数,基于 Meta Llama3和 Mistral NeMO 构建。SFR-Judge 能够执行多种评估任务,包括成对比较、单一评分和二分类评估,旨在帮助研究团队快速高效地评估新模型的表现。
传统的 LLM 评估模型往往存在一些偏差问题,比如位置偏差和长度偏差,这会影响它们的判断。为了克服这些问题,SFR-Judge 采用了直接偏好优化(DPO)训练方法,让模型从正负例中学习,从而提升其评估任务的理解能力,减少偏差,确保判断的一致性。
在测试中,SFR-Judge 在13个基准测试上表现优异,超过了许多现有的评估模型,包括一些私有模型。特别是在 RewardBench 排行榜上,SFR-Judge 的准确率达到了92.7%,这是生成型评估模型首次和第二次超越90% 的门槛,展现出其在评估模型中的卓越表现。
SFR-Judge 的训练方法涵盖三种不同的数据格式。首先是 “思维链批评”,帮助模型生成对评估响应的结构化分析。其次是 “标准评判”,简化评估过程,直接反馈响应是否符合标准。最后,“响应推导” 则帮助模型理解高质量回应的特征,强化其判断能力。这三种数据格式的结合,使得 SFR-Judge 的评估能力得到了极大提升。
经过大量实验,SFR-Judge 模型在减少偏差方面表现显著优于其他模型。在 EvalBiasBench 基准测试中,它们展现了高度的成对顺序一致性,这表明即便响应顺序发生变化,模型的判断依然保持稳定。这使得 SFR-Judge 成为一种可靠的自动化评估解决方案,减少了对人工标注的依赖,为模型评估提供了更可扩展的选择。
论文入口:https://arxiv.org/abs/2409.14664