总目录 大模型安全相关研究:https://blog.csdn.net/WhiffeYF/article/details/142132328
How to Steer LLM Latents for Hallucination Detection?
https://arxiv.org/pdf/2503.01917
https://www.doubao.com/chat/2818934852496130
其它资料:
https://blog.csdn.net/weixin_40240616/article/details/146155278
速览
这篇论文中作者主要做了一项针对大语言模型(LLMs)幻觉检测的研究工作,旨在解决大语言模型在生成内容时出现的幻觉问题。
- 研究背景:大语言模型虽然在自然语言处理方面表现出色,