总目录 大模型安全相关研究:https://blog.csdn.net/WhiffeYF/article/details/142132328
How to Steer LLM Latents for Hallucination Detection?
https://arxiv.org/pdf/2503.01917
https://www.doubao.com/chat/2818934852496130
其它资料:
https://blog.csdn.net/weixin_40240616/article/details/146155278
摘要
大语言模型(LLMs)中的幻觉问题对其在现实世界应用中的安全部署构成了重大担忧。最近的一些方法利用大语言模型的潜在空间来检测幻觉,但其嵌入是针对语言连贯性而非事实准确性进行优化的,常常无法清晰地将真实内容和幻觉内容区分开来。为此,