当前位置:首页 > 报告详情

基于逻辑闭环检验的大型视觉语言模型幻觉缓解.pdf

上传人: 哆哆 编号:186286 2024-11-01 20页 4.74MB

word格式文档无特别注明外均可编辑修改,预览文件经过压缩,下载原文更清晰!
三个皮匠报告文库所有资源均是客户上传分享,仅供网友学习交流,未经上传用户书面授权,请勿作商用。
本文主要探讨了大型视觉语言模型(LVLM)中产生的对象幻觉问题,并提出了一个名为LogicCheckGPT的方法来检测和减轻这些幻觉。文章指出,现有的LVLM模型容易生成幻觉对象,这严重影响了其输出内容的安全性和可信度。研究团队通过质疑模型在逻辑循环中的行为,揭示了LVLM所封装的幻觉本质。LogicCheckGPT通过对象提取、对象-属性询问、属性-对象询问和逻辑闭环检查等步骤,实现了幻觉的检测和减轻。实验结果显示,LogicCheckGPT在“是”或“否”数据集(POPE,MME)上取得了主要成果,并在开放性评估中也有良好表现。此外,文章还进行了自由检查、无AOP和无LCL等变体的实验,以及超参数分析,进一步验证了方法的有效性。
"LVLMs如何生成幻觉对象?" "LogicCheckGPT方法如何检测和缓解LVLM幻觉?" "如何构建健壮的指令数据集以改善LVLM的行为?"
客服
商务合作
小程序
服务号
折叠