缓解多模态大语言模型的幻觉问题

该研究针对多模态大语言模型生成内容与输入信息不符的“幻觉”问题,提出两种缓解方法:OPERA在推理阶段通过惩罚过信任与回溯重分配机制减少幻觉;HACL在训练阶段引入幻觉文本作为困难负样本进行对比学习,提升表示对齐能力。两种方法均显著降低幻觉率,并保持模型性能,为构建更可靠的多模态AI系统提供关键技术路径。

缓解多模态大语言模型的幻觉问题-王旭

原创文章,作者:bfs,如若转载,请注明出处:https://www.isclab.org.cn/2025/12/01/%e7%bc%93%e8%a7%a3%e5%a4%9a%e6%a8%a1%e6%80%81%e5%a4%a7%e8%af%ad%e8%a8%80%e6%a8%a1%e5%9e%8b%e7%9a%84%e5%b9%bb%e8%a7%89%e9%97%ae%e9%a2%98/

(0)
bfsbfs
上一篇 2025年11月25日 下午12:00
下一篇 2025年12月1日 下午1:06

相关推荐

  • 语义级代码克隆检测

    代码克隆(Code Clone),是指存在于代码库中两个及两个以上相同或者相似的源代码片段, 是软件开发中的常见现象。近年来,针对Ⅳ型克隆即语义级克隆的检测技术受到了广泛关注。主要…

    2022年10月11日
    1.5K
  • 面向攻击溯源的日志处理技术

    日志生成的系统溯源图能够记录实体的依赖关系,通过溯源图的后向跟踪和前向跟踪,可实现攻击的溯源。但是随着溯源深度的增加,上下游实体之间的依赖关系呈现指数级爆炸,无法有效溯源。本次学术…

    2022年8月23日
    1.6K
  • 深度学习中的Normalization

    Batch Normalization(BN)自从提出之后,因为效果特别好,很快被作为深度学习的标准工具应用在了各种场合。BN大法虽然好,但是也存在一些局限和问题,诸如当Batch…

    2019年10月29日
    1.3K
  • 智能模型的不确定性估计

    智能模型的不确定性是模型内生脆弱性问题的重要表征之一,反映了模型对输入数据预测结果的可信程度,包含了对数据和模型两方面缺陷的量化估计。本次报告介绍了模型不确定性估计工作基本概念,讲…

    2023年11月6日
    1.1K
  • 组合对抗攻击的自动化搜索方法

    对抗攻击是当下智能系统的新威胁,它使得很多在现实世界中应用的智能系统存在的安全漏洞极大地暴露了出来。近年来,学界提出了多种实现对抗攻击的方法,但是在不知道目标模型的防御细节的情况下…

    2021年5月6日
    1.6K
  • 深度学习优化算法概述

        优化问题是机器学习的核心和本质。在深度学习中,即使有完全相同的数据集和模型框架,使用的优化算法不同,所得到的训练结果也可能不同。深度…

    学术报告 2018年1月22日
    1.2K
  • 文本风格迁移

    风格迁移是将多种类型风格转换成另一风格,是自然语言处理领域的一个重要问题,表征着文本生成和风格控制技术的发展情况,在大数据时代下的隐私保护等方面起着重要作用。本文主要介绍了文本风格…

    2020年11月10日
    1.8K
  • 偷走你的训练数据:模型反演攻击方法研究

    通过模型反演攻击方法研究,验证了模型训练数据面临泄露风险的问题,并希望以此促进对应防御手段的发展。本次学术报告介绍了模型反演攻击方法的相关知识,并聚焦于两个经典的白盒和黑盒攻击方法…

    2024年2月27日
    1.5K
  • 大模型也不安全-小心信息被泄露

    研究大模型隐私泄露攻击,揭示了大模型面临的隐私信息泄露风险。本次学术报告介绍了大模型的应用价值和市场体量,讲述了关于大模型隐私泄露攻击的最新方法,指明了现有的缺陷和未来发展方向。

    2025年8月27日
    1.4K
  • CSRF跨站请求伪造

          CSRF(Cross-site request forgery)全称跨站请求伪造,是利用受害者尚未失效的身份…

    2019年1月7日
    1.2K