bfs

  • 从生成机制探索机生文本检测新方法

    随着大语言模型生成文本规模持续扩大,跨模型、跨领域场景下的机生文本检测面临泛化性不足的挑战。本次学术报告从文本生成机制出发,系统介绍了基于前文记忆建模与多范围写作策略差异的代表性方法,揭示人类与机器生成文本的本质区别,为提升真实场景下检测鲁棒性与稳定性提供了新思路。

    2026 年 1 月 5 日 34 0
  • 缺失模态的情绪变化识别

    随着多模态情绪识别应用不断发展,真实场景中的模态缺失问题对模型鲁棒性提出了挑战。本次学术报告聚焦缺失模态下的情绪变化识别,介绍了基于单模态专家融合与难度感知课程学习的代表性方法,为提升模型在复杂环境中的稳定性与泛化能力提供了新的思路。

    2025 年 12 月 30 日 105 0
  • 面向联邦基础模型的安全评测与防御方法研究

    聚焦IoRT/IIoT场景下联邦基础模型的安全评测与防御,概述联邦微调范式与隐蔽后门风险;重点介绍SecFFT频域一致性检测机制与长期意图建模相结合实现安全加权聚合,以及FL-IDS融合CGAN数据增强、知识蒸馏与差分隐私的联邦入侵检测框架,为可信联邦模型部署提供支撑。

    2025 年 12 月 22 日 291 0
  • 基于深度学习的NIDS对抗样本检测与防御技术

    随着网络攻击日益复杂化,基于深度学习的入侵检测系统面临严峻的对抗性威胁。本次学术报告聚焦对抗样本的攻防研究,介绍了一种提升模型自身抗攻击能力的防御方法,以及一种能够有效甄别隐蔽对抗样本的检测方法,为构筑下一代鲁棒NIDS奠定了坚实基础。

    2025 年 12 月 15 日 75 0
  • 模型窃取防御:从被动溯源到主动防御

    本次学术报告探讨模型窃取防御方法,重点介绍两种前沿防御方案。ModelShield采用自适应鲁棒水印技术,通过查询响应分布自动注入水印,实现被动溯源与版权验证;QUEEN则基于查询敏感度分析与输出扰动机制,动态反制攻击,实现主动防御。

    2025 年 12 月 8 日 66 0
  • 缓解多模态大语言模型的幻觉问题

    该研究针对多模态大语言模型生成内容与输入信息不符的“幻觉”问题,提出两种缓解方法:OPERA在推理阶段通过惩罚过信任与回溯重分配机制减少幻觉;HACL在训练阶段引入幻觉文本作为困难负样本进行对比学习,提升表示对齐能力。两种方法均显著降低幻觉率,并保持模型性能,为构建更可靠的多模态AI系统提供关键技术路径。

    2025 年 12 月 1 日 206 0
  • 大模型在微调阶段的后门攻击

    随着大语言模型的快速发展与广泛应用,其安全问题日益凸显,后门攻击便是主要威胁之一。本次报告介绍了两种针对大模型微调阶段的后门攻击方法,它们分别通过确定目标生成条件和改变Token,提升攻击的隐蔽性与有效性。

    2025 年 11 月 24 日 150 0
  • 对抗样本攻防的两种奇思妙想

    围绕图像对抗样本攻防这一核心主题,介绍以 Block Shuffle & Rotation(BSR) 为代表的迁移攻击增强策略,以及以 Delta Data Augmentation(DDA)为代表的基于扰动空间的数据增强防御。通过分析其理论动机、核心算法及实验表现,探讨模型注意力一致性、扰动多样性与鲁棒性提升之间的关联。

    2025 年 11 月 17 日 103 0