学术报告
-
面向联邦基础模型的安全评测与防御方法研究
聚焦IoRT/IIoT场景下联邦基础模型的安全评测与防御,概述联邦微调范式与隐蔽后门风险;重点介绍SecFFT频域一致性检测机制与长期意图建模相结合实现安全加权聚合,以及FL-IDS融合CGAN数据增强、知识蒸馏与差分隐私的联邦入侵检测框架,为可信联邦模型部署提供支撑。
-
基于深度学习的NIDS对抗样本检测与防御技术
随着网络攻击日益复杂化,基于深度学习的入侵检测系统面临严峻的对抗性威胁。本次学术报告聚焦对抗样本的攻防研究,介绍了一种提升模型自身抗攻击能力的防御方法,以及一种能够有效甄别隐蔽对抗样本的检测方法,为构筑下一代鲁棒NIDS奠定了坚实基础。
-
模型窃取防御:从被动溯源到主动防御
本次学术报告探讨模型窃取防御方法,重点介绍两种前沿防御方案。ModelShield采用自适应鲁棒水印技术,通过查询响应分布自动注入水印,实现被动溯源与版权验证;QUEEN则基于查询敏感度分析与输出扰动机制,动态反制攻击,实现主动防御。
-
缓解多模态大语言模型的幻觉问题
该研究针对多模态大语言模型生成内容与输入信息不符的“幻觉”问题,提出两种缓解方法:OPERA在推理阶段通过惩罚过信任与回溯重分配机制减少幻觉;HACL在训练阶段引入幻觉文本作为困难负样本进行对比学习,提升表示对齐能力。两种方法均显著降低幻觉率,并保持模型性能,为构建更可靠的多模态AI系统提供关键技术路径。
-
大模型在微调阶段的后门攻击
随着大语言模型的快速发展与广泛应用,其安全问题日益凸显,后门攻击便是主要威胁之一。本次报告介绍了两种针对大模型微调阶段的后门攻击方法,它们分别通过确定目标生成条件和改变Token,提升攻击的隐蔽性与有效性。
-
对抗样本攻防的两种奇思妙想
围绕图像对抗样本攻防这一核心主题,介绍以 Block Shuffle & Rotation(BSR) 为代表的迁移攻击增强策略,以及以 Delta Data Augmentation(DDA)为代表的基于扰动空间的数据增强防御。通过分析其理论动机、核心算法及实验表现,探讨模型注意力一致性、扰动多样性与鲁棒性提升之间的关联。
-
基于因果推理的对抗防御方法
基于因果推理的对抗防御方法通过因果干预、特征解耦与不变性学习,识别并强化数据中的因果特征,抑制模型对伪相关与“捷径特征”的依赖,从而在机理上增强模型的泛化能力和抗干扰能力,使其在遭遇对抗性扰动或数据分布偏移时,能表现出更稳定的性能
-
显式周期引导的长时序列预测
该研究提出显式周期引导的长期时间序列预测方法,核心包括Periodformer和CycleNet两种模型。Periodformer通过周期注意力机制显式捕捉长期周期性模式,降低计算复杂度;CycleNet利用可学习循环队列提取全局周期成分,并对残差进行预测。两者均通过显式周期性建模有效提升预测精度与效率,在多项基准测试中表现优异,尤其适用于电力、能源等周期性…
