大模型也不安全-小心信息被泄露

研究大模型隐私泄露攻击,揭示了大模型面临的隐私信息泄露风险。本次学术报告介绍了大模型的应用价值和市场体量,讲述了关于大模型隐私泄露攻击的最新方法,指明了现有的缺陷和未来发展方向。

大模型也不安全-小心信息被泄露-皮佳伟

原创文章,作者:bfs,如若转载,请注明出处:https://www.isclab.org.cn/2025/08/27/%e5%a4%a7%e6%a8%a1%e5%9e%8b%e4%b9%9f%e4%b8%8d%e5%ae%89%e5%85%a8-%e5%b0%8f%e5%bf%83%e4%bf%a1%e6%81%af%e8%a2%ab%e6%b3%84%e9%9c%b2/

(1)
bfsbfs
上一篇 2025年8月20日
下一篇 2025年9月4日

相关推荐

  • Sandworm Attack小结

    这个漏洞网上的各种中英文分析已经很多了,因此这里我只根据自己的情况做一个小的整理和总结,并将参考的各种相关资料贴上来大家交流学习。   1. CVE-2014-4114 …

    2015年1月28日
    1.8K
  • 文本生成大模型后门攻击研究

    研究文本生成大模型的后门攻击,揭示了现有文本大模型的后门风险。本次学术报告详细介绍了现有文本生成模型的后门分类方法以及基准数据集,在文本大模型的多个下游任务实现了后门攻击,并总结了…

    2025年3月24日
    2.1K
  • 神经网络模型的覆盖测试

    人工智能系统在近年来取得丰硕的成果,其中神经网络在自动驾驶领域等图像处理方向应用较为广泛。但是神经网络存在安全隐患,容易受到攻击导致决策错误,比如对抗样本攻击和后门攻击。如何测试神…

    2022年1月4日
    1.9K
  • 深度神经网络模型窃取防御方法

    模型窃取防御技术能够促进深度神经网络的健康发展,推动数据交流与共享。本次报告从大范围的模型窃取防御领域,聚焦到一类算法,从数学公式上对算法进行详细的分析,并对实验结果进行详细解读,…

    2023年9月27日
    1.9K
  • 认知扭曲识别研究

    认知扭曲是认知行为治疗中的核心概念,与抑郁、焦虑等心理障碍的形成和维持密切相关,但现有很多研究主要关注情绪倾向或表层语义,难以刻画个体更深层的思维偏差与认知模式,同时认知扭曲往往存…

    2026年4月8日
    221
  • 学术论文评审意见生成方法研究

    学术论文投稿数量的不断增长带来巨大审稿压力,而人工智能和大数据的发展为学术论文自动化评审提供了契机。本次学术报告介绍了学术论文评审意见生成的两种最新方法,为减轻审稿人负担、提高评审…

    2025年9月22日
    1.5K
  • http协议概览

    HTTP 协议本身并不复杂,理解起来也不会花费太多学习成本,但很多前端工程师常常忽视了 HTTP 协议这部分基础内容。实际上,如果想要在专业技术道路上走得更坚实,绝对不能绕开学习 …

    2020年4月25日
    1.9K
  • 数据挖掘中的数据清洗方法

          数据清洗是数据挖掘工作中很重要的一部分工作,目的是解决数据的质量问题,将“脏”数据变成标准的、干净的数据,更…

    2018年5月14日
    2.1K
  • DQN深度强化学习算法

    本次学术报告主要给大家详细的介绍DQN算法原理及其调参细节,并且进行举例说明和总结以加深大家的理解。

    2020年5月31日
    2.0K
  • 提示词怎么在别人兜里:提示词窃取攻击

    研究提示词窃取攻击,揭示了提示词面临的泄露风险。本次学术报告介绍了提示词的应用价值和市场体量,讲述了关于提示词窃取攻击的最新方法,指明了现有的缺陷和未来发展方向。

    2025年3月17日
    2.1K