大模型也不安全-小心信息被泄露

研究大模型隐私泄露攻击,揭示了大模型面临的隐私信息泄露风险。本次学术报告介绍了大模型的应用价值和市场体量,讲述了关于大模型隐私泄露攻击的最新方法,指明了现有的缺陷和未来发展方向。

大模型也不安全-小心信息被泄露-皮佳伟

原创文章,作者:bfs,如若转载,请注明出处:https://www.isclab.org.cn/2025/08/27/%e5%a4%a7%e6%a8%a1%e5%9e%8b%e4%b9%9f%e4%b8%8d%e5%ae%89%e5%85%a8-%e5%b0%8f%e5%bf%83%e4%bf%a1%e6%81%af%e8%a2%ab%e6%b3%84%e9%9c%b2/

(1)
bfsbfs
上一篇 2025年8月20日
下一篇 2025年9月4日

相关推荐

  • Android APP共享库加固

        学术报告介绍了一种基于init节区的安卓共享库加固方式、一些防逆向工具和反调试的方法以及解释执行保护共享库的内容。 附件-Andro…

    学术报告 2017年12月11日
    1.1K
  • 语义级代码克隆检测

    代码克隆(Code Clone),是指存在于代码库中两个及两个以上相同或者相似的源代码片段, 是软件开发中的常见现象。近年来,针对Ⅳ型克隆即语义级克隆的检测技术受到了广泛关注。主要…

    2022年10月11日
    1.5K
  • 开放式信息抽取技术

    本报告介绍了开放式信息抽取(OIE)的基本概念,展示了Neural OIE的两大类方法原理,并分别讲述了基于Transformer的Nerual OIE技术和利用Meta-Lear…

    2023年5月4日
    1.3K
  • 面向生成模型的模型窃取方法

    针对判别模型窃取及防御方法的研究日趋成熟,近期的研究表明,生成模型同样面临模型窃取威胁。本次学术报告重点介绍了关于生成模型的窃取方法的原理,以及其与判别模型窃取方法、评价指标的区别…

    2022年7月19日
    1.4K
  • 在线集成学习

          本次学术报告介绍了集成学习和在线学习基本思想,对离线bagging(装袋)和离线boosting(提升)的基…

    2019年7月1日
    1.6K
  • Boosting Methods

      集成学习是机器学习领域中提升单一模型学习效果的典型方法,而Boosting则是集成学习中常用且效果良好的算法之一。通过将Weak learner巧妙地组合成Strong lea…

    学术报告 2017年9月14日
    1.1K
  • 小样本命名实体识别

    在很多场景下,收集大量的有标签的数据是非常昂贵、困难、甚至不可能。因此在特定领域、小语种等缺乏标注资源的情况下,NER 任务往往得不到有效解决。为了解决少量标注数据的命名实体识别,…

    2023年8月30日
    987
  • 大模型指导的内核模糊测试

    本报告阐述了大模型在内核模糊测试中的应用,介绍了 KernelGPT 和 ECG 两种技术。KernelGPT 自动推断系统调用规范,显著提升漏洞发现效率;ECG 结合静态分析与大…

    2025年6月23日
    1.1K
  • 面向NIDS的流量对抗样本检测

    在AI攻击复杂性和密集性不断提升的大背景下,ML-NIIDS面临巨大挑战,其中流量对抗样本严重威胁其安全稳定。本次报告从NIDS的迭代发展,聚焦到对抗性安全威胁,再引出主流流量对抗…

    2023年10月23日
    1.2K
  • 基于大语言模型的事件根因分析

    主要探讨基于大语言模型的事件根因分析。阐述其研究背景、意义,涉及 RCACopilot 和 RCAgent 算法,包含数据收集、处理、输出,以及算法的具体流程等。通过实验对比展示其…

    2024年11月27日
    1.2K