大模型也不安全-小心信息被泄露

研究大模型隐私泄露攻击,揭示了大模型面临的隐私信息泄露风险。本次学术报告介绍了大模型的应用价值和市场体量,讲述了关于大模型隐私泄露攻击的最新方法,指明了现有的缺陷和未来发展方向。

大模型也不安全-小心信息被泄露-皮佳伟

原创文章,作者:bfs,如若转载,请注明出处:https://www.isclab.org.cn/2025/08/27/%e5%a4%a7%e6%a8%a1%e5%9e%8b%e4%b9%9f%e4%b8%8d%e5%ae%89%e5%85%a8-%e5%b0%8f%e5%bf%83%e4%bf%a1%e6%81%af%e8%a2%ab%e6%b3%84%e9%9c%b2/

(1)
bfsbfs
上一篇 2025年8月20日
下一篇 2025年9月4日

相关推荐

  • 虚拟化云平台异常行为检测方法

    本报告对虚拟化云平台面临的安全威胁与挑战进行介绍,阐述了可用于云平台虚拟机安全检测的系统数据源,重点介绍了利用系统调用序列、系统运行日志的虚拟机异常检测方法,并且概要性介绍了多种序…

    2022年5月9日
    1.4K
  • 符号执行简介

          符号执行 (Symbolic Execution)是一种程序分析技术。其可以通过分析程序来得到让特…

    2019年1月2日
    1.5K
  • 基于深度学习的源代码漏洞挖掘

    安全漏洞的数量和复杂程度与日俱增,导致漏洞挖掘的成本也在不断升高。而近年对深度学习的研究使得机器具有分析学习能力,如何将深度学习算法应用漏洞挖掘技术成为研究热点。本次报告首先介绍了…

    2020年2月27日
    1.9K
  • 单词级文本对抗攻击

    本报告介绍了单词级文本对抗攻击(Word-Level Attack)的背景和基本原理,展示了在OpenAttack和TextAttack两类开源工具上的测试样例,并分别讲述了基于义…

    2023年5月29日
    1.7K
  • 深度神经网络鲁棒性评估方法

    本报告介绍了深度神经网络鲁棒性评估方法的基本概念和评估方式,并讲述了两种评估方法,分别从定性分析和定量计算两个角度讲述了如何对鲁棒性进行评估,提升对深度神经网络鲁棒性和评估方法的认…

    2023年4月3日
    1.6K
  • 时空数据挖掘

    物联网技术和人工智能的快速发展,含时间、空间特性的数据指数增长。如何进行多源异构时空数据本身特性出发,和机器学习深度学习技术深入融合,实现数据实现知识发现和信息挖掘,服务于城市发展…

    2021年5月18日
    1.5K
  • 面向网络应用程序的模糊测试

    本报告介绍了模糊测试中的基本概念及网络应用程序漏洞挖掘发展历史和类型划分等背景知识,对2种基于覆盖引导的灰盒web模糊测试算法进行了具体说明,阐述了网络应用程序漏洞挖掘的发展趋势和…

    2024年5月31日
    939
  • 组合对抗攻击的自动化搜索方法

    对抗攻击是当下智能系统的新威胁,它使得很多在现实世界中应用的智能系统存在的安全漏洞极大地暴露了出来。近年来,学界提出了多种实现对抗攻击的方法,但是在不知道目标模型的防御细节的情况下…

    2021年5月6日
    1.7K
  • 媒体安全

    走近特定音频识别(之一)——让计算机分辨出“这是什么声音” 走进特定音频识别(之二)——计算机是靠什么来分辨声音种类的? 走进特定音频识别(之三)——检索 Vs 识别 走近特定音频…

    学术报告 2014年10月18日
    1.1K
  • 基于深度学习的文本分类方法

    在自然语言处理任务中,文本分类旨在将文本文档分类为给定的类别,是一项基础而重要的任务。近年来,深度神经模型由于其表现力和对特征工程的最低要求而在文本分类中越来越受欢迎。然而,将深度…

    2022年3月7日
    1.2K