大模型赋能的模糊测试用例生成技术

随着大模型技术的兴起和发展,软件漏洞模糊测试方法在新技术的赋能下,可以实现更好的代码覆盖率和漏洞发现数量。本次学术报告针对结合大模型实现模糊测试用例生成的方法,介绍了Fuzz4All、FuzzGPT两篇顶会算法,针对大模型在模糊测试领域应用方式,探讨大模型在传统软件安全领域的作用和创新意义。

大模型赋能的模糊测试用例生成技术-张浩然

原创文章,作者:bfs,如若转载,请注明出处:https://www.isclab.org.cn/2024/09/03/%e5%a4%a7%e6%a8%a1%e5%9e%8b%e8%b5%8b%e8%83%bd%e7%9a%84%e6%a8%a1%e7%b3%8a%e6%b5%8b%e8%af%95%e7%94%a8%e4%be%8b%e7%94%9f%e6%88%90%e6%8a%80%e6%9c%af/

(3)
bfsbfs
上一篇 2024年8月28日 上午11:15
下一篇 2024年9月10日 下午6:42

相关推荐

  • 学术论文评审意见生成方法研究

    学术论文投稿数量的不断增长带来巨大审稿压力,而人工智能和大数据的发展为学术论文自动化评审提供了契机。本次学术报告介绍了学术论文评审意见生成的两种最新方法,为减轻审稿人负担、提高评审…

    2025年9月22日
    1.5K
  • 隐私保护的领域自适应迁移学习方法

    本报告讲述了隐私计算技术体系的整体架构及主要理论,给出了迁移学习及领域自适应问题的基本概念,通过详细介绍隐私保护政策下最新的去中心化无监督领域自适应论文以及基于隐私保护的模型联邦个…

    2021年10月11日
    1.9K
  • 深度神经网络模型后门攻击检测

    本报告介绍了深度学习后门攻击及其检测的基本概念、类型划分等背景知识,对2种基于主动策略的后门攻击检测算法进行了具体说明,阐述了对于深度学习后门攻击检测的发展趋势和未来前景。

    2023年11月3日
    2.4K
  • 案件文本分析

    案件文本分析包含多个子任务,比如罪名、刑期、法条裁决、相似案例匹配、Q&A等。人工智能在法律中的应用,其目标是充分提升法治效能,将法律工作者从繁杂的工作中解放出来。本次学术…

    2020年3月29日
    1.9K
  • 对抗性扰动下的后门防御方法

    后门防御旨在使用神经元剪枝、知识蒸馏等手段消除模型中隐藏的后门,阻止攻击者使用触发器样本控制深度学习模型的输出。本次学术报告主要讲解了两种以对抗性扰动和后门攻击关系为基础的后门防御…

    2024年1月17日
    2.2K
  • 基于深度学习的文本分类方法

    在自然语言处理任务中,文本分类旨在将文本文档分类为给定的类别,是一项基础而重要的任务。近年来,深度神经模型由于其表现力和对特征工程的最低要求而在文本分类中越来越受欢迎。然而,将深度…

    2022年3月7日
    1.7K
  • 并查集算法及其在约束传递中的应用

    <img src="https://www.isclab.org.cn/wp-content/uploads/2015/06/41.png" alt=&q…

    2015年6月15日
    1.5K
  • 基于Transformer的时间序列分析

    本次报告主要从Transformer框架入手,介绍基于Transformer模型的时间序列分析方法。针对Transformer模型的位置嵌入、注意力机制、模型架构三个方向在时间序列…

    2023年6月17日
    2.0K
  • 联邦学习的后门攻击方法

    联邦学习在保证数据安全和隐私的情况下解决了数据孤岛和数据碎片化问题,主要分为横向联邦学习、纵向联邦学习和联邦迁移学习。本次学术报告首先介绍联邦学习的历史现状、分类及应用场景,然后通…

    2022年8月30日
    2.4K
  • 缺乏先验知识条件下的模型窃取方法

    随着机器学习的快速发展,图像分类、恶意软件识别等多个领域都通过建立机器学习模型解决相应的问题。但由于一些训练出的模型可能涉及训练数据的隐私信息与模型的商业价值,所以其安全性一直备受…

    2021年4月14日
    1.9K