人工智能模型的公平性测试

人工智能技术发展迅速,不仅在图像领域,在决策系统等领域也发挥了重要作用。用于模型训练的数据集中含有显示或者隐式的敏感属性(如性别、种族等),模型往往会利用敏感属性的特征做出决策,这将导致人工智能模型在公平性方面出现偏差,产生严重的舆论影响和社会问题,因此需要测试模型的公平性并修复。本次学术报告介绍了人工智能模型公平性的定义和通用的歧视样本生成方法,并聚焦于两个最新的模型公平性修复方法。

网络安全2组-学术报告-人工智能模型的公平性测试-刘洧光-v1.0-2024.09.28

原创文章,作者:bfs,如若转载,请注明出处:https://www.isclab.org.cn/2024/09/29/%e4%ba%ba%e5%b7%a5%e6%99%ba%e8%83%bd%e6%a8%a1%e5%9e%8b%e7%9a%84%e5%85%ac%e5%b9%b3%e6%80%a7%e6%b5%8b%e8%af%95/

(0)
bfsbfs
上一篇 2024年9月23日 下午2:39
下一篇 2024年9月30日 上午11:09

相关推荐

  • 多元时间序列异常检测方法研究

    异常检测是时间序列分析中必不可少的任务,判断数据是否符合正态数据分布,不符合的部分称为异常。及时发出异常可以使系统维护人员主动进行维护,从而在欺诈检测、入侵检测和能源管理等实际应用…

    2024年12月19日
    2.1K
  • 大模型也不安全-小心信息被泄露

    研究大模型隐私泄露攻击,揭示了大模型面临的隐私信息泄露风险。本次学术报告介绍了大模型的应用价值和市场体量,讲述了关于大模型隐私泄露攻击的最新方法,指明了现有的缺陷和未来发展方向。

    2025年8月27日
    2.4K
  • 贝叶斯网络

    贝叶斯网络又称信度网络,是Bayes方法的扩展,是目前不确定知识表达和推理领域最有效的理论模型之一。从1988年由Pearl提出后,已经成为近几年来研究的热点.。

    2020年6月21日
    2.4K
  • 深度学习模型公平性修复

    深度学习模型具有强大的特征提取能力,在决策领域得到广泛应用,但往往产生不公平的预测结果,造成不良的社会影响,现有的公平性修复方法往往会导致准确率下降。本次学术报告介绍了一种新的深度…

    2025年9月8日
    1.6K
  • 深度神经网络中的对抗样本攻防

          2013年以来深度的神经网络模型在各方面得到了广泛应用,甚至在某些方面达到可以匹配人类的性能,用于“欺骗”神…

    2018年8月1日
    2.0K
  • 序列标注模型

    背景知识 序列标注模型被广泛应用于文本处理相关领域,例如分词、词性标注、命名实体识别等方面。现有的序列标注模型主要有HMM,MEMM 以及 CRF,通过对这几种自然语言处理中常用的…

    2015年2月2日
    2.4K
  • 大规模多标签分类方法

    近年来,随着互联网技术的高速发展和数据规模的快速增长、大数据的应用,多标签分类应用场景越来越多,如电子商务中的商品分类、网页标签、新闻标注、蛋白质功能分类、音乐分类、语义场景分类等…

    2020年12月13日
    3.6K
  • 针对文本嵌入模型的模型反演攻击方法研究

    研究针对文本嵌入模型的模型反演攻击,揭示了自然语言处理领域面临的隐私泄露风险。本次学术报告介绍了关于文本嵌入模型模型反演攻击的最新方法,并指明了现有的缺陷和未来发展方向。

    2024年11月5日
    2.1K
  • 二进制程序中加解密函数的定位

          模糊测试是一种应用广泛的自动化漏洞挖掘方法,但当被测程序使用加密算法处理输入数据时,对输入数据的直接变异并不…

    2018年6月19日
    1.8K
  • 模型窃取防御:从被动溯源到主动防御

    本次学术报告探讨模型窃取防御方法,重点介绍两种前沿防御方案。ModelShield采用自适应鲁棒水印技术,通过查询响应分布自动注入水印,实现被动溯源与版权验证;QUEEN则基于查询…

    2025年12月8日
    2.0K