人工智能模型的公平性测试

人工智能技术发展迅速,不仅在图像领域,在决策系统等领域也发挥了重要作用。用于模型训练的数据集中含有显示或者隐式的敏感属性(如性别、种族等),模型往往会利用敏感属性的特征做出决策,这将导致人工智能模型在公平性方面出现偏差,产生严重的舆论影响和社会问题,因此需要测试模型的公平性并修复。本次学术报告介绍了人工智能模型公平性的定义和通用的歧视样本生成方法,并聚焦于两个最新的模型公平性修复方法。

网络安全2组-学术报告-人工智能模型的公平性测试-刘洧光-v1.0-2024.09.28

原创文章,作者:bfs,如若转载,请注明出处:https://www.isclab.org.cn/2024/09/29/%e4%ba%ba%e5%b7%a5%e6%99%ba%e8%83%bd%e6%a8%a1%e5%9e%8b%e7%9a%84%e5%85%ac%e5%b9%b3%e6%80%a7%e6%b5%8b%e8%af%95/

(0)
bfsbfs
上一篇 2024年9月23日 下午2:39
下一篇 2024年9月30日 上午11:09

相关推荐

  • XSS跨站脚本攻击

          XSS攻击是客户端脚本安全中的头号大敌,多次位列OWASP TOP 10榜首,严重威胁到web网络安全。XS…

    2018年6月25日
    1.5K
  • 利用图挖掘的内部威胁检测方法

    随着图神经网络的广泛应用,以及越来越多的组织和企业关注内部威胁,利用图挖掘的方法检测内部威胁受到越来越多研究者的重视。本次报告介绍了利用图挖掘内部威胁检测方法的整体架构,以及如何从…

    2022年6月14日
    1.8K
  • 联邦学习的后门防御方法

    本报告介绍了联邦学习领域后门攻击与防御的基本概念、联邦学习的训练流程,分别聚合规则和聚类规则的后门防御算法进行具体说明,阐述了联邦学习领域后门攻击与防御的发展方向及个人思考。

    2023年4月9日
    1.9K
  • 爬虫中的攻与防

    爬虫技术是获取数据的利器,它避免了繁琐又低效的人工数据搜集。爬虫带来获取数据极大便利的同时,也催生了反爬技术的发展。学术报告以反爬措施以及对抗反爬的手段作为议题,详细介绍了5类反爬…

    2020年5月10日
    2.0K
  • 时序知识图谱推理方法

    时序知识图谱推理根据历史时序知识图谱中已知事实,预测查询中缺失的实体或关系,避免知识图谱不完整性对知识驱动系统造成的影响。本次学术报告首先讲解了时序知识图谱推理基本概念,然后详细介…

    2023年9月27日
    1.5K
  • 表格数据隐私保护

    本次报告对表格数据的隐私保护方法展开介绍,介绍了目前常用的表格数据隐私保护方法,重点讲解生成对抗网络的基本原理及其和表格数据隐私保护间关系,详细阐述了经典的利用生成对抗网络生成新表…

    2022年5月25日
    1.2K
  • 代码变更表示学习及其应用研究

    代码变更指对软件源代码的增加,删除,修改。软件项目的代码库可以视为一系列代码变更的有序组合,因此代码变更对理解代码库和分析软件演化过程十分重要。代码变更表示学习旨在将代码变更表示为…

    2023年7月19日
    1.4K
  • 神经网络模型的覆盖测试

    人工智能系统在近年来取得丰硕的成果,其中神经网络在自动驾驶领域等图像处理方向应用较为广泛。但是神经网络存在安全隐患,容易受到攻击导致决策错误,比如对抗样本攻击和后门攻击。如何测试神…

    2022年1月4日
    1.6K
  • 时序知识图谱推理

    着大数据和人工智能技术的飞速发展,知识图谱已成为表示和存储结构化知识的重要工具,其中时序知识图谱则进一步强调了事件随时间演变的重要性。本次学术报告致力于讲解时序知识图谱推理方法,重…

    2024年5月18日
    1.6K