人工智能技术发展迅速,不仅在图像领域,在决策系统等领域也发挥了重要作用。用于模型训练的数据集中含有显示或者隐式的敏感属性(如性别、种族等),模型往往会利用敏感属性的特征做出决策,这将导致人工智能模型在公平性方面出现偏差,产生严重的舆论影响和社会问题,因此需要测试模型的公平性并修复。本次学术报告介绍了人工智能模型公平性的定义和通用的歧视样本生成方法,并聚焦于两个最新的模型公平性修复方法。
网络安全2组-学术报告-人工智能模型的公平性测试-刘洧光-v1.0-2024.09.28原创文章,作者:BFS,如若转载,请注明出处:https://www.isclab.org.cn/2024/09/29/%e4%ba%ba%e5%b7%a5%e6%99%ba%e8%83%bd%e6%a8%a1%e5%9e%8b%e7%9a%84%e5%85%ac%e5%b9%b3%e6%80%a7%e6%b5%8b%e8%af%95/