机器学习常用的可解释方法

可解释性对于建立用户与决策模型之间的信任关系至关重要,提高机器学习模型的可解释性和透明性是机器学习在现实任务中进一步发展和应用的关键。本次报告带大家了解机器学习常用的可解释方法的基本原理和应用(规则提取、LIME和SHAP)。

机器学习常用的可解释方法-慕星星

原创文章,作者:bfs,如若转载,请注明出处:https://www.isclab.org.cn/2020/10/25/%e6%9c%ba%e5%99%a8%e5%ad%a6%e4%b9%a0%e5%b8%b8%e7%94%a8%e7%9a%84%e5%8f%af%e8%a7%a3%e9%87%8a%e6%96%b9%e6%b3%95/

(0)
bfsbfs
上一篇 2020年10月19日 上午11:20
下一篇 2020年11月2日 上午8:24

相关推荐

  • 网络表示学习

          这次报告讲解了网络表示学习的基本概念,对LINE算法的原理进行了深入讲解,并对网络表示学习算法的应用场景做了…

    2018年9月17日
    1.3K
  • 人工智能模型的公平性测试

    人工智能技术发展迅速,不仅在图像领域,在决策系统等领域也发挥了重要作用。用于模型训练的数据集中含有显示或者隐式的敏感属性(如性别、种族等),模型往往会利用敏感属性的特征做出决策,这…

    2024年9月29日
    1.5K
  • 大模型赋能的模糊测试用例生成技术

    随着大模型技术的兴起和发展,软件漏洞模糊测试方法在新技术的赋能下,可以实现更好的代码覆盖率和漏洞发现数量。本次学术报告针对结合大模型实现模糊测试用例生成的方法,介绍了Fuzz4Al…

    2024年9月3日
    1.7K
  • 深度神经网络鲁棒性评估方法

    深度学习模型具有高度非线性和特征空间抽象等特性,内部决策逻辑难以解释,导致其实际应用严重受限。本次报告从深度神经网络可解释性的基本概念出发,对常见的解释方法进行简介,并介绍了一篇将…

    2023年11月30日
    1.4K
  • 大语言模型调研

    针对大语言模型展开调研,介绍大语言模型发展背景和研究现状,通过讲解LLaMA2模型的预训练和微调步骤,全面讲解大语言模型的训练过程,随后对越狱攻击大语言模型的方法进行研究,通过讲解…

    2024年1月3日
    1.4K
  • 网络表示学习GraphGAN

    网络表示学习(Network Representation Learning),又名网络嵌入(Network Embedding)、图嵌入(Graph Embedding),旨在从…

    2019年11月13日
    1.9K
  • Transformer中的Multi-Head Attention

          注意力(Attention)机制被广泛应用到基于深度学习的自然语言处理(NLP)各个任务中。随着注意力机制的…

    2018年12月17日
    1.6K
  • 词向量计算——word2vec算法理解

    魏超2014.11.2

    2014年11月4日
    1.3K
  • 虚拟化云平台异常行为检测方法

    本报告对虚拟化云平台面临的安全威胁与挑战进行介绍,阐述了可用于云平台虚拟机安全检测的系统数据源,重点介绍了利用系统调用序列、系统运行日志的虚拟机异常检测方法,并且概要性介绍了多种序…

    2022年5月9日
    1.5K
  • 深度学习模型校准技术

    深度学习模型校准技术是模型预测可靠性的重要保障手段之一,其通过正则化或后处理方法调节模型对样本实例上的置信度,使其与预测的真实概率良好匹配。本次报告介绍了深度学习模型校准的基本概念…

    2024年7月2日
    1.6K