深度模型可解释方法

      深度模型可解释性一直是业界关注的问题。报告介绍了一种新颖的深度学习可解释性方法——树正则化。通过在深度模型训练过程中,通过树正则化的方法构造模拟决策树实现对神经网络的解释。

附件-深度模型可解释方法-树正则化.pdf

原创文章,作者:admin,如若转载,请注明出处:https://www.isclab.org.cn/2018/03/26/%e6%b7%b1%e5%ba%a6%e6%a8%a1%e5%9e%8b%e5%8f%af%e8%a7%a3%e9%87%8a%e6%96%b9%e6%b3%95/

(1)
adminadmin
上一篇 2018年3月18日
下一篇 2018年4月3日

相关推荐

  • 基于T-Closeness的微聚集数据脱敏算法

    大数据时代的到来,同时也带来了隐私、敏感信息保护方面的棘手难题。数据脱敏措施层出不穷,K-Anonymity,L-Diversity,T-Closeness,以及相结合的微聚集算法…

    2021年4月6日
    2.6K
  • 源代码漏洞检测

    本次学术报告对实验室以往在源代码漏洞检测方向的积累做一个总结,展望未来的发展方向,从技术和应用两个视角审查当前源代码漏洞检测面临的问题。进一步从泛化性、细粒度漏洞检测两个方面进行论…

    2023年5月15日
    2.2K
  • 差分隐私原理及应用

    大数据时代隐私泄露成为了一个严重的问题,大量的个人信息在网上传播。另一方面大数据时代对数据的可用性也有一定的要求。因此当前如何在保障用户的隐私的同时,提供一定的可用性成为一个关键问…

    2020年5月17日
    3.5K
  • 面向深度学习模型的鲁棒性解释方法研究

    深度学习模型的鲁棒性解释方法旨在提升模型在面对输入扰动或对抗攻击时的解释一致性,是增强模型可信性和应用价值的重要研究方向。本次学术报告介绍了该领域的研究背景与发展现状,重点阐述了M…

    2024年12月19日
    1.9K
  • DNN模型水印及其鲁棒性评估

    模型水印技术是一种利用特定信息认证保护模型知识产权的方法。本次报告分析了深度学习领域现有的模型水印嵌入方法,从性能鲁棒性和稳定鲁棒性两方面讲述模型水印鲁棒性评估方法,并以实例分析和…

    2023年11月30日
    2.0K
  • 表格数据生成:GAN模型的演进与未来

    表格数据生成能为深度学习扩充不平衡数据,同时也能避免隐私问题,研究如何生成高保真表格数据具有重要意义。本次报告分析了各个生成模型的优劣,以及GAN在表格数据领域的创新思路。

    2023年8月15日
    2.1K
  • 联邦学习的参数更新方法

    联邦学习在为解决数据交换时的信息隐私安全及数据孤岛问题时被提出,现广泛应用的为横向联邦与纵向联邦,本次学术报告介绍了联邦学习的基本思路,并基于横向联邦说明了两种经典的参数更新和合并…

    2021年10月11日
    2.7K
  • 程序的链接

    本次报告介绍了程序链接过程的基本概念,以及静态链接和动态链接中文件的结构和链接过程。基本概念包括程序构建(Build)过程、链接的历史和链接的作用等。链接的主要工作就是处理各个模块…

    2021年3月15日
    2.3K
  • 强化学生个性的知识追踪

    知识追踪是缓解基础教育普及需求和严重不足的教师数量之间矛盾的一个关键途径。目前,提高知识追踪的个性化水平是研究重点之一。本次报告介绍了两类强化学生个性的知识追踪技术,包括额外个性化…

    2023年12月27日
    1.7K