深度模型可解释方法

      深度模型可解释性一直是业界关注的问题。报告介绍了一种新颖的深度学习可解释性方法——树正则化。通过在深度模型训练过程中,通过树正则化的方法构造模拟决策树实现对神经网络的解释。

附件-深度模型可解释方法-树正则化.pdf

原创文章,作者:admin,如若转载,请注明出处:https://www.isclab.org.cn/2018/03/26/%e6%b7%b1%e5%ba%a6%e6%a8%a1%e5%9e%8b%e5%8f%af%e8%a7%a3%e9%87%8a%e6%96%b9%e6%b3%95/

(1)
adminadmin
上一篇 2018年3月18日
下一篇 2018年4月3日

相关推荐

  • 数据处理:飞一般的感觉

    本次报告介绍了Python中数据读取和处理的优化方法,对比了csv、pkl、feather、json等数据存储格式的读写速度与空间占用,分析了各数据格式的具体应用场景,同时引入混合…

    2022年12月26日
    1.1K
  • 网络表示学习-Deepwalk

          网络表示是衔接网络原始数据和网络应用任务的桥梁。网络表示学习算法负责从网络数据中学习得到网络中每个节点的向量…

    2019年3月18日
    1.3K
  • DNN模型水印及其鲁棒性评估

    模型水印技术是一种利用特定信息认证保护模型知识产权的方法。本次报告分析了深度学习领域现有的模型水印嵌入方法,从性能鲁棒性和稳定鲁棒性两方面讲述模型水印鲁棒性评估方法,并以实例分析和…

    2023年11月30日
    1.3K
  • 大模型也不安全-小心信息被泄露

    研究大模型隐私泄露攻击,揭示了大模型面临的隐私信息泄露风险。本次学术报告介绍了大模型的应用价值和市场体量,讲述了关于大模型隐私泄露攻击的最新方法,指明了现有的缺陷和未来发展方向。

    2025年8月27日
    1.5K
  • 面向网络应用程序的模糊测试

    本报告介绍了模糊测试中的基本概念及网络应用程序漏洞挖掘发展历史和类型划分等背景知识,对2种基于覆盖引导的灰盒web模糊测试算法进行了具体说明,阐述了网络应用程序漏洞挖掘的发展趋势和…

    2024年5月31日
    939
  • 联邦学习的参数更新方法

    联邦学习在为解决数据交换时的信息隐私安全及数据孤岛问题时被提出,现广泛应用的为横向联邦与纵向联邦,本次学术报告介绍了联邦学习的基本思路,并基于横向联邦说明了两种经典的参数更新和合并…

    2021年10月11日
    1.9K
  • 设计模式简介

          需求频繁变化是软件设计的基本特征,提升软件的可复用性、可维护性、可扩展性是软件设计的重要目标。以封装、继承和…

    2019年4月30日
    1.1K
  • Deep Learning Backdoor Attacks Detection

    The susceptibility of deep neural networks to backdoor or trojan attacks has been demonstr…

    2023年6月26日
    1.1K
  • Android第三方库检测

    本次报告主要讲述了Android第三方库检测的相关内容。介绍了第三方库的基本概念和相关研究,解释了第三方库检测的基本方法,详细讲解其中的相似性对比方法,主要针对库检测和库版本识别进…

    2022年11月20日
    1.3K
  • 基于突变的模糊测试

    基于突变的模糊测试对于漏洞检测能力的开发和测试资源的利用较为重要,为了快速、高效地寻找到待测程序中的缺陷,需要提高模糊测试过程的测试效率。本次报告为大家介绍了基于突变的模糊测试的基…

    2024年6月19日
    1.0K