特征选择方法

      特征选择是指为了构建模型而选择相关特征子集的过程,目的是去除特征中的无关特征和冗余特征,进而达到简化模型,增强可解释性;减轻维度灾难;提高训练效率;改善通用性等效果。本次报告从特征选择基本框架入手,详细介绍了三种常见搜索策略以及过滤、包装、嵌入三种评价方法。

附件-特征选择方法.pdf

原创文章,作者:admin,如若转载,请注明出处:https://www.isclab.org.cn/2018/05/28/%e7%89%b9%e5%be%81%e9%80%89%e6%8b%a9%e6%96%b9%e6%b3%95/

(0)
adminadmin
上一篇 2018年5月21日 上午10:03
下一篇 2018年6月10日 下午8:19

相关推荐

  • 函数级漏洞检测

    本次报告讲述漏洞检测相关基本概念,源码级漏洞检测的一般步骤,主要从关键点选取、代码切片、代码表示等几个方面讲解源码漏洞检测方法,主要针对泛化性、多类型漏洞检测问题进行研究。

    2022年10月30日
    1.2K
  • 大模型赋能的渗透测试技术

    本次报告围绕大模型赋能的渗透测试技术展开,首先阐述了渗透测试的基本概念、研究背景和研究意义,然后介绍了传统自动化渗透测试方法的特点与优劣势,并介绍了大模型赋能的渗透测试方法的研究现…

    2025年5月13日
    1.8K
  • 深度学习系统安全性测试及测试样本优先级排序

    深度学习在近十年取得了长足发展。由于其在复杂领域表现出优异的性能,逐渐被集成到软件体系中形成深度学习系统。这一方面推动了深度学习的发展,另一方面也对深度学习的安全性提出了巨大挑战:…

    2021年11月29日
    2.0K
  • 基于网络一致性的对抗样本检测

    人工智能系统面临着多种安全威胁,其中对抗样本攻击被广泛应用于诸如计算机视觉、自然语言处理、音频处理以及恶意软件检测等多个领域。本文介绍了常见的对抗样本检测方法和原理。特别的,简单分…

    2020年12月20日
    1.6K
  • 图神经网络的反事实解释方法

    图神经网络模型的可解释性对于建立用户与决策模型之间的信任关系至关重要,为了安全、可信地部署图神经网络模型,需要提高图神经网络模型的可解释性和透明性。本次报告为大家介绍图神经网络反事…

    2024年6月3日
    1.2K
  • 特定安全领域中的对抗样本防御方法

    以深度学习为代表的人工智能技术正在悄然改变人们的生产生活方式,但深度学习模型的部署也带来了一定的安全隐患。对抗样本攻击能使深度学习模型系统进行误判,对各个人工智能应用领域造成了严重…

    2021年8月31日
    1.6K
  • 偷走你的训练数据:模型反演攻击方法研究

    通过模型反演攻击方法研究,验证了模型训练数据面临泄露风险的问题,并希望以此促进对应防御手段的发展。本次学术报告介绍了模型反演攻击方法的相关知识,并聚焦于两个经典的白盒和黑盒攻击方法…

    2024年2月27日
    1.7K
  • 深度模型可解释方法

          深度模型可解释性一直是业界关注的问题。报告介绍了一种新颖的深度学习可解释性方法——树正则化。通过在深度模型训…

    学术报告 2018年3月26日
    1.3K
  • DQN深度强化学习算法

    本次学术报告主要给大家详细的介绍DQN算法原理及其调参细节,并且进行举例说明和总结以加深大家的理解。

    2020年5月31日
    1.6K
  • 时序网络嵌入方法介绍

    网络嵌入(Network Embedding)是针对网络中节点进行特征学习的一项新兴的研究任务,它旨在将网络中的节点表示成低维、实值、稠密的向量形式,使得得到的向量形式可以在向量空…

    2020年11月16日
    2.0K