对抗环境强化学习

强化学习(Reinforcement learning ,RL )是机器学习领域之一,研究如何通过一系列的顺序决策来达成一个特定目标。本次报告从强化学习的基本框架开始,介绍了强化学习的基本思想;介绍了强化学习算法的三种主要类型:基于策略梯度(Policy Based)、基于值函数(Value Based)和基于模型(Model Based)的算法,并对其中基于值函数的一种经典算法Q-Learning的基本原理进行了详细说明;最后,介绍了一种对抗环境强化学习的算法。

2组-学术报告PPT-对抗环境强化学习-王逸洲-2019.12.08

原创文章,作者:admin,如若转载,请注明出处:https://www.isclab.org.cn/2019/12/17/%e5%af%b9%e6%8a%97%e7%8e%af%e5%a2%83%e5%bc%ba%e5%8c%96%e5%ad%a6%e4%b9%a0/

(0)
adminadmin
上一篇 2019年11月14日 下午2:47
下一篇 2019年12月18日 下午12:02

相关推荐

  • 面向深度学习模型的鲁棒性解释方法研究

    深度学习模型的鲁棒性解释方法旨在提升模型在面对输入扰动或对抗攻击时的解释一致性,是增强模型可信性和应用价值的重要研究方向。本次学术报告介绍了该领域的研究背景与发展现状,重点阐述了M…

    2024年12月19日
    1.2K
  • 深度神经网络模型窃取防御方法

    模型窃取防御技术能够促进深度神经网络的健康发展,推动数据交流与共享。本次报告从大范围的模型窃取防御领域,聚焦到一类算法,从数学公式上对算法进行详细的分析,并对实验结果进行详细解读,…

    2023年9月27日
    1.4K
  • 大规模多标签分类方法

    近年来,随着互联网技术的高速发展和数据规模的快速增长、大数据的应用,多标签分类应用场景越来越多,如电子商务中的商品分类、网页标签、新闻标注、蛋白质功能分类、音乐分类、语义场景分类等…

    2020年12月13日
    2.9K
  • 偷走你的训练数据:模型反演攻击方法研究

    通过模型反演攻击方法研究,验证了模型训练数据面临泄露风险的问题,并希望以此促进对应防御手段的发展。本次学术报告介绍了模型反演攻击方法的相关知识,并聚焦于两个经典的白盒和黑盒攻击方法…

    2024年2月27日
    1.7K
  • 缓解多模态大语言模型的幻觉问题

    该研究针对多模态大语言模型生成内容与输入信息不符的“幻觉”问题,提出两种缓解方法:OPERA在推理阶段通过惩罚过信任与回溯重分配机制减少幻觉;HACL在训练阶段引入幻觉文本作为困难…

    2025年12月1日
    1.7K
  • 词向量计算——word2vec算法理解

    魏超2014.11.2

    2014年11月4日
    1.2K
  • XenAccess介绍

    1.Xen虚拟平台 Xen Hypervisor 位于操作系统与硬件之间,为其上层运行的操作系统内核提供虚拟化的硬件环境。Xen采用混合模式(Hybrid Model),因此在Xe…

    2014年10月21日
    1.6K
  • APT攻击行为表示

    本报告介绍了APT攻击行为的基本概念,展示了APT攻击行为表示的方法原理,并分别讲述了面向恶意流量数据场景下的攻击行为检测技术和面向开源威胁情报场景下的攻击行为提取方法,最后简要梳…

    2024年5月19日
    1.4K
  • AI测试:历史与发展

    本报告重点讲解了AI测试的发展历史,从2007年Murphy等人认为AI系统是不可测试到后续变形测试、差分测试、覆盖测试、突变测试等传统测试方法的引入,再到正确性、鲁棒性、隐私性、…

    2022年8月23日
    1.4K
  • 深度学习模型校准技术

    深度学习模型校准技术是模型预测可靠性的重要保障手段之一,其通过正则化或后处理方法调节模型对样本实例上的置信度,使其与预测的真实概率良好匹配。本次报告介绍了深度学习模型校准的基本概念…

    2024年7月2日
    1.5K