联邦学习

联邦学习(Federated Learning)在2016年由谷歌最先提出,其设计目标是在保障大数据交换时的信息安全、保护终端数据和个人数据隐私、保证合法合规的前提下,在多参与方或多计算结点之间开展高效率的机器学习,解决数据孤岛的问题。

联邦学习-王殿元

原创文章,作者:bfs,如若转载,请注明出处:https://www.isclab.org.cn/2020/06/07/%e8%81%94%e9%82%a6%e5%ad%a6%e4%b9%a0/

(4)
bfsbfs
上一篇 2020年6月4日 上午1:19
下一篇 2020年6月8日

相关推荐

  • 表格数据生成:GAN模型的演进与未来

    表格数据生成能为深度学习扩充不平衡数据,同时也能避免隐私问题,研究如何生成高保真表格数据具有重要意义。本次报告分析了各个生成模型的优劣,以及GAN在表格数据领域的创新思路。

    2023年8月15日
    895
  • 图嵌入-GraphSAGE

    现在大多数方法都是直推式学习, 不能直接泛化到未知节点。这些方法是在一个固定的图上直接学习每个节点embedding,但是大多情况图是会演化的,当网络结构改变以及新节点的出现,直推…

    2020年7月6日
    1.2K
  • Not all bytes are equal Neural byte siev

          简单高效的漏洞检测方法一直是信息系统安全领域研究的热点,微软研究人员借助机器学习和深度神经网络开发出一种用于…

    2019年1月21日
    574
  • 对抗样本攻防的两种奇思妙想

    围绕图像对抗样本攻防这一核心主题,介绍以 Block Shuffle & Rotation(BSR) 为代表的迁移攻击增强策略,以及以 Delta Data Augment…

    2025年11月17日
    340
  • 预训练语言模型GPT3

    为了从网络上海量文本信息提取有价值信息,需要使用计算机处理文本数据,首要任务是将文本转换为计算机可以处理的向量化数据。单词是文本的最小单位,所以需要使用语言模型得到词向量表示成为文…

    2021年2月19日
    1.2K
  • DNN中的理论可解释性

    自DNN诞生起,人们就开始尝试对其解释。若要对DNN进行定量、严谨的解释,数学层面的理论构建是必要的。本次报告介绍了基于博弈论Shapley Value构建的DNN可解释性理论体系…

    2024年1月17日
    613
  • 基于视觉直觉的源代码表征

    源代码表征是软件工程中的一个重要研究领域,主要关注如何有效地将源代码转化为可以支持各种软件工程任务(如代码搜索、克隆检测、代码自动生成等)的数学模型或数据结构。这些表征通常需要捕获…

    2024年9月23日
    510
  • 机器学习常用的可解释方法

    可解释性对于建立用户与决策模型之间的信任关系至关重要,提高机器学习模型的可解释性和透明性是机器学习在现实任务中进一步发展和应用的关键。本次报告带大家了解机器学习常用的可解释方法的基…

    2020年10月25日
    996
  • 组合对抗攻击的自动化搜索方法

    对抗攻击是当下智能系统的新威胁,它使得很多在现实世界中应用的智能系统存在的安全漏洞极大地暴露了出来。近年来,学界提出了多种实现对抗攻击的方法,但是在不知道目标模型的防御细节的情况下…

    2021年5月6日
    1.2K