隐私保护的领域自适应迁移学习方法

本报告讲述了隐私计算技术体系的整体架构及主要理论,给出了迁移学习及领域自适应问题的基本概念,通过详细介绍隐私保护政策下最新的去中心化无监督领域自适应论文以及基于隐私保护的模型联邦个性化论文,启发思考深度学习全周期隐私安全及个性化调度问题。

隐私保护的领域自适应迁移学习方法-郝靖伟

原创文章,作者:bfs,如若转载,请注明出处:https://www.isclab.org.cn/2021/10/11/%e9%9a%90%e7%a7%81%e4%bf%9d%e6%8a%a4%e7%9a%84%e9%a2%86%e5%9f%9f%e8%87%aa%e9%80%82%e5%ba%94%e8%bf%81%e7%a7%bb%e5%ad%a6%e4%b9%a0%e6%96%b9%e6%b3%95/

(2)
bfsbfs
上一篇 2021年10月11日 上午10:14
下一篇 2021年10月21日 上午10:19

相关推荐

  • Padding–A CNN operation that cannot be ignored

    本次报告主要讲述了padding的种类及其影响,介绍了卷积网络的基本概念和性质、使用padding的主要原因等,详细讲解了特征偏移和信息侵蚀的概念、表现及解决方案,最后对paddi…

    2022年12月5日
    1.2K
  • 基于图的知识追踪方法研究

    随着智慧教育系统(Intelligent Tutoring System, ITS)的快速发展,ITS以其时空约束少、便捷程度高和个性化定制学习的优势,在现代教育事业中获得广泛关注…

    2023年5月15日
    1.4K
  • HTTPS浅析

        HTTPS(全称:Hyper Text Transfer Protocol over Secure Socket Layer),是以…

    学术报告 2018年3月18日
    1.4K
  • 对抗性扰动下的后门防御方法

    后门防御旨在使用神经元剪枝、知识蒸馏等手段消除模型中隐藏的后门,阻止攻击者使用触发器样本控制深度学习模型的输出。本次学术报告主要讲解了两种以对抗性扰动和后门攻击关系为基础的后门防御…

    2024年1月17日
    1.7K
  • 成员推理攻击

    成员推理攻击(Membership Inference Attack)作为一种隐私攻击方法,其攻击对象是机器学习目标模型,攻击目标是推理一条或一批数据是否作为目标模型的训练集,以此…

    2022年10月16日
    3.9K
  • 基于输入输出扰动的模型窃取防御方法

    模型窃取防御技术能够促进深度神经网络的健康发展,推动数据交流与共享。本次报告从输入输出扰动的角度分析了模型窃取防御方法的框架,从数学角度给出了防御的基本原理以及优缺点,利用防御方法…

    2024年7月21日
    1.1K
  • 基于图神经网络的中文短文本匹配方法

    本次报告介绍一种基于图神经网络的中文短文本匹配模型,采用图结构的多粒度输入解决中文文本分词错误、不一致、歧义等问题造成的匹配性能下降问题。同时,报告介绍了文本匹配的研究现状,帮助大…

    2020年6月27日
    2.3K
  • 人工智能模型的公平性测试

    人工智能技术发展迅速,不仅在图像领域,在决策系统等领域也发挥了重要作用。用于模型训练的数据集中含有显示或者隐式的敏感属性(如性别、种族等),模型往往会利用敏感属性的特征做出决策,这…

    2024年9月29日
    1.4K
  • 强化学习中的信用分配

    本报告围绕强化学习中的“信用分配”难题,系统梳理了延迟/稀疏奖励场景下如何精准识别关键动作的研究脉络, 介绍LaRe与VinePPO两项新工作 ,分别利用大模型先验与无偏采样提升奖…

    2026年1月12日
    1.3K
  • 在线集成学习

          本次学术报告介绍了集成学习和在线学习基本思想,对离线bagging(装袋)和离线boosting(提升)的基…

    2019年7月1日
    1.7K