文本安全

  1. 动态规划——最小编辑代价
  1. 序列标注模型
  2. 命名实体识别简介
  3. 文本表示方法(一)——空间向量模型
  4. 文本表示方法(二)——潜在语义分析
  5. 文本表示方法(三)——topic models in NLP
  6. 词向量计算——word2vec算法理解
  7. 常用距离计算方法
  8. 参数估计方法——最大似然、最大后验和贝叶斯估计

原创文章,作者:admin,如若转载,请注明出处:https://www.isclab.org.cn/2014/10/18/3%e6%96%87%e6%9c%ac%e5%ae%89%e5%85%a8/

(1)
adminadmin
上一篇 2014年10月18日 下午4:08
下一篇 2014年10月18日

相关推荐

  • 协同训练

        协同训练是一种多视角学习方法,当数据充分时,在具有这种特征的数据集的任何一个视图上均可以利用一定的机器学习算法训练出一个强分类器。但…

    学术报告 2018年1月7日
    2.2K
  • 浅谈TCP/IP协议栈

    本次报告从TCP/IP四层模型出发,讲解了分层模型的原理和意义,并系统地从底层到顶层分别讲解了数据链路层、传输层和网络层这三层的主要协议和这些协议的实现原理。通过此次学术报告可以清…

    2020年1月12日
    2.5K
  • 深度神经网络中的对抗样本攻防

          2013年以来深度的神经网络模型在各方面得到了广泛应用,甚至在某些方面达到可以匹配人类的性能,用于“欺骗”神…

    2018年8月1日
    2.1K
  • 跨域开发与安全

    在大型项目开发时,可能会遇到多域名或多个ip之间使用ajax异步请求进行通信的情况,默认情况下,浏览器会阻断ajax对跨域请求的读取。本此报告介绍了开发中的跨域方案和跨域方案可能产…

    2020年9月14日
    2.4K
  • 图神经网络的反事实解释方法

    图神经网络模型的可解释性对于建立用户与决策模型之间的信任关系至关重要,为了安全、可信地部署图神经网络模型,需要提高图神经网络模型的可解释性和透明性。本次报告为大家介绍图神经网络反事…

    2024年6月3日
    2.0K
  • 机器学习模型后门攻击检测

    本次学术报告简要介绍了人工智能系统面临的各种安全威胁,通过将对抗样本与后门攻击进行多方面比较,从而引入了机器学习模型后门攻击的原理和检测方法,以及后门攻击技术的应用领域。

    2021年8月22日
    2.8K
  • 时序知识图谱推理

    着大数据和人工智能技术的飞速发展,知识图谱已成为表示和存储结构化知识的重要工具,其中时序知识图谱则进一步强调了事件随时间演变的重要性。本次学术报告致力于讲解时序知识图谱推理方法,重…

    2024年5月18日
    2.4K
  • 联邦学习

    联邦学习(Federated Learning)在2016年由谷歌最先提出,其设计目标是在保障大数据交换时的信息安全、保护终端数据和个人数据隐私、保证合法合规的前提下,在多参与方或…

    2020年6月7日
    2.9K
  • 神经网络模型测试方法与模型健壮性

    针对神经网络模型的缺陷测试使用了神经元覆盖率指标指导测试,这是一种从软件测试领域迁移的概念,指的是测试激活的神经元越多,测试越充分。但是近年来这种测试方法的有效性存疑,特别是测试生…

    2022年7月24日
    2.5K
  • 深度学习中的Normalization

    Batch Normalization(BN)自从提出之后,因为效果特别好,很快被作为深度学习的标准工具应用在了各种场合。BN大法虽然好,但是也存在一些局限和问题,诸如当Batch…

    2019年10月29日
    2.2K