常用距离计算方法

 

常用距离计算方法常用距离计算方法

常用距离计算方法

常用距离计算方法

常用距离计算方法

常用距离计算方法

常用距离计算方法

韩磊

2014/12/25

原创文章,作者:admin,如若转载,请注明出处:https://www.isclab.org.cn/2014/12/19/%e5%b8%b8%e7%94%a8%e8%b7%9d%e7%a6%bb%e8%ae%a1%e7%ae%97%e6%96%b9%e6%b3%95/

(0)
adminadmin
上一篇 2014年12月11日 下午7:25
下一篇 2015年1月5日

相关推荐

  • LLM的强化学习

    ChatGPT问世以来,LLM百花齐放,对我们的生活产生了巨大的影响。然而LLM生成的内容存在信息泄露、无中生有等诸多隐患。通过强化学习技术我们可以将生成内容与人类偏好对齐,控制L…

    2024年4月3日
    2.2K
  • 深度神经网络后门攻击

    人工智能模型安全是人工智能应用落地需要考量的重要问题,后门攻击威胁是人工智能模型安全的重要议题。本次学术报告以深度神经网络为后门攻击的对象,从深度神经网络训练的内部机理出发,通过了…

    2021年8月15日
    2.6K
  • 深度神经网络鲁棒性评估方法

    深度学习模型具有高度非线性和特征空间抽象等特性,内部决策逻辑难以解释,导致其实际应用严重受限。本次报告从深度神经网络可解释性的基本概念出发,对常见的解释方法进行简介,并介绍了一篇将…

    2023年11月30日
    1.9K
  • 平面多标签文本分类方法

    多标签文本分类是对文本信息进行组织、利用和检索的有效手段,能够提高数据处理效率,具有重要的实际价值。平面多标签文本分类是多标签分类下的子任务,标记每个给定文本与最相关的多个标签。本…

    2023年12月27日
    1.6K
  • 二进制文件复合数据类型恢复

    二进制文件复合类型恢复技术在程序理解、逆向分析和漏洞检测等领域具有关键价值,能够显著提升类型信息还原与代码语义解析的准确性与效率。该技术通过推断和重建结构体、数组等复杂数据类型,有…

    2025年9月4日
    1.7K
  • 偷走你的训练数据:模型反演攻击方法研究

    通过模型反演攻击方法研究,验证了模型训练数据面临泄露风险的问题,并希望以此促进对应防御手段的发展。本次学术报告介绍了模型反演攻击方法的相关知识,并聚焦于两个经典的白盒和黑盒攻击方法…

    2024年2月27日
    2.5K
  • 深度神经网络模型水印保护方法

    摘要:本报告介绍了深度神经网络模型水印的基本概念和嵌入方式,并讲述了两种深度神经网络模型水印保护方法,从水印嵌入、提取和验证三个角度分析了保护模型的原理,提升对模型知识产权保护的认…

    2023年3月12日
    2.2K
  • 源代码安全补丁存在性测试

    本报告围绕“源代码安全补丁存在性测试”展开,聚焦于如何自动识别开源软件中的安全补丁,解决安全补丁与普通补丁混杂、厂商静默发布、攻击窗口缩短等问题,介绍了一种结构感知的检测方法——R…

    2025年7月21日
    1.8K
  • 代码变更表示学习及其应用研究

    代码变更指对软件源代码的增加,删除,修改。软件项目的代码库可以视为一系列代码变更的有序组合,因此代码变更对理解代码库和分析软件演化过程十分重要。代码变更表示学习旨在将代码变更表示为…

    2023年7月19日
    2.0K
  • 深度神经网络中的对抗样本攻防

          2013年以来深度的神经网络模型在各方面得到了广泛应用,甚至在某些方面达到可以匹配人类的性能,用于“欺骗”神…

    2018年8月1日
    2.0K