爬虫中的攻与防

爬虫技术是获取数据的利器,它避免了繁琐又低效的人工数据搜集。爬虫带来获取数据极大便利的同时,也催生了反爬技术的发展。学术报告以反爬措施以及对抗反爬的手段作为议题,详细介绍了5类反爬的具体流程,并对其优劣做出了总结。反爬措施与对抗反爬手段是大数据时代带来的技术发展,也是攻与防在数据获取层面对抗的缩影。

网络安全-学术报告-爬虫中的攻与防-韩飞-v1.0-2020.05.10

原创文章,作者:bfs,如若转载,请注明出处:https://www.isclab.org.cn/2020/05/10/%e7%88%ac%e8%99%ab%e4%b8%ad%e7%9a%84%e6%94%bb%e4%b8%8e%e9%98%b2/

(2)
bfsbfs
上一篇 2020年5月5日 下午10:17
下一篇 2020年5月17日 下午9:33

相关推荐

  • 基于行为语义分析的android恶意软件分析方法

    Android恶意软件对社会造成较大危害。为此,本文介绍了一种基于关联行为分析的Android恶意软件检测系统,该方法具有较强的行为表征能力,能有效的应对各种进化变异的恶意软件。

    2019年8月13日
    2.3K
  • 面向深度学习组件的漏洞挖掘

    人工智能软件系统的安全逐渐受到人们的重视,深度学习软件库存在的缺陷可能威胁到框架之上的模型和系统,目前仍然缺少深度学习软件库测试的系统方法。面对深度学习安全领域,针对深度学习软件库…

    2021年12月12日
    2.2K
  • 组合对抗攻击的自动化搜索方法

    对抗攻击是当下智能系统的新威胁,它使得很多在现实世界中应用的智能系统存在的安全漏洞极大地暴露了出来。近年来,学界提出了多种实现对抗攻击的方法,但是在不知道目标模型的防御细节的情况下…

    2021年5月6日
    2.3K
  • 表格数据生成:GAN模型的演进与未来

    表格数据生成能为深度学习扩充不平衡数据,同时也能避免隐私问题,研究如何生成高保真表格数据具有重要意义。本次报告分析了各个生成模型的优劣,以及GAN在表格数据领域的创新思路。

    2023年8月15日
    2.1K
  • 基于模型修改的深度学习后门攻击

    本报告介绍了深度学习后门攻击的基本概念、类型划分等背景知识,对一种基于模型权重修改和一种基于模型结构修改的后门攻击算法进行了具体说明,阐述了对于深度学习后门攻击领域现状的未来发展的…

    2023年3月20日
    2.4K
  • 鲁棒性认证方法

    随着对抗样本的危险性日益凸显,提高模型的鲁棒性成为研究的主要方向之一,然而,在评估鲁棒性方面还没有统一的标准,使得不同的防御方法之间对比存在很大的困难。

    2021年9月13日
    2.6K
  • 大模型赋能的模糊测试用例生成技术

    随着大模型技术的兴起和发展,软件漏洞模糊测试方法在新技术的赋能下,可以实现更好的代码覆盖率和漏洞发现数量。本次学术报告针对结合大模型实现模糊测试用例生成的方法,介绍了Fuzz4Al…

    2024年9月3日
    2.2K
  • 大模型越狱攻击的检测技术

    本次报告围绕大模型越狱攻击的检测技术展开,首先阐述了越狱检测的定义,然后介绍了常见的越狱攻击以及检测技术的研究现状。接着详细介绍了GradSafe和JailGuard两种主流方法,…

    2025年5月8日
    2.4K
  • 用户画像建模

    本次报告介绍了用户画像建模的相关基本概念,以及用于短文本处理的用户画像构建LDA-RCC组合模型。基本概念包过用户画像的作用、构建过程、分类等。LDA-RCC组合模型解决了传统文本…

    2021年3月9日
    2.1K