1. 信息系统及安全对抗实验中心首页
  2. 学术报告

网络爬虫技术介绍

      网络爬虫,是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本,它们被广泛用于互联网搜索引擎或其他类似网站,可以自动采集所有其能够访问到的页面内容,以获取或更新这些网站的内容和检索方式。本次报告介绍了网络爬虫的基本原理和关键技术,介绍了多个常用的爬虫框架,此外还介绍了常见的反爬虫技术及其应对策略。

附件-网络爬虫技术介绍.pdf

原创文章,作者:BFS,如若转载,请注明出处:https://www.isclab.org.cn/2019/04/03/%e5%ad%a6%e6%9c%af%e6%8a%a5%e5%91%8a-%e7%bd%91%e7%bb%9c%e7%88%ac%e8%99%ab%e6%8a%80%e6%9c%af%e4%bb%8b%e7%bb%8d/