您现在所在的位置:首页 >> 科学研究 >> 共享资源 >> 学术报告 >>
发布日期:2019年4月03日
学术报告-网络爬虫技术介绍

      网络爬虫,是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本,它们被广泛用于互联网搜索引擎或其他类似网站,可以自动采集所有其能够访问到的页面内容,以获取或更新这些网站的内容和检索方式。本次报告介绍了网络爬虫的基本原理和关键技术,介绍了多个常用的爬虫框架,此外还介绍了常见的反爬虫技术及其应对策略。

附件-网络爬虫技术介绍.pdf