首页 > 对抗反爬虫策略

对抗反爬虫策略

我的问题如下:

我需要抓取一个网站的数据来做一些统计研究,但是这个网站有严格的反抓取策略。
目前看来,利用pyspider框架进行一段时间的抓取后,网站就会禁止我访问。有没有什么好的
办法使得pyspider能够抓取一段时间后停止抓取,然后隔一段时间有恢复抓取的策略呢?

IP被封了是么。非常常用的爬虫封禁方法,但是策略不一定是相同的,有的是判断你请求速率,有的判断是多少时间内的请求次数。

具体的推荐你看一篇文章,里面有专门讲如果通过代理服务器IP进行突破IP封禁策略,当然其他的几个方法也非常值得研究

为何大量网站不能抓取?爬虫突破封禁的6种常见方法


1.self.crawl中增加auto_crawl=True,并设置好间隔时间,比如age=60*60
这样一个小时后,pyspdier会去自动抓取网页

2.修改webui中的rate/burst,默认是1.0/3,可以改成0.2/3试试, 降低抓取频率

3.可以在crawl_config中增加proxy.

【热门文章】
【热门文章】