爬虫过程中加上这些策略让你采集效率更高     

我们都知道在采集数据过程中,尤其是爬取大量数据的时候,很多网站都有反爬虫措施,封ip是很严重的,,让你在采集的时候很心烦。本文就如何解决这个问题总结出一些应对措施,这些措施可以单独使用,也可以同时使用,效果更好。
一 、伪造User-Agent
在请求头中把User-Agent设置成浏览器中的User-Agent,来伪造浏览器访问。比如:
headers = {‘User-Agent’:’Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/52.0.2743.116 Safari/537.36’}
resp = requests.get(url,headers = headers)
在每次重复爬取之间设置一个随机时间间隔

比如:

time.sleep(random.randint(0,3)) # 暂停0~3秒的整数秒,时间区间:[0,3]

或:

time.sleep(random.random()) # 暂停0~1秒,时间区间:[0,1)
而且最主要的是ua要越多

扫描下方二维码,加入Java方向技术交流讨论群。暗号:加群