基于python的scrapy爬虫,关于增量爬取是怎么处理的

 我来答
逆战风云2
2017-06-24 · TA获得超过2889个赞
知道大有可为答主
回答量:2873
采纳率:0%
帮助的人:1566万
展开全部
我也遇到了这个问题,我的解决方法是,先将列表按照时间排序后再抓取,每次抓取完记录最后一条的url,下载再抓取时,遇到这个url,抓取就自动退出。 如果解决了您的问题请采纳! 如果未解决请继续追问!
推荐律师服务: 若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询

为你推荐:

下载百度知道APP,抢鲜体验
使用百度知道APP,立即抢鲜体验。你的手机镜头里或许有别人想知道的答案。
扫描二维码下载
×

类别

我们会通过消息、邮箱等方式尽快将举报结果通知您。

说明

0/200

提交
取消

辅 助

模 式