scrapy redis中在爬取分页网站怎么重启爬虫之后在下一页继续爬

 我来答
一帆风顺9o
2017-02-26 · TA获得超过180个赞
知道小有建树答主
回答量:389
采纳率:0%
帮助的人:350万
展开全部
用爬虫跟踪下一页的方法是自己模拟点击下一页连接,然后发出新的请求;
参考例子如下:
item1 = Item()
yield item1
item2 = Item()
yield item2
req = Request(url='下一页的链接', callback=self.parse)
yield req
注意:使用yield时不要用return语句。
推荐律师服务: 若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询

为你推荐:

下载百度知道APP,抢鲜体验
使用百度知道APP,立即抢鲜体验。你的手机镜头里或许有别人想知道的答案。
扫描二维码下载
×

类别

我们会通过消息、邮箱等方式尽快将举报结果通知您。

说明

0/200

提交
取消

辅 助

模 式