scrapy redis中在爬取分页网站怎么重启爬虫之后在下一页继续爬 我来答 1个回答 #热议# 不吃早饭真的会得胆结石吗? 一帆风顺9o 2017-02-26 · TA获得超过180个赞 知道小有建树答主 回答量:389 采纳率:0% 帮助的人:350万 我也去答题访问个人页 关注 展开全部 用爬虫跟踪下一页的方法是自己模拟点击下一页连接,然后发出新的请求;参考例子如下:item1 = Item()yield item1item2 = Item()yield item2req = Request(url='下一页的链接', callback=self.parse)yield req注意:使用yield时不要用return语句。 本回答由提问者推荐 已赞过 已踩过< 你对这个回答的评价是? 评论 收起 推荐律师服务: 若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询 其他类似问题 2017-03-20 redisspider 爬取 怎么关闭 2017-03-22 scrapy 抓取下一页的数据能和上一页的数据放到一起吗 2017-09-24 scrapy redis中在爬取分页网站怎么重启爬虫之后在下一页继续爬 2017-08-19 scrapy redis中在爬取分页网站怎么重启爬虫之后在下一页继续爬 2017-11-21 scrapy redis中在爬取分页网站怎么重启爬虫之后在下一页继续爬 2017-11-01 scrapy redis中在爬取分页网站怎么重启爬虫之后在下一页继续爬 2017-10-31 scrapy redis实现爬虫提示如下错误什么原因 2017-11-13 scrapy-redis分布式爬虫启动为什么会等待 1 更多类似问题 > 为你推荐: