scrapy redis中在爬取分页网站怎么重启爬虫之后在下一页继续爬 我来答 2个回答 #热议# 网上掀起『练心眼子』风潮,真的能提高情商吗? yc...z@163.com 2017-11-01 · 超过26用户采纳过TA的回答 知道答主 回答量:77 采纳率:0% 帮助的人:20.1万 我也去答题访问个人页 关注 展开全部 你可以使用scrapy, python的爬虫框架,或者如果你只是抓取比较简单的页面,可以使用requests这个python库,功能也足够用了。 如果解决了您的问题请采纳! 如果未解决请继续追问 本回答由提问者推荐 已赞过 已踩过< 你对这个回答的评价是? 评论 收起 唯信1359111540 2017-11-01 · 超过32用户采纳过TA的回答 知道答主 回答量:178 采纳率:25% 帮助的人:44.3万 我也去答题访问个人页 关注 展开全部 item1 = Item()yield item1item2 = Item()yield item2req = Request(url='页链接', callback=self.parse)yield req 已赞过 已踩过< 你对这个回答的评价是? 评论 收起 推荐律师服务: 若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询 其他类似问题 2017-02-26 scrapy redis中在爬取分页网站怎么重启爬虫之后在下一页继续爬 2017-03-20 redisspider 爬取 怎么关闭 2017-03-22 scrapy 抓取下一页的数据能和上一页的数据放到一起吗 2017-09-24 scrapy redis中在爬取分页网站怎么重启爬虫之后在下一页继续爬 2017-08-19 scrapy redis中在爬取分页网站怎么重启爬虫之后在下一页继续爬 2017-11-21 scrapy redis中在爬取分页网站怎么重启爬虫之后在下一页继续爬 2017-10-31 scrapy redis实现爬虫提示如下错误什么原因 2017-11-13 scrapy-redis分布式爬虫启动为什么会等待 1 更多类似问题 > 为你推荐: