python做爬虫的时候为什么不能连续爬取一个源 我来答 1个回答 #热议# 普通体检能查出癌症吗? 灿茗儒04 2015-02-06 · TA获得超过6474个赞 知道大有可为答主 回答量:2446 采纳率:0% 帮助的人:5009万 我也去答题访问个人页 关注 展开全部 你可以根据日志查一下,看看程序再抓哪些页面的时候死了,再分析一下为什么死。有些网站为了防止爬虫会采取一些措施,比如给你设计一个链接,你打开这个链接后跳到另一个页面,这个页面上还有一个链接,又链接到原来的页面 本回答由提问者推荐 已赞过 已踩过< 你对这个回答的评价是? 评论 收起 推荐律师服务: 若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询 广告您可能关注的内容爬虫是什么全能工程师2024 版 - 从入门到精通,实战特训爬虫是什么海量学习资源,200 多节精心录制的视频课程,100 余个真实企业案例剖析爬虫是什么从入门到精通,全方位覆盖 Python 各个知识点与应用场景。class.imooc.com广告 其他类似问题 2018-09-20 Python如何爬取知乎一个话题下的全部源码?(为什么我只能... 1 2018-10-29 python 爬虫 源代码问题 与爬取后的代码不一致的问题 2014-08-12 python网络刷微博爬虫为什么循环后浏览器不关闭,下面是源... 2017-11-18 请教一个问题,怎么提高 python 爬虫的爬取效率 1 2017-03-18 python爬虫 求指点 查看源代码有个# 后面内容爬取不到 4 2019-09-21 python爬虫,为什么爬出来没有东西,求大佬教下 2017-04-21 python爬虫怎么写循环爬取多个页面 1 2017-04-25 写个python 爬虫怎么爬取一个网页上面发现的url链接 8 更多类似问题 > 为你推荐: