Python爬虫,有没有什么方法能让一次请求时间超长后跳过 我来答 可选中1个或多个下面的关键词,搜索相关资料。也可直接点“搜索资料”搜索整个问题。 python 爬虫 超长 搜索资料 3个回答 #热议# 生活中有哪些实用的心理学知识? 百度网友06bf261 2018-12-21 知道答主 回答量:9 采纳率:33% 帮助的人:1.9万 我也去答题访问个人页 关注 展开全部 在body里面设置一个timeout。然后再包一层try except补获异常。跳过异常继续执行代码,这样应该可以达到目的 已赞过 已踩过< 你对这个回答的评价是? 评论 收起 nextdoor2 2018-12-22 · 超过34用户采纳过TA的回答 知道答主 回答量:120 采纳率:54% 帮助的人:34.1万 我也去答题访问个人页 关注 展开全部 通过异常捕获做处理 已赞过 已踩过< 你对这个回答的评价是? 评论 收起 小古娱乐实训 2018-12-22 · TA获得超过175个赞 知道小有建树答主 回答量:318 采纳率:54% 帮助的人:77.5万 我也去答题访问个人页 关注 展开全部 try: res = requests.get(url, timeout=5)except: pass这样写就ok了。 本回答被网友采纳 已赞过 已踩过< 你对这个回答的评价是? 评论 收起 收起 更多回答(1) 推荐律师服务: 若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询 其他类似问题 2016-05-03 python某段代码执行时间过长,如何跳过执行下一步? 4 2019-10-01 python 如何跳过异常继续执行 16 2019-08-01 在Python3中,socket.recv方法如果一段时间内没有收到返回,如何让这段代码跳过,并执行下一步操作 2020-11-05 优化Python爬虫速度的方法有哪些 2018-08-13 python爬虫遇到有等待响应的网站怎么爬取 1 2017-05-17 如何设置python爬虫的爬取时间 2017-01-01 python爬虫有什么办法防止反爬虫 2 2017-01-07 scrapy爬虫怎么跳过没有反应的页面 更多类似问题 > 为你推荐: