如何使用python爬虫时增加延时和重试.比如一旦出现500错误,就等待1分钟再重试 我来答 1个回答 #热议# 为什么说不要把裤子提到肚脐眼? 氐彰诡秘褂 2017-08-20 · TA获得超过312个赞 知道小有建树答主 回答量:227 采纳率:76% 帮助的人:46.4万 我也去答题访问个人页 关注 展开全部 def main(): try: 代码(打开网址的拿轿行代码消哗) except Exception as e: time模帆宏块延时(自己查一下,我忘了) main() 本回答被提问者采纳 已赞过 已踩过< 你对这个回答的评价是? 评论 收起 推荐律师服务: 若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询 广告您可能关注的内容虎课网python 爬虫可以用来做什么? ,python学习基础从入门到熟练运用!python 爬虫可以用来做什么?,python自学教程,,python3爬虫教程,python进阶教程,各种编程教程应有尽有,python系统性学习 知识全面讲解,颠覆传统教学模式,随时随地,快学快用www.huke88.com广告软件开发爬虫爬虫爬虫爬虫爬虫apl.qituowl.cn查看更多 其他类似问题 2016-10-02 在学习python爬虫,有没有用于测试500错误的网站,可以让我尝试重试下载网址 3 2015-02-27 爬虫访问导致服务器500报错 2018-08-13 python爬虫遇到有等待响应的网站怎么爬取 1 2016-08-30 python爬虫时出现internal server error 2017-05-17 如何设置python爬虫的爬取时间 2018-08-07 python2使用urllib2爬虫出现HTTP Error 500: TypeError错误提示 2018-05-03 python爬虫出现了错误,怎么弄 2017-09-25 python 爬虫时,urllib2.HTTPError:HTTP Error 502:Bad Gateway是什么原因?怎么解决? 18 更多类似问题 > 为你推荐: