python 程序假死的问题

不知道为什么(也许是网络原因),有时候用python写的网络爬虫程序会经常不稳定。比如我写的几个爬虫,每天定时从网站上爬一些数据,有时候爬的好好的,有时爬了一半就卡在那里... 不知道为什么(也许是网络原因),有时候用python写的网络爬虫程序会经常不稳定。比如我写的几个爬虫,每天定时从网站上爬一些数据,有时候爬的好好的,有时爬了一半就卡在那里,动都不动(尤其是爬一些数据比较大的网站)。搞的我都烦死了,要经常去看它。不知道tim老师有没有遇到过。要怎么处理啊,或者说如果超过一定时间没有获取到数据,就自动结束然后再次打开,从上次结束的位置开始重新获取数据。 展开
 我来答
tim_spac
2011-05-20 · TA获得超过3628个赞
知道大有可为答主
回答量:1804
采纳率:100%
帮助的人:2020万
展开全部
我遇到的这种现象常见在引用占用了大量的系统内存,
后来我将直接读入大量数据到内存的过程改为用iter读取, 现象没再出现.

你的方案"超过一定时间...", 可以视为"守护进程",
如果这个进程是你的应用内的某个线程, 恐怕它会一同"睡"去 :(

.. 还是先确认一下是否是内存占用的原因吧, 如果是通过节省内存的方式可以克服的.
来自:求助得到的回答
推荐律师服务: 若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询

为你推荐:

下载百度知道APP,抢鲜体验
使用百度知道APP,立即抢鲜体验。你的手机镜头里或许有别人想知道的答案。
扫描二维码下载
×

类别

我们会通过消息、邮箱等方式尽快将举报结果通知您。

说明

0/200

提交
取消

辅 助

模 式