如何用python快速读取几G以上的大文件 我来答 可选中1个或多个下面的关键词,搜索相关资料。也可直接点“搜索资料”搜索整个问题。 python 搜索资料 1个回答 #热议# 空调使用不当可能引发哪些疾病? 南京止水网络 2017-04-20 知道答主 回答量:10 采纳率:0% 帮助的人:5.7万 我也去答题访问个人页 关注 展开全部 如果你没那么大的内存 解决方法有几个:使用swap 一次性read()读取系统层面分割大文件为数个小于系统内存的小文件,分别读取使用python 按数据大小逐块读取,使用完数据即释放该部分内存:while True: chunk_data = file_object.read(chunk_size) if not chunk_data: break yield chunk_data 本回答由网友推荐 已赞过 已踩过< 你对这个回答的评价是? 评论 收起 推荐律师服务: 若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询 其他类似问题 2017-11-20 使用Python 处理大文件有什么推荐的方式么 2016-10-24 python 读取大文件数据怎么快速读取 2017-04-29 怎样用Python实现大文件遍历并修改内容 2017-05-16 python 读取大文件数据怎么快速读取 2017-08-25 python 读取大文件数据怎么快速读取 2017-11-13 python 一个文件太大+内存装不下+怎么读取 mongo 2017-11-28 python读取什么格式的数据比较快 2014-09-19 Python 如何只读一个超大文本的前几行 更多类似问题 > 为你推荐: