用python处理一个1G左右的数据集,运行速度非常慢,怎样优化
4个回答
展开全部
两种可选的方式
1:使用yield的懒惰加载,示例代码如下:
def read_in_chunks(file_object, chunk_size=1024):
"""Lazy function (generator) to read a file piece by piece.
Default chunk size: 1k."""
while True:
data = file_object.read(chunk_size)
if not data:
break
yield data
f = open('really_big_file.dat')
for piece in read_in_chunks(f):
process_data(piece)
2:使用iter和一个帮助方法:
f = open('really_big_file.dat')
def read1k():
return f.read(1024)
for piece in iter(read1k, ''):
process_data(piece)
推荐使用第一个。
柚鸥ASO
2024-03-16 广告
2024-03-16 广告
安卓ASO优化原理是通过优化APP名称、图标、描述、覆盖关键词、评论等多个维度,提升APP在应用商店中的榜单排名和搜索排名,从而增加APP的曝光量和下载量。影响ASO的因素包括关键词、应用名称、图标、应用截图及预览视频、描述、下载量、用户留...
点击进入详情页
本回答由柚鸥ASO提供
展开全部
首先当然是优化代码,前提如果你能把代码贴出来的话。
其次代码中如果有大量频繁的计算,可以把你的计算核心代码用cython改写一下。
如果不喜欢cython,而且你所用到的模块都是纯python实现的话,可以用pypy来执行你的程序。
其次代码中如果有大量频繁的计算,可以把你的计算核心代码用cython改写一下。
如果不喜欢cython,而且你所用到的模块都是纯python实现的话,可以用pypy来执行你的程序。
已赞过
已踩过<
评论
收起
你对这个回答的评价是?
展开全部
你这个连需求背景都没有介绍,就直接要方案。。。
已赞过
已踩过<
评论
收起
你对这个回答的评价是?
展开全部
能告知你现在的方法以及性能么?
python 处理数据本来就慢~
python 处理数据本来就慢~
已赞过
已踩过<
评论
收起
你对这个回答的评价是?
推荐律师服务:
若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询