Java 循环读取文件导致内存溢出!
在主函数的循环中,创建一个类对象并处理,当进入下次循环后前一项创建的对象不是应该会被自动GC么。打开GC显示后,老年代内存随着每次循环不断加大,到固定位置后报错——“ja...
在主函数的循环中,创建一个类对象并处理,当进入下次循环后前一项创建的对象不是应该会被自动GC么。打开GC显示后,老年代内存随着每次循环不断加大,到固定位置后报错——“java.lang.OutOfMemoryError: GC overhead limit exceeded”
求解应该怎么处理问题?? 展开
求解应该怎么处理问题?? 展开
2016-04-26 · 百度知道合伙人官方认证企业
育知同创教育
1【专注:Python+人工智能|Java大数据|HTML5培训】 2【免费提供名师直播课堂、公开课及视频教程】 3【地址:北京市昌平区三旗百汇物美大卖场2层,微信公众号:yuzhitc】
向TA提问
关注
展开全部
resultSet读取的时候是以流的方式读取的,每.next异常,读取一定的数据。所有是不会内存溢出的。
你的程序内存溢出代码
Vector<Vector<Object>> data = new Vector<Vector<Object>>();
while(reader.next()) {
Vector<Object> lineData = new Vector<Object>();
。。。。。。
}
你的data里面放着了1W条的数据,并且没一条都是一个linData,也就是说有1W个Vector对象,然后每一个line又有n个对象,内存的对象数量最少为1W*(n+1),在大的内存,这么玩也得挂。
解决方法:
1:直接用resultset,不把对象放到vector里面。
2:分页对取
你的程序内存溢出代码
Vector<Vector<Object>> data = new Vector<Vector<Object>>();
while(reader.next()) {
Vector<Object> lineData = new Vector<Object>();
。。。。。。
}
你的data里面放着了1W条的数据,并且没一条都是一个linData,也就是说有1W个Vector对象,然后每一个line又有n个对象,内存的对象数量最少为1W*(n+1),在大的内存,这么玩也得挂。
解决方法:
1:直接用resultset,不把对象放到vector里面。
2:分页对取
展开全部
1、传统的在内存中读取
读取文件行的标准方式是在内存中读取,Guava 和Apache Commons IO都提供了如下所示快速读取文件行的方法:
1 2 3 Files.readLines(new File(path), Charsets.UTF_8); FileUtils.readLines(newFile(path));
这种方法带来的问题是文件的所有行都被存放在内存中,当文件足够大时很快就会导致程序抛出OutOfMemoryError 异常。
例如:读取一个大约1G的文件:
1 2 3 4 5 @Test public void givenUsingGuava_whenIteratingAFile_thenWorks() throwsIOException { String path = ... Files.readLines(new File(path), Charsets.UTF_8); }
这种方式开始时只占用很少的内存:(大约消耗了0Mb内存)
1 2 [main] INFO org.baeldung.java.CoreJavaIoUnitTest - Total Memory: 128 Mb [main] INFO org.baeldung.java.CoreJavaIoUnitTest - Free Memory: 116 Mb
然而,当文件全部读到内存中后,我们最后可以看到(大约消耗了2GB内存):
1 2 [main] INFO org.baeldung.java.CoreJavaIoUnitTest - Total Memory: 2666 Mb [main] INFO org.baeldung.java.CoreJavaIoUnitTest - Free Memory: 490 Mb
这意味这一过程大约耗费了2.1GB的内存——原因很简单:现在文件的所有行都被存储在内存中。
把文件所有的内容都放在内存中很快会耗尽可用内存——不论实际可用内存有多大,这点是显而易见的。
此外,我们通常不需要把文件的所有行一次性地放入内存中——相反,我们只需要遍历文件的每一行,然后做相应的处理,处理完之后把它扔掉。所以,这正是我们将要做的——通过行迭代,而不是把所有行都放在内存中。
2、文件流
现在让我们看下这种解决方案——我们将使用java.util.Scanner类扫描文件的内容,一行一行连续地读取:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 FileInputStream inputStream = null; Scanner sc = null; try { inputStream = new FileInputStream(path); sc = new Scanner(inputStream, UTF-8); while(sc.hasNextLine()) { String line = sc.nextLine(); // System.out.println(line); } // note that Scanner suppresses exceptions if(sc.ioException() != null) { throw sc.ioException(); } } finally { if(inputStream != null) { inputStream.close(); } if (sc != null) {sc.close(); } }
这种方案将会遍历文件中的所有行——允许对每一行进行处理,而不保持对它的引用。总之没有把它们存放在内存中:(大约消耗了150MB内存)
1 2 [main] INFO org.baeldung.java.CoreJavaIoUnitTest - Total Memory: 763 Mb [main] INFO org.baeldung.java.CoreJavaIoUnitTest - Free Memory: 605 Mb
3、Apache Commons IO流
同样也可以使用Commons IO库实现,利用该库提供的自定义LineIterator:
1 2 3 4 5 6 7 8 9 LineIterator it = FileUtils.lineIterator(theFile, UTF-8); try { while(it.hasNext()) { String line = it.nextLine(); // do something with line } }finally { LineIterator.closeQuietly(it); }
由于整个文件不是全部存放在内存中,这也就导致相当保守的内存消耗:(大约消耗了150MB内存)
1 2 [main] INFO o.b.java.CoreJavaIoIntegrationTest - Total Memory: 752 Mb [main] INFO o.b.java.CoreJavaIoIntegrationTest - Free Memory: 564 Mb
读取文件行的标准方式是在内存中读取,Guava 和Apache Commons IO都提供了如下所示快速读取文件行的方法:
1 2 3 Files.readLines(new File(path), Charsets.UTF_8); FileUtils.readLines(newFile(path));
这种方法带来的问题是文件的所有行都被存放在内存中,当文件足够大时很快就会导致程序抛出OutOfMemoryError 异常。
例如:读取一个大约1G的文件:
1 2 3 4 5 @Test public void givenUsingGuava_whenIteratingAFile_thenWorks() throwsIOException { String path = ... Files.readLines(new File(path), Charsets.UTF_8); }
这种方式开始时只占用很少的内存:(大约消耗了0Mb内存)
1 2 [main] INFO org.baeldung.java.CoreJavaIoUnitTest - Total Memory: 128 Mb [main] INFO org.baeldung.java.CoreJavaIoUnitTest - Free Memory: 116 Mb
然而,当文件全部读到内存中后,我们最后可以看到(大约消耗了2GB内存):
1 2 [main] INFO org.baeldung.java.CoreJavaIoUnitTest - Total Memory: 2666 Mb [main] INFO org.baeldung.java.CoreJavaIoUnitTest - Free Memory: 490 Mb
这意味这一过程大约耗费了2.1GB的内存——原因很简单:现在文件的所有行都被存储在内存中。
把文件所有的内容都放在内存中很快会耗尽可用内存——不论实际可用内存有多大,这点是显而易见的。
此外,我们通常不需要把文件的所有行一次性地放入内存中——相反,我们只需要遍历文件的每一行,然后做相应的处理,处理完之后把它扔掉。所以,这正是我们将要做的——通过行迭代,而不是把所有行都放在内存中。
2、文件流
现在让我们看下这种解决方案——我们将使用java.util.Scanner类扫描文件的内容,一行一行连续地读取:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 FileInputStream inputStream = null; Scanner sc = null; try { inputStream = new FileInputStream(path); sc = new Scanner(inputStream, UTF-8); while(sc.hasNextLine()) { String line = sc.nextLine(); // System.out.println(line); } // note that Scanner suppresses exceptions if(sc.ioException() != null) { throw sc.ioException(); } } finally { if(inputStream != null) { inputStream.close(); } if (sc != null) {sc.close(); } }
这种方案将会遍历文件中的所有行——允许对每一行进行处理,而不保持对它的引用。总之没有把它们存放在内存中:(大约消耗了150MB内存)
1 2 [main] INFO org.baeldung.java.CoreJavaIoUnitTest - Total Memory: 763 Mb [main] INFO org.baeldung.java.CoreJavaIoUnitTest - Free Memory: 605 Mb
3、Apache Commons IO流
同样也可以使用Commons IO库实现,利用该库提供的自定义LineIterator:
1 2 3 4 5 6 7 8 9 LineIterator it = FileUtils.lineIterator(theFile, UTF-8); try { while(it.hasNext()) { String line = it.nextLine(); // do something with line } }finally { LineIterator.closeQuietly(it); }
由于整个文件不是全部存放在内存中,这也就导致相当保守的内存消耗:(大约消耗了150MB内存)
1 2 [main] INFO o.b.java.CoreJavaIoIntegrationTest - Total Memory: 752 Mb [main] INFO o.b.java.CoreJavaIoIntegrationTest - Free Memory: 564 Mb
本回答被网友采纳
已赞过
已踩过<
评论
收起
你对这个回答的评价是?
推荐律师服务:
若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询