SSH大量数据插入问题
我现在有43.26亿条数据,需要快速插入数据库。之前想过用多线程,但是效率不高。现在插10W条数据需要149秒。如果全部插入,需要大量时间。求DaoImpl实现代码,有人...
我现在有43.26亿条数据,需要快速插入数据库。之前想过用多线程,但是效率不高。现在插10W条数据需要149秒。如果全部插入,需要大量时间。求DaoImpl实现代码,有人说用存储过程就可以了,但是ssh我不会用存储过程。还有就是.hbm.xml里面的储存过程配置。谢了
展开
2013-07-09
展开全部
这么大的数据量直接写成sql脚本或者dmp文件,在数据库端,直接导入吧
更多追问追答
追问
不规整的数据啊!!现在只能导入到java里 进行规整,能存到集合里。但是没办法插入数据库啊!!
追答
java处理成规整的sql生成文件,拿到服务器,用脚本执行
已赞过
已踩过<
评论
收起
你对这个回答的评价是?
2013-07-11
展开全部
批量数据处理还是建议采用最基础的操作数据库方法jdbc,效率才是最高的
追问
求JDBC使用方法,效率。速度。和时间。
已赞过
已踩过<
评论
收起
你对这个回答的评价是?
展开全部
43.26亿数据你怎么存放的。牛逼啊。还有hibernate没有办法处理这么大的数据的
更多追问追答
追问
数据可以用循环的方式插入数据库!现在只求最快的插入速度!!
追答
我知道,但是JDBC同时操作的话肯定会挂掉的。只能通过多线程了。记得及时关掉connection
本回答被提问者采纳
已赞过
已踩过<
评论
收起
你对这个回答的评价是?
展开全部
使用load data
追问
能详细点么
已赞过
已踩过<
评论
收起
你对这个回答的评价是?
推荐律师服务:
若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询