像数据库一次性插入10w条数据,怎么插入效率快啊!

谢谢了哈... 谢谢了哈 展开
 我来答
dong_1984dd
2015-08-12 · TA获得超过1.1万个赞
知道小有建树答主
回答量:1070
采纳率:100%
帮助的人:228万
展开全部
  1. 在SQL Server 中插入一条数据使用Insert语句,但是如果想要批量插入一堆数据的话,循环使用Insert不仅效率低,而且会导致SQL一系统性能问题

  2.  下面介绍SQL Server支持的两种批量数据插入方法:Bulk和表值参数(Table-Valued Parameters)。

  3. bulk方法主要思想是通过在客户端把数据都缓存在Table中,然后利用SqlBulkCopy一次性把Table中的数据插入到数据库

  4. 代码如下:

  5. public static void BulkToDB(DataTable dt)
    {
    SqlConnection sqlConn = new SqlConnection(
    ConfigurationManager.ConnectionStrings["ConnStr"].ConnectionString);
    SqlBulkCopy bulkCopy = new SqlBulkCopy(sqlConn);
    bulkCopy.DestinationTableName = "BulkTestTable";
    bulkCopy.BatchSize = dt.Rows.Count;
    try
    {
    sqlConn.Open();
        if (dt != null && dt.Rows.Count != 0)
        bulkCopy.WriteToServer(dt);
    }
    catch (Exception ex)
    {
    throw ex;
    }
    finally
    {
    sqlConn.Close();
    if (bulkCopy != null)
    bulkCopy.Close();
    }
    }
    public static DataTable GetTableSchema()
    {
    DataTable dt = new DataTable();
    dt.Columns.AddRange(new DataColumn[]{
    new DataColumn("Id",typeof(int)),
    new DataColumn("UserName",typeof(string)),
        new DataColumn("Pwd",typeof(string))});

    return dt;
    }
    static void Main(string[] args)
    {
    Stopwatch sw = new Stopwatch();
    for (int multiply = 0; multiply < 10; multiply++)
    {
    DataTable dt = Bulk.GetTableSchema();
    for (int count = multiply * 100000; count < (multiply + 1) * 100000; count++)
    {
    DataRow r = dt.NewRow();
    r[0] = count;
    r[1] = string.Format("User-{0}", count * multiply);
    r[2] = string.Format("Pwd-{0}", count * multiply);
    dt.Rows.Add(r);
    }
    sw.Start();
    Bulk.BulkToDB(dt);
    sw.Stop();
    Console.WriteLine(string.Format("Elapsed Time is {0} Milliseconds", sw.ElapsedMilliseconds));
    }
    Console.ReadLine();
    }

今至电子科技有限公司
2024-08-23 广告
数据库备份是确保数据安全与业务连续性的关键环节。我们上海今至电子科技有限公司高度重视数据保护,定期执行全面的数据库备份策略。这包括使用先进工具和技术,对关键业务数据进行自动化备份,并存储在安全可靠的外部存储介质或云端。通过定期验证备份的完整... 点击进入详情页
本回答由今至电子科技有限公司提供
yjl7144
2011-11-22 · TA获得超过253个赞
知道答主
回答量:275
采纳率:100%
帮助的人:139万
展开全部
我回答过这样的问题,楼主可参看我的回答
http://zhidao.baidu.com/question/339410943.html
如果是100000条这样的大数据量可以每次批量更新3000条,这样数据库是可以承受的。
再给你一个批量3000的代码如下:
Map map = null;
String data1= "";
String data2 = "";
String sql = insert into biao values(?,?);
PreparedStatement preStmt = conn.prepareStatement(sql);
for(i = 0;i<dataList.size();i++){
map = dataList.get(i);
data1=map.get("data1");
data2 = map.get("data2");
preStmt.setString(1,data1);
preStmt.setString(2, data2);
preStmt.addBatch();
if(i%3000==0){
preStmt.executeBatch();
preStmt.clearBatch();
}

}
已赞过 已踩过<
你对这个回答的评价是?
评论 收起
推荐律师服务: 若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询

为你推荐:

下载百度知道APP,抢鲜体验
使用百度知道APP,立即抢鲜体验。你的手机镜头里或许有别人想知道的答案。
扫描二维码下载
×

类别

我们会通过消息、邮箱等方式尽快将举报结果通知您。

说明

0/200

提交
取消

辅 助

模 式