京公网安备 11010802034615号
经营许可证编号:京B2-20210330
大数据量高效导入数据库(以excel导入sqlserver为例)
最近正在做一个项目,要把excel中的数据导入到sqlserver数据库中,首先想到的就是insert,采用连接Excel对象的Microsoft.ACE.OLEDB.12.0接口引擎连接到excel,然后读取到DataTable中然后每次读取一个Row,insert到数据库表里,但是效率低的让人可怕,一旦数据量过大,卡的要死,我们测试数据是有24万条,文件大小14,249,487
字节(大概14MB),后来经过一番研究发现了SqlBulkCopy,至于SqlBulkCopy的详细介绍就不说了,都是文字描述,微软的直接MSDN就可以了,但是效率确实比insert效率高很多,这里我们就直接上代码吧:
[html] view plain copy
using System;
using System.Collections.Generic;
using System.ComponentModel;
using System.Data;
using System.Data.OleDb;
using System.Drawing;
using System.Linq;
using System.Text;
using System.Windows.Forms;
namespace 读取excel到datagridview
{
public partial class Form1 : Form
{
public Form1()
{
InitializeComponent();
}
private void Form1_Load(object sender, EventArgs e)
{
}
/// <summary>
/// 选择文件,并且读取excel中sheet
/// </summary>
/// <param name="sender"></param>
/// <param name="e"></param>
private void button1_Click(object sender, EventArgs e)
{
try
{
//获取Excel文件路径和名称
OpenFileDialog odXls = new OpenFileDialog();
// 指定相应的打开文档的目录
odXls.InitialDirectory = "C://";
// 设置文件格式
odXls.Filter = "Excel files (*.xls)|*.xls|Excel files (*.xlsx)|*.xlsx";
odXls.FilterIndex = 2;
odXls.RestoreDirectory = true;
if (odXls.ShowDialog() == DialogResult.OK)
{
txtFilePath.Text = odXls.FileName;
OleDbConnection oledbConn = null;
string sConnString = "provider=Microsoft.ACE.OLEDB.12.0;data source=" + odXls.FileName + ";Extended Properties=Excel 12.0;Persist Security Info=False";
oledbConn = new OleDbConnection(sConnString);
oledbConn.Open();
DataTable dt = oledbConn.GetOleDbSchemaTable(OleDbSchemaGuid.Tables, new object[] { null, null, null, "TABLE" });
combox1.Items.Clear();
foreach (DataRow dr in dt.Rows)
{
//MessageBox.Show((String)dr["TABLE_NAME"]);
combox1.Items.Add((String)dr["TABLE_NAME"]);
}
if (combox1.Items.Count > 0)
combox1.SelectedIndex = 0;
}
}
catch (Exception Ex)
{
MessageBox.Show(Ex.Message);
richTextBox1.Text = Ex.Message;
}
}
/// <summary>
/// 读取文件具体内容
/// </summary>
/// <param name="sender"></param>
/// <param name="e"></param>
private void button2_Click(object sender, EventArgs e)
{
string connectionString = @"Data Source=702-01;Initial Catalog=DBUser;Integrated Security=True";
OleDbConnection ole = null;
OleDbDataAdapter da = null;
DataTable dt = null;
string strConn = "Provider=Microsoft.ACE.OLEDB.12.0;"
+ "Data Source=" + txtFilePath.Text.Trim() + ";"
+ "Extended Properties=Excel 12.0";
string sTableName = combox1.Text.Trim();
string strExcel = "select * from [" + sTableName + "]";
try
{
ole = new OleDbConnection(strConn);
ole.Open();
da = new OleDbDataAdapter(strExcel, ole);
dt = new DataTable();
da.Fill(dt);
using (System.Data.SqlClient.SqlBulkCopy bcp = new System.Data.SqlClient.SqlBulkCopy(connectionString))
{
//bcp.SqlRowsCopied += new System.Data.SqlClient.SqlRowsCopiedEventHandler(bcp_SqlRowsCopied);
//bcp.SqlRowsCopied += new System.Data.SqlClient.SqlRowsCopiedEventHandler(bcp_SqlRowsCopied);
bcp.BatchSize = 1000;//每次传输的行数
// bcp.NotifyAfter = 1000;//进度提示的行数
bcp.DestinationTableName = "tb_bigdata";//目标表
bcp.WriteToServer(dt);
MessageBox.Show("导入完成!");
}
//为datagridview设置数据源
this.xlsExpData.DataSource = dt;
//设置每一列显示数据模式为AllCells
//for (int i = 0; i < dt.Columns.Count; i++)
//{
// xlsExpData.Columns[i].AutoSizeMode = DataGridViewAutoSizeColumnMode.AllCells;
//}
ole.Close();
}
catch (Exception Ex)
{
MessageBox.Show(Ex.Message);
}
finally
{
if (ole != null)
ole.Close();
}
}
//进度显示
void bcp_SqlRowsCopied(object sender, System.Data.SqlClient.SqlRowsCopiedEventArgs e)
{
this.Text = e.RowsCopied.ToString();
this.Update();
}
}
}
这里我们经过多次测试,将24万条数据导入到sqlserver中,因为目前手边没有可以测试的服务器就临时使用自己的计算机当做服务器进行测试,这里是我的电脑配置:

平均导入时间在20秒左右,上下不差1秒,执行时间和BatchSize设置也有关系,如果设置为100,则需要35秒左右,如果是真正的服务器的话相信执行时间会大大缩短,大家都知道服务器的处理事务能力比普通计算机要强大很多。
当然在本地使用时,效率是比insert高的,但是也有很多限制比如:
1、导入时会有排它意向锁,易死锁。
2、数据只能从服务器本地导入到本地服务器上的数据库中,无法从客户端将数据导入到远程服务器上等等
那么可能大家会担心了,这样也不行啊,客户端不能导入到远程服务器上很不方便的,那么我又研究了一种实现的方式,就是采用数据适配器,DataSet实现数据导入,我们可以将数据文件先导入到DataTable或者DataSet中,然后提交回数据库,这样也实现了数据导入,这样就不会有上边的限制了,至于具体代码就不说了,相信大家应该都会,就是ADO.NET所谓基本对象的应用,如果真的有需要具体代码的可以联系我,但是导入过程中会瞬间部分内存占用,但是占用的内存应该没啥问题,不会有什么影响。
所以我们可以视情况而定,具体选择哪种导入方式,灵活运用,提高工作效率,当然这里由于自身能力原因,暂时只研究了这几种方式,一定还有效率更高的导入方式,这里我会继续研究,如果有新进展一定及时更新,如果有需要请关注或者私信我,大家一起学习,一起进步,希望会帮助到大家。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
数据分析师认证考试全面升级后,除了考试场次和报名时间,小伙伴们最关心的就是报名费了,报 ...
2025-12-23CDA中国官网是全国统一的数据分析师认证报名网站,由认证考试委员会与持证人会员、企业会员以及行业知名第三方机构共同合作,致 ...
2025-12-23在Power BI数据可视化分析中,矩阵是多维度数据汇总的核心工具,而“动态计算平均值”则是矩阵分析的高频需求——无论是按类别计 ...
2025-12-23在SQL数据分析场景中,“日期转期间”是高频核心需求——无论是按日、周、月、季度还是年度统计数据,都需要将原始的日期/时间字 ...
2025-12-23在数据驱动决策的浪潮中,CDA(Certified Data Analyst)数据分析师的核心价值,早已超越“整理数据、输出报表”的基础层面,转 ...
2025-12-23在使用Excel数据透视表进行数据分析时,我们常需要在透视表旁添加备注列,用于标注数据背景、异常说明、业务解读等关键信息。但 ...
2025-12-22在MySQL数据库的性能优化体系中,索引是提升查询效率的“核心武器”——一个合理的索引能将百万级数据的查询耗时从秒级压缩至毫 ...
2025-12-22在数据量爆炸式增长的数字化时代,企业数据呈现“来源杂、格式多、价值不均”的特点,不少CDA(Certified Data Analyst)数据分 ...
2025-12-22在企业数据化运营体系中,同比、环比分析是洞察业务趋势、评估运营效果的核心手段。同比(与上年同期对比)可消除季节性波动影响 ...
2025-12-19在数字化时代,用户已成为企业竞争的核心资产,而“理解用户”则是激活这一资产的关键。用户行为分析系统(User Behavior Analys ...
2025-12-19在数字化转型的深水区,企业对数据价值的挖掘不再局限于零散的分析项目,而是转向“体系化运营”——数据治理体系作为保障数据全 ...
2025-12-19在数据科学的工具箱中,析因分析(Factor Analysis, FA)、聚类分析(Clustering Analysis)与主成分分析(Principal Component ...
2025-12-18自2017年《Attention Is All You Need》一文问世以来,Transformer模型凭借自注意力机制的强大建模能力,在NLP、CV、语音等领域 ...
2025-12-18在CDA(Certified Data Analyst)数据分析师的时间序列分析工作中,常面临这样的困惑:某电商平台月度销售额增长20%,但增长是来 ...
2025-12-18在机器学习实践中,“超小数据集”(通常指样本量从几十到几百,远小于模型参数规模)是绕不开的场景——医疗领域的罕见病数据、 ...
2025-12-17数据仓库作为企业决策分析的“数据中枢”,其价值完全依赖于数据质量——若输入的是缺失、重复、不一致的“脏数据”,后续的建模 ...
2025-12-17在CDA(Certified Data Analyst)数据分析师的日常工作中,“随时间变化的数据”无处不在——零售企业的每日销售额、互联网平台 ...
2025-12-17在休闲游戏的运营体系中,次日留存率是当之无愧的“生死线”——它不仅是衡量产品核心吸引力的首个关键指标,更直接决定了后续LT ...
2025-12-16在数字化转型浪潮中,“以用户为中心”已成为企业的核心经营理念,而用户画像则是企业洞察用户、精准决策的“核心工具”。然而, ...
2025-12-16在零售行业从“流量争夺”转向“价值深耕”的演进中,塔吉特百货(Target)以两场标志性实践树立了行业标杆——2000年后的孕妇精 ...
2025-12-15