这个,有点夸张。使用bulkCopy,每秒3000条的话,都要10个小时才上亿。
@imfunny: 额,我用这个做导入的时候,大概就这速度。哈哈。没多线程,单行字段比较多,60来个。
@幻天芒: 60个字段也有点恐怖,不过字段多了的确速度会降低不少。
太看得起SQLServer了
也没那么差的了
@imfunny: 项目中没用过,所以一直没怎么看好,失敬失敬
一亿条使用bulkCopy,应该不是问题。
每秒3000条的话,真的太慢了。我在普通的台式机上测试每秒可达10万条数据。
我测试过单表2.1亿插入,这个是在ssms中提前创建一份样本数据20w,然后根据这份样本数据生成最终数据量2.1亿,因为插入过程中在数据库恢复模式为simple的情况下,在2个核心数的虚拟机中sql server 2016中完成生成数据的全部过程,实际也没有超过40分钟,这样预估平均每秒插入8.75w。因为在虚拟机中做的测试,物理中没有创造过这么大的数据库,跟多的单表1000w级别的,也是很快的。