首页 新闻 会员 周边 捐助

当数据达到上千条时,有没有什么好的优化方案?

0
[已解决问题] 解决于 2017-11-16 10:55

首先假设网络状态不是很好。

我好不容易从某个地方获取到一千左右的数据。现在我需要把我获取到的数据存到数据库中,然而我的数据库是在云上。

我获取到的数据是json字符串,我会先将字符串解析为一个List<Model>  testa

然后使用EF Entity.AddRange(testa)

然后savechange

可是效果不是很理想。

请问像这样的情况,我是将一千条数据分割后添加比较好呢?

还是先循环Entity.Add()

最后savechange() ?

还是还有别的什么方法?

求大神给个思路。。

临冰听雪丶的主页 临冰听雪丶 | 初学一级 | 园豆:175
提问于:2017-11-15 18:42
< >
分享
最佳答案
0

首先假设我的网络很烂,PING 渣浪都是几百MS的,还经常丢包,请问该如何在1分钟内上传1G文件?

 

最好的方案是先优化网络,网络都不好了,啥都不用说了。网络好了,一次几万条也没事。

奖励园豆:5
爱编程的大叔 | 高人七级 |园豆:30844 | 2017-11-15 20:48
其他回答(4)
0

走队列可否?

Daniel Cai | 园豆:10424 (专家六级) | 2017-11-15 19:22
0

本地保存一个备份,保存数据库成功后删除本地的备份,可以以后台任务的方式操作

dudu | 园豆:30948 (高人七级) | 2017-11-15 20:30
0

没什么好优化的。最好的优化方式是花钱升级云服务

吴瑞祥 | 园豆:29449 (高人七级) | 2017-11-15 22:31
0

一千条,没必要分批次,可以转换为DataTable,再使用SqlBulkCopy,速度很快。C#使用SqlBulkCopy插入数据库

刘文天 | 园豆:223 (菜鸟二级) | 2017-11-18 19:15
清除回答草稿
   您需要登录以后才能回答,未注册用户请先注册