首页 新闻 会员 周边 捐助

MSSQL大数据量写入 查询优化

0
悬赏园豆:5 [已解决问题] 解决于 2015-04-07 14:18

现有一项目,采集点1000多个,要求每500ms一条采集数据写入数据库

那么50秒就是1000条数据, 初步安装一分钟100条数据

一年17280000条数据, 数据库的结构不算复杂,5个字段

id(int  PK),cateid(int 采集点ID),PPM(varchar 检测值),datetime(datetime 时间)

问题:
1.如果考虑长期的运行,数据库的量不断增大,该如何进行合理的优化.

2.有没有必要做表分区?

3.可不可以按照监测节点独立建表?

[硬件方面是8核cpu,磁盘阵列,固态硬盘,32G内存,win2008系统]

PKSEO_dudu的主页 PKSEO_dudu | 初学一级 | 园豆:9
提问于:2015-04-07 10:54
< >
分享
最佳答案
0
收获园豆:5
dudu | 高人七级 |园豆:30778 | 2015-04-07 11:20

谢谢

PKSEO_dudu | 园豆:9 (初学一级) | 2015-04-07 11:28
清除回答草稿
   您需要登录以后才能回答,未注册用户请先注册