现有一项目,采集点1000多个,要求每500ms一条采集数据写入数据库
那么50秒就是1000条数据, 初步安装一分钟100条数据
一年17280000条数据, 数据库的结构不算复杂,5个字段
id(int PK),cateid(int 采集点ID),PPM(varchar 检测值),datetime(datetime 时间)
问题:
1.如果考虑长期的运行,数据库的量不断增大,该如何进行合理的优化.
2.有没有必要做表分区?
3.可不可以按照监测节点独立建表?
[硬件方面是8核cpu,磁盘阵列,固态硬盘,32G内存,win2008系统]