首页 新闻 会员 周边 捐助

日增长500W记录于一个table,一年后会怎么样?

0
[已解决问题] 解决于 2012-07-12 13:35

对于数据库的一个表,如此的增长速度,一年后大概会有10亿的记录,这个表撑得住吗? 访问效率将会如何,有碰到过的没?

阿龍的主页 阿龍 | 菜鸟二级 | 园豆:268
提问于:2012-07-04 10:17
< >
分享
最佳答案
0

如果硬件不成为瓶颈,能不能撑得住与访问效率取决于索引是否合理。

建议分表或者分区

奖励园豆:5
dudu | 高人七级 |园豆:29759 | 2012-07-04 10:28

分区表不可能的,现在是把所有表合并成一张表。上头的意思……

阿龍 | 园豆:268 (菜鸟二级) | 2012-07-06 11:19

@阿龍: 那就更好的硬件+合理的索引

dudu | 园豆:29759 (高人七级) | 2012-07-06 11:22

@dudu: 看来没有好的方案了。等半年一年后我再看看结果会怎么样吧。

阿龍 | 园豆:268 (菜鸟二级) | 2012-07-06 21:36
其他回答(4)
0

撑得住,不过访问效率会越来越慢,这数据量太大了,建议优化。

jerry-Tom | 园豆:4077 (老鸟四级) | 2012-07-04 10:19
0

按照一定的时间,创建分区表,查询的时候,根据参数到指定的表分区去查询

Angkor--:-- | 园豆:1086 (小虾三级) | 2012-07-04 11:13
0

之前弄了个一亿数据的表,慢死。

还是分区表吧,索引也是必须的。

massinger | 园豆:706 (小虾三级) | 2012-07-04 11:54
0

这个能不能撑得住,不是简单的一两句话就能解决的,这个要考虑很多因素,不如查询的网络速度,硬件瓶颈等等。当你有这样的数据量的时候,估计你也不缺帮你优化的人才,不缺硬件服务器之类的。现在我们数据量大点的表,都是根据规律进行拆分表,这样就不数据分开在多个表中,当然索引这些优化都是必不可少的。

pasig10038 | 园豆:387 (菜鸟二级) | 2012-07-04 13:11
清除回答草稿
   您需要登录以后才能回答,未注册用户请先注册