目前有个站点,就如下几个页面<页面都是[一般处理程序],其他两个.aspx页面没有用到,内部测试用>,基本都是get方式请求,目前的访问量是每天30万左右,基本上是一秒内可达到三次,如果以后业务量再大的话,可能会出现一些情况[具体情况现在无法确定,比如访问超时啊,页面假死啊,IIS崩溃..等等...],为了预防这样的问题出现,想请各位大虾指点迷津,给一些具体的方案.当然也给我们这些童鞋们一个学习机会,在此不胜感激![说明:此站点主要用于数据录入,而且页面会有返回结果,页面里面基本没有什么复杂业务逻辑,就是简单的判断,然后把数据插入数据库,一些简单的业务逻辑都放在了"存储过程"里面]
目前我自己能想到的: 优化程序,把服务器硬件升级.像站点分流,数据库集群这些我都不了解.
我mark一下,听听.net的集群、负载均衡如何做,我也菜鸟
.net的程序,没有复杂逻辑,那通常是数据库先达到瓶颈,解决数据库的负载比较优先。可以先把程序稍做修改,预留多数据库服务器支持,比如把表水平分割,每个ID段读写某一台服务器这样子,必要的时候随时可以买新服务器加进来。
然后如果IIS到顶了,那最好在前面加一台linux+nginx的服务器做负载分发,然后放个三五台机器,部署上一模一样的web站,就OK了,数据库部分这时候基本不用做任何修改。
这是我能想到的最简单的负载处理方式了。至于sql server的集群啊,复制啊啥的,比这要更复杂的多。
谢谢你的回答. 基于目前的情况,我想找到一些行之有效的方法,像您说的这些应该也是可以解决这方面问题的,不过我没有关于服务器架构这方面的专业知识,要了解可能不是几天的时间.不过您的回答也给我了一些想法.
等你IIS 一秒钟去到300次再考虑吧