应用场景是这样的,
一个对外的接口【接口C】,部署在一台WEB服务器A上,这个接口需要调用服务器B和服务器C上相应功能的接口才能让【接口C】正常运行。
请问如何做负载均衡和或服务器集群?公司打算购买新服务器B和新服务器C,以及WEB服务器A,架构该如何处理?
任意功能上不应该存在单点,所以你a,b,c前面都需要负载均衡。然后根据a,b,c的压力再考虑机器的多少。
现在的实际情况是,一台接口服务器(webservice)可以同时连接很多个,如并发1000,但后台的B和C服务器,只允许连接100个并发连接,这个时候我们是考虑要增加B和C服务器,但数据库1000的压力也是不大的
@paaple: 这些理论数据只能作为参考,你可以通过线上配置了观察使用情况后再进行调配。
关于数据库的,最好提前做好准备,因为你可能无法预计当前面都能正常后这里会不会成为瓶颈。简单的做法就是做集群,这个和负载均衡没太大关系了。
数据库有多套,程序部署多套,想办法在这几台服务器之间同步数据库差异。然后一个负载均衡设备平均分配请求到不同的服务器上。
接口服务器只有一台,数据库只有一个,但是B,C服务器有多台这样应该也可以吧?我们的应用性能慢主要是在B,C服务器上,这样是不是也可以?
nginx 负载均衡