摘要: 当网站已经有不少用户了之后,随着企业业务的不断深入,网站的用户也会不断增加,那么服务器需要同事承载的用户数也在不断的增加,服务器的配置是既定的,如何才能增加服务器承载
当网站已经有不少用户了之后,随着企业业务的不断深入,网站的用户也会不断增加,那么服务器需要同事承载的用户数也在不断的增加,服务器的配置是既定的,如何才能增加服务器承载能力呢?纵横数据分享:
一、负载均衡
对于用户数较多、负载较大的网站,通常都会使用负载均衡(LB:LoadBalance)来增加服务器的承载能力。负载均衡有很多种不同的实现方式,从实现方式看,可以分为硬件负载均衡与软件负载均衡两大类。
硬件负载均衡有大名鼎鼎的F5之类,这种不差钱的企业会采用。但是现在互联网公司用的越来越少。现在硬件使用较多的是使用支持OSPF协议的交换机(基本都支持了),通过ECMP做的负载均衡集群。但硬件负载均衡解决方案也有缺点,比如设备和服务费用昂贵,灵活性差,功能和容量都难以扩展。
软件负载均衡相对来说,灵活性强,扩展起来更容易,所以软件负载均衡解决方案越来越受到青睐。
负载均衡到底是怎么回事可以看看下面这个例子:
例如:
想象下有一万个用户在一分钟内来访问你的服务器。
遗憾的是,你的服务器在一分钟内只能保证5千个用户的流畅访问。这怎么办呢?同时运行两个服务器就行了,就是增加了服务器来分配负载。
负载均衡器的功能就是把访问请求分发到两台服务器上。用户1往左,用户2往右,用户3再往左。。。以此类推。
如果一次有100万个用户同时访问服务器,这该怎么解决呢?确切地说,你可以扩展到200台付款服务器,之后让负载均衡器分发请求到这200服务器上。
二、缓存和内容分发网络(CDN)
我们使用缓存而不是对每个请求都重新处理,缓存用于记住最后一次的结果并交由其他服务或者客户端,这样就不用每次都请求后端服务了。
简单的说,CDN的工作原理就是将您源站的资源缓存到位于全球各地的CDN节点上,用户请求资源时,就近返回节点上缓存的资源,而不需要每个用户的请求都回您的源站获取,避免网络拥塞、缓解源站压力,保证用户访问资源的速度和体验
三、分片处理
分片究竟是什么意思呢?其实也很简单:Facebook上需要为20亿用户提供个人资料,可以把你的应用架构分解为26个mini-Facebook。
用户名如果以A开头,会被mini-facebookA服务器处理,用户名如果以B开头,会被mini-facebookB服务器来处理……
分片不一定按字母顺序,根据业务需要,你可以基于任何数量的因素,比如位置、使用频率(特权用户被路由到好的硬件)等等。你可以根据需要以这种方式切分服务器、数据库或其他方面。
相关文章推荐
智能手机建站的优点是什么?网站页面布局有哪些关键点? 2022-01-10
2022年中国云计算面临的问题及发展前景预测分析2021-12-28
绿色智能基础设施连接可持续未来-IDCC2021万国数据第一代Smart DC发布会议程揭晓2021-12-27
阿里云:早期未意识到Apache log4j2漏洞情况的严重性 将强化漏洞管理2021-12-27
云计算开发:Python3-replace()方法详解2021-12-27