配置多服务集群之初说负载均衡原理-ngnix负载均衡入门
作者:互联网
引言:打算开一个nigix专题,和一个.net core跨平台专题
背景:目前大多数单体服务,什么是单机服务呢,顾名思义便是单服务器支撑业务逻辑,即客户端-服务器,一旦碰上多客户端都请求服务,或者业务发生频繁便会崩溃,尤其是电商环境,例如某天猫,某博都是存在类似问题,这时候很简单,做横向扩展,即多个服务集群,这时候多服务器的时候便会有问题,这时候需要一个东西管理多服务器-nginx;
nginx作为一个转发请求的代理,也许更专业的名称可以这么说,叫做负载均衡。
话不多说,来个最初的策略-轮询策略,解释一下这张图,访问ngnix地址,9090端口监听到请求,经过转发代理,到一个webapi群组,然后在群组里配置各种集群策略,我在下图中简单举了一个轮询策略的例子,集群中我依次配置了一个三台服务器的轮询,这也是最简单的策略(后续有机会我会横向讲讲),每次请求都会到达不同的服务器,这样均衡的分担请求压力,三台服务器性能去做一台服务器的事,有效防止服务器崩溃。
这样做的一个好处,不言而喻,从上层降低服务器压力,优化软件系统。OK,后面可以做个实验,用端口号代替不同服务器发布几个IIS服务。今天主要讲的是负载均衡的原理,接下来会分几章详细谈谈负载均衡的应用,同时会将一些net core的实例这样配合着讲,为什么讲asp.net core呢而不是net 6 呢,因为net core 集成主机,能跨平台,而.net 除了做上位机,CS端基本上跟不上net core的脚步了。尤其是前后端分离。
标签:core,负载,轮询,ngnix,均衡,服务器,net 来源: https://www.cnblogs.com/hamster5/p/15982584.html