其他分享
首页 > 其他分享> > LVS负载均衡集群--DR模式

LVS负载均衡集群--DR模式

作者:互联网

目录

一、LVS-DR集群介绍

LVS-DR(Linux Virtual Server Director Server)工作模式,是生产环境中最常用的一 种工作模式。

1、LVS-DR 工作原理

LVS-DR 模式,Director Server 作为群集的访问入口,不作为网关使用,节点 Director Server 与 Real Server 需要在同一个网络中,返回给客户端的数据不需要经过 Director Server。为了响应对整个群集的访问,Director Server 与 Real Server 都需要配置 VIP 地址。

2、 数据包流向分析

为方便进行原理分析,将Client与群集机器放在同一网络中,数据包流经的路线为 1-2-3-4 四步

第一步:客户端发送请求到 Director Server (负载均衡器),请求的数据报文到达内核空间。

此时请求的数据报文
源 IP —— 客户端的 IP(CIP)
目标 IP —— VIP
源 MAC —— 客户端的 MAC
目的 MAC —— Director Server 的 MAC

第二步:内核空间判断数据包的目标 IP 是本机 VIP,此时 IPVS(IP 虚拟服务器)比对数据包请求的服务是否是集群服务,是集群服务就重新封装数据包。然后将数据包发送给根据 负载均衡算法选择的 Real Server。(Director Server 和 Real Server 在同一个网络中,数据通过二层数据链路层来传输。)

此时请求的数据报文
源 IP —— 客户端的 IP
目标 IP —— VIP
源 MAC —— Director Server 的 MAC
目的 MAC —— Real Server 的 MAC

第三步:到达 Real Server 的请求报文的 MAC 地址是自身的 MAC 地址,就接收此报文。数据包重新封装报文,将响应报文通过 lo 接口传送给物理网卡然后向外发出。

此时请求的数据报文
源 IP —— VIP
目标 IP —— 客户端的 IP(CIP)
源 MAC —— Real Server 的 MAC
目的 MAC —— 客户端的 MAC

第四步:通过交换机和路由器将响应报文传送到客户端。客户端收到回复报文,得到想要的服务,但是不会知道是哪台服务器处理的。

3、LVS-DR 模式的特点

Director Server 和 Real Server 必须在同一个物理网络中。

Real Server 可以使用私有地址,也可以使用公网地址。如果使用公网地址,可以通过互联网对RIP进行直接访问。

所有的请求报文经由 Director Server,但回复响应报文不能经过 Director Server。

Real Server 的网关不允许指向 Director Server IP,即不允许数据包经过 Director S erver。

Real Server 上的 lo 接口配置 VIP 的 IP 地址。

4、LVS-DR中的ARP问题

4.1 问题一

在LVS-DR负载均衡集群中,负载均衡器与节点服务器都要配置相同的VIP地址,在局域网中具有相同的IP地址。势必会造成各服务器ARP通信的紊乱

当ARP广播发送到LVS-DR集群时,因为负载均衡器和节点服务器都是连接到相同的网络上,它们都会接收到ARP广播

只有前端的负载均衡器进行响应,其他节点服务器不应该响应ARP广播

解决方法:

节点服务器进行处理,使其不响应针对VIP的ARP请求

使用虚接口lo:0承载VIP地址

设置内核参数arp_ ignore=1: 系统只响应目的IP为本地IP的ARP请求

4.2问题二

问题说明:RealServer返回报文(源IP是VIP)经路由器转发,重新封装报文时,需要先获取路由器的MAC地址,发送ARP请求时,Linux默认使用IP包的源IP地址(即VIP)作为ARP请求包中的源IP地址,而不使用发送接口的IP地址,路由器收到ARP请求后,将更新ARP表项,原有的VIP对应Director的MAC地址会被更新为VIP对应RealServer的MAC地址。

路由器根据ARP表项,会将新来的请求报文转发给RealServer,导致Director的VIP失效

解决方法:

节点服务器进行处理,设置内核参数arp_announce=2:系统不使用IP包的源地址来设置ARP请求的源地址,而选择发送接口的IP地址

二、构建LVS-DR集群的步骤

实验环境准备:

DR 服务器:192.168.2.66
Web 服务器1:192.168.2.105
Web 服务器2:192.168.229.200
NFS共享服务器:192.168.229.100
vip:192.168.229.67
客户端:192.168.2.1

1、配置负载调度器(192.168.2.66)

systemctl stop firewalld.service
setenforce 0
modprobe ip_vs
cat /proc/net/ip_vs
yum -y install ipvsadm

1.1 配置虚拟 IP 地址(VIP:192.168.2.67)

cd /etc/sysconfig/network-scripts/
cp ifcfg-ens33 ifcfg-ens33:0                #若隧道模式,复制为ifcfg-tunl0
vim ifcfg-ens33:0
DEVICE=ens33:0
ONBOOT=yes
IPADDR=192.168.2.6
NETMASK=255.255.255.255
 
ifup ens33:0
ifconfig ens33:0
route add -host 192.168.229.188 dev ens33:0

1.2 调整 proc 响应参数

由于 LVS 负载调度器和各节点需要共用 VIP 地址,应该关闭Linux 内核的重定向参数响应。
vim /etc/sysctl.conf
net.ipv4.ip_forward = 0
net.ipv4.conf.all.send_redirects = 0
net.ipv4.conf.default.send_redirects = 0
net.ipv4.conf.ens33.send_redirects = 0
 
sysctl -p

1.3 配置负载分配策略

ipvsadm-save > /etc/sysconfig/ipvsadm
systemctl start ipvsadm
 
ipvsadm -C
ipvsadm -A -t 192.168.229.67:80 -s rr
ipvsadm -a -t 192.168.229.67:80 -r 192.168.2.105:80 -g            #若隧道模式,-g替换为-i
ipvsadm -a -t 192.168.229.67:80 -r 192.168.2.200:80 -g
ipvsadm
 
ipvsadm -ln                 #查看节点状态,Route代表 DR模式

2.部署共享存储(NFS服务器:192.168.229.100)

systemctl stop firewalld.service
systemctl disable firewalld.service
setenforce 0
 
yum install nfs-utils rpcbind -y
systemctl start nfs.service
systemctl start rpcbind.service
systemctl enable nfs.service
systemctl enable rpcbind.service
 
mkdir /opt/ly /opt/weq
chmod 777 /opt/ly /opt/weq
 
echo 'this is xkq web!' > /opt/ly/index.html
echo 'this is wy web!' > /opt/weq/index.html
 
vim /etc/exports
/opt/xkq 192.168.2.0/24(rw,sync)
/opt/wy 192.168.2.0/24(rw,sync)
 
--发布共享---
exportfs -rv  

3.配置节点服务器(192.168.2.105、192.168.2.200)

systemctl stop firewalld.service
setenforce 0

3.1 配置虚拟 IP 地址(VIP:192.168.2.67)

此地址仅用作发送Web响应数据包的源地址,并不需要监听客户机的访问请求(改由调度器监听并分发)。因此使用虚接口lo:0来承载VIP地址,并为本机添加一条路由记录,将访问VIP的数据限制在本地,以避免通信紊乱。

cd /etc/sysconfig/network-scripts/
cp ifcfg-ens33 ifcfg-lo:0      
vim ifcfg-lo:0
DEVICE=lo:0
ONBOOT=yes
IPADDR=192.168.2.67                    #和VIP保持一致
NETMASK=255.255.255.255                     #注意:子网掩码必须全为 1
ifup lo:0
ifconfig lo:0
route add -host 192.168.2.67 dev lo:0        #添加VIP本地访问路由,将访问VIP的数据限制在本地,以避免通信紊乱
 
vim /etc/rc.local
/sbin/route add -host 192.168.2.67 dev lo:0
chmod +x /etc/rc.local

3.2 调整内核的ARP响应参数以阻止更新VIP的MAC地址,避免发生冲突

vim /etc/sysctl.conf
......
net.ipv4.conf.lo.arp_ignore = 1         #系统只响应目的IP为本地IP的ARP请求
net.ipv4.conf.lo.arp_announce = 2       #系统不使用IP包的源地址来设置ARP请求的源地址,而选择发送接口的IP地址
net.ipv4.conf.all.arp_ignore = 1
net.ipv4.conf.all.arp_announce = 2
 
sysctl -p
 
或者临时添加
 
echo "1" >/proc/sys/net/ipv4/conf/lo/arp_ignore
echo "2" >/proc/sys/net/ipv4/conf/lo/arp_announce
echo "1" >/proc/sys/net/ipv4/conf/all/arp_ignore
echo "2" >/proc/sys/net/ipv4/conf/all/arp_announce
 
sysctl -p
 
yum -y install nfs-utils rpcbind httpd
systemctl start rpcbind
systemctl start httpd  

3.3 共享挂载目录

yum -y install nfs-utils rpcbind httpd
systemctl start rpcbind
systemctl start httpd
 
--192.168.2.105---
mount.nfs 192.168.2.105:/opt/xkq /var/www/html
 
--192.168.2.200---
mount.nfs 192.168.2.200:/opt/wy /var/www/html

4、测试 LVS 群集

在客户端使用浏览器访问 http://192.168.2.11 

三、实例操作:构建LVS-DR集群

1、配置负载调度器(192.168.2.66)


  

1.1 配置虚拟 IP 地址(VIP:192.168.2.67)

1.2 调整 proc 响应参数

1.3 配置负载分配策略


  

2.部署共享存储(NFS服务器:192.168.2.100)


  

3.配置节点服务器(192.168.2.105、192.168.2.200)

3.1 配置虚拟 IP 地址(VIP:192.168.2.67)

节点服务器1(192.168.2.105)
 


  

节点服务器2(192.168.229.70)  

3.2 调整内核的ARP响应参数以阻止更新VIP的MAC地址,避免发生冲突

节点服务器1(192.168.2.105)


    

节点服务器2(192.168.2.200)  

3.3 共享挂载目录

节点服务器1(192.168.2.105)


 

节点服务器2(192.168.2.200)  


  

4、测试 LVS 群集

在客户端使用浏览器访问 http://192.168.2.67

  

标签:LVS,--,IP,MAC,192.168,Server,VIP,DR
来源: https://www.cnblogs.com/xkqwy/p/16275146.html