0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

搭建Keepalived+Lvs+Nginx高可用集群负载均衡

jf_ro2CN3Fa 来源:芋道源码 2023-06-25 15:39 次阅读

一、Nginx安装

二、配置反向代理

三、配置负载均衡

四、upstream指令参数

五、配置ssl证书提供https访问

六、配置ha nginx

七、LVS(Linux Virtual Server)实现高可用负载均衡

附:LVS的负载均衡算法

八、搭建Keepalived+Lvs+Nginx高可用集群负载均衡

一、Nginx安装

1、去官网http://nginx.org/下载对应的nginx包,推荐使用稳定版本

2、上传nginx到linux系统

3、安装依赖环境

(1)安装gcc环境

yuminstallgcc-c++

(2)安装PCRE库,用于解析正则表达式

yuminstall-ypcrepcre-devel

(3)zlib压缩和解压缩依赖

yuminstall-yzlibzlib-devel

(4)SSL 安全的加密的套接字协议层,用于HTTP安全传输,也就是https

yuminstall-yopensslopenssl-devel

4、解压,需要注意,解压后得到的是源码,源码需要编译后才能安装

tar-zxvfnginx-1.16.1.tar.gz

5、编译之前,先创建nginx临时目录,如果不创建,在启动nginx的过程中会报错

mkdir/var/temp/nginx-p

6、在nginx目录,输入如下命令进行配置,目的是为了创建makefile文件

./configure
--prefix=/usr/local/nginx
--pid-path=/var/run/nginx/nginx.pid
--lock-path=/var/lock/nginx.lock
--error-log-path=/var/log/nginx/error.log
--http-log-path=/var/log/nginx/access.log
--with-http_gzip_static_module
--http-client-body-temp-path=/var/temp/nginx/client
--http-proxy-temp-path=/var/temp/nginx/proxy
--http-fastcgi-temp-path=/var/temp/nginx/fastcgi
--http-uwsgi-temp-path=/var/temp/nginx/uwsgi
--http-scgi-temp-path=/var/temp/nginx/scgi

注:代表在命令行中换行,用于提高可读性配置命令:

f14450c6-1184-11ee-962d-dac502259ad0.png

7、make编译&安装

make
makeinstall

8、进入sbin目录启动nginx

启动:nginx停止:./nginx -s stop重新加载:./nginx -s reload

基于 Spring Boot + MyBatis Plus + Vue & Element 实现的后台管理系统 + 用户小程序,支持 RBAC 动态权限、多租户、数据权限、工作流、三方登录、支付、短信、商城等功能

项目地址:https://github.com/YunaiV/ruoyi-vue-pro

视频教程:https://doc.iocoder.cn/video/

二、配置反向代理

1、配置upstream

upstream[proxyName]{
server192.168.1.173:8080;
server192.168.1.174:8080;
server192.168.1.175:8080;
}

2、配置server

server{
listem80;
server_namewww.tomcats.com;

location/{
proxy_passhttp://tomcats;
}
}

基于 Spring Cloud Alibaba + Gateway + Nacos + RocketMQ + Vue & Element 实现的后台管理系统 + 用户小程序,支持 RBAC 动态权限、多租户、数据权限、工作流、三方登录、支付、短信、商城等功能

项目地址:https://github.com/YunaiV/yudao-cloud

视频教程:https://doc.iocoder.cn/video/

三、配置负载均衡

nginx默认采用轮训的方式进行负载均衡

1、使用加权轮询

upstream[proxyName]{
server192.168.1.173:8080weight=1;
server192.168.1.174:8080weight=5;
server192.168.1.175:8080weight=2;
}

2、hash负载均衡

upstream[proxyName]{
ip_hash

server192.168.1.173:8080;
server192.168.1.174:8080;
server192.168.1.175:8080;
}

hash算法实际上只会计算 192.168.1这段做哈希

使用ip_hash的注意点:

不能把后台服务器直接移除,只能标记down.

3、url hash负载均衡

upstream[proxyName]{
hash$request_url;

server192.168.1.173:8080;
server192.168.1.174:8080;
server192.168.1.175:8080;
}

4、最小连接负载均衡

upstream[proxyName]{
least_conn;

server192.168.1.173:8080;
server192.168.1.174:8080;
server192.168.1.175:8080;
}

四、upstream指令参数

max_conns:限制最大同时连接数 1.11.5之前只能用于商业版

slow_start:单位秒,权重在指定时间内从1上升到指定值,不适用与hash负载均衡、随机负载均衡 如果在 upstream 中只有一台 server,则该参数失效(商业版才有)

down:禁止访问

backup:备用机 只有在其他服务器无法访问的时候才能访问到 不适用与hash负载均衡、随机负载均衡

max_fails:表示失败几次,则标记server已宕机,剔出上游服务 默认值1

fail_timeout:表示失败的重试时间 默认值10

1、keepalived

upstream[proxyName]{
server192.168.1.173:8080weight=1;
server192.168.1.174:8080weight=5;
server192.168.1.175:8080weight=2;

keepalive32;#保持的连接数
}

server{
listem80;
server_namewww.tomcats.com;

location/{
proxy_passhttp://tomcats;
proxy_http_version1.1;#连接的协议版本
proxy_set_headerConnection"";清空连接请求头
}
}

2、控制浏览器缓存

server{
listem80;
server_namewww.tomcats.com;

location/{
proxy_passhttp://tomcats;
expires10s;#浏览器缓存10秒钟
#expires@22h30m#在晚上10点30的时候过期
#expires-1h#缓存在一小时前时效
#expiresepoch#不设置缓存
#expiresoff#缓存关闭,浏览器自己控制缓存
#expiresmax#最大过期时间
}
}

3、反向代理缓存

upstream[proxyName]{
server192.168.1.173:8080weight=1;
server192.168.1.174:8080weight=5;
server192.168.1.175:8080weight=2;
}

#proxy_cache_path设置缓存保存的目录的位置
#keys_zone设置共享内以及占用的空间大小
#mas_size设置缓存最大空间
#inactive缓存过期时间,错过此时间自动清理
#use_temp_path关闭零时目录
proxy_cache_path/usr/local/nginx/upsteam_cachekeys_zone=mycache:5mmax_size=1ginactive=8huse_temp_path=off;

server{
listem80;
server_namewww.tomcats.com;
#开启并使用缓存
proxy_cachemycache;
#针对200和304响应码的缓存过期时间
proxy_cache_valid2003048h;

location/{
proxy_passhttp://tomcats;
}
}

五、配置ssl证书提供https访问

1. 安装SSL模块

要在nginx中配置https,就必须安装ssl模块,也就是: http_ssl_module。

进入到nginx的解压目录:/home/software/nginx-1.16.1

新增ssl模块(原来的那些模块需要保留)

./configure
--prefix=/usr/local/nginx
--pid-path=/var/run/nginx/nginx.pid
--lock-path=/var/lock/nginx.lock
--error-log-path=/var/log/nginx/error.log
--http-log-path=/var/log/nginx/access.log
--with-http_gzip_static_module
--http-client-body-temp-path=/var/temp/nginx/client
--http-proxy-temp-path=/var/temp/nginx/proxy
--http-fastcgi-temp-path=/var/temp/nginx/fastcgi
--http-uwsgi-temp-path=/var/temp/nginx/uwsgi
--http-scgi-temp-path=/var/temp/nginx/scgi
--with-http_ssl_module

编译和安装

makemakeinstall

2、配置HTTPS

把ssl证书 *.crt 和 私钥 *.key 拷贝到/usr/local/nginx/conf目录中。

新增 server 监听 443 端口

server{
listen443;
server_namewww.imoocdsp.com;
#开启ssl
sslon;
#配置ssl证书
ssl_certificate1_www.imoocdsp.com_bundle.crt;
#配置证书秘钥
ssl_certificate_key2_www.imoocdsp.com.key;
#ssl会话cache
ssl_session_cacheshared1m;
#ssl会话超时时间
ssl_session_timeout5m;
#配置加密套件,写法遵循openssl标准
ssl_protocolsTLSv1TLSv1.1TLSv1.2;
ssl_ciphersECDHE-RSA-AES128-GCM-SHA256!aNULL!RC4:!DHE;
ssl_prefer_server_cipherson;

location/{
proxy_passhttp://tomcats/;
indexindex.htmlindex.htm;
}
}

六、配置ha nginx

1、安装keepalived

(1)下载

https://www.keepalived.org/download.html

(2)解压

tar-zxvfkeepalived-2.0.18.tar.gz

(3)使用configure命令配置安装目录与核心配置文件所在位置:

./configure--prefix=/usr/local/keepalived--sysconf=/etc

prefix :keepalived安装的位置sysconf:keepalived核心配置文件所在位置,固定位置,改成其他位置则keepalived启动不了,/var/log/messages中会报错

sysconf :keepalived核心配置文件所在位置,固定位置,改成其他位置则keepalived启动不了,/var/log/messages中会报错

配置过程中可能会出现警告信息,如下所示:

***WARNING-thisbuildwillnotsupportIPVSwithIPv6.Pleaseinstalllibnl/libnl-3devlibrariestosupportIPv6withIPVS.

#安装libnl/libnl-3依赖
yum-yinstalllibnllibnl-devel

(4)安装keepalived

make&&makeinstall

(5)配置文件 在/etc/keepalived/keepalived.conf

(6)忘记安装配置的目录,则通过如下命令找到:

whereiskeepalived

(7)启动keepalived

进入sbin目录

./keepalived

2、配置keepalived 主机

(1)通过命令 vim keepalived.conf 打开配置文件

global_defs{
#路由id:当前安装keepalived的节点主机标识符,保证全局唯一
router_idkeep_171
}

vrrp_instanceVI_1{
#表示状态是MASTER主机还是备用机BACKUP
stateMASTER
#该实例绑定的网卡
interfaceens33
#保证主备节点一致即可
virtual_router_id51
#权重,master权重一般高于backup,如果有多个,那就是选举,谁的权重高,谁就当选
priority100
#主备之间同步检查时间间隔,单位秒
advert_int2
#认证权限密码,防止非法节点进入
authentication{
auth_typePASS
auth_pass1111
}
#虚拟出来的ip,可以有多个(vip)
virtual_ipaddress{
192.168.1.161
}
}

附:查看网卡信息命令

ipaddr

(2)启动keepalived

(3)查看进程

ps-ef|grepkeepalived

(4)查看vip(虚拟ip)

在网卡ens33下,多了一个192.168.1.161,这个就是虚拟ip

3、把keepalived注册为系统服务

(1)拷贝配置文件

将keepalived目录下etc/init.d/keepalived拷贝到/etc/init.d/下

将keepalived目录下etc/sysconfig/keepalived拷贝到/etc/sysconfig/下

(2)刷新systemctl

systemctldaemon-reload

(3)启动、停止、重启keepalived

#启动
systemctlstartkeepalived.service
#停止
systemctlstopkeepalived.service
#重启
systemctlrestartkeepalived.service

4、实现双机主备高可用

f15e5f5c-1184-11ee-962d-dac502259ad0.png

(1)修改备机配置

global_defs{
router_idkeep_172
}
vrrp_instanceVI_1{
#备用机设置为BACKUP
stateBACKUP
interfaceens33
virtual_router_id51
#权重低于MASTER
priority80
advert_int2
authentication{
auth_typePASSauth_pass1111
}
virtual_ipaddress{
#注意:主备两台的vip都是一样的,绑定到同一个vip 
192.168.1.161
}
}

(2) 启动 Keepalived

(3) 访问vip即可访问主机,当主机失效时访问vip就会访问到备机

5、keepalived配置nginx自动重启

(1)编写脚本

在/etc/keepalived/下创建脚本check_nginx_alive_or_not

#!/bin/bash

A=`ps-Cnginx--no-header|wc-l`
#判断nginx是否宕机,如果宕机了,尝试重启
if[$A-eq0];then
/usr/local/nginx/sbin/nginx
#等待一小会再次检查nginx,如果没有启动成功,则停止keepalived,使其启动备用机
sleep3
if[`ps-Cnginx--no-header|wc-l`-eq0];then
killallkeepalived
fi
fi

(2)添加运行权限

chmod+x/etc/keepalived/check_nginx_alive_or_not.sh

(3)配置keepalived监听nginx脚本

vrrp_scriptcheck_nginx_alive{
script"/etc/keepalived/check_nginx_alive_or_not.sh"
interval2#每隔两秒运行上一行脚本
weight10#如果脚本运行失败,则升级权重+10
}

(4)在vrrp_instance中新增监控的脚本

track_script{
check_nginx_alive#追踪nginx脚本
}

(5)重启Keepalived使得配置文件生效

systemctlrestartkeepalived

6、keepalived双主热备

(1)配置DNS轮询

在同一个域名下配置两个ip,自行百度

(2)配置第一台主机

global_defs{
router_idkeep_171
}
vrrp_instanceVI_1{
stateMASTERi
nterfaceens33
virtual_router_id51
priority100
advert_int1
authentication{
auth_typePASS
auth_pass1111
}
virtual_ipaddress{
192.168.1.161
}
}

vrrp_instanceVI_2{
stateBACKUP
interfaceens33
virtual_router_id52
priority80
advert_int1
authentication{
auth_typePASS
auth_pass1111
}
virtual_ipaddress{
192.168.1.162
}
}

(3)配置第二台主机

global_defs{
router_idkeep_172
}
vrrp_instanceVI_1{
stateBACKUP
interfaceens33
virtual_router_id51
priority80
advert_int1
authentication{
auth_typePASS
auth_pass1111
}
virtual_ipaddress{
192.168.1.161
}
}

vrrp_instanceVI_2{
stateMASTER
interfaceens33
virtual_router_id52
priority100
advert_int1
authentication{
auth_typePASS
auth_pass1111
}
virtual_ipaddress{
192.168.1.162
}
}

(4)重启两台Keepalived

systemctlrestartkeepalived

七、LVS(Linux Virtual Server)实现高可用负载均衡

1、为什么要使用LVS+Nginx

lvs基于四层负载均衡,工作效率较Nginx的七层负载更高,使用LVS搭建Nginx集群,可以提高性能

四层负载均衡无法对信息处理,只能通过ip+端口的形式转发,所以需要七成负载进行数据的处理

Nginx接收请求来回,LVS可以只接受不响应

2、LVS的三种模式

(1)NAT模式

客户端将请求发往LVS,LVS会选择一台服务器响应请求,服务器将结果返回给LVS,LVS再返回给客户端。

在NAT模式中,服务器的网关必须指向LVS,否则报文无法送达客户端

NAT 技术将请求的报文和响应的报文都需要通过LVS进行地址改写,因此网站访问量比较大的时候负载均衡调度器有比较大的瓶颈,一般要求最多之能 10-20 台节点

NAT 模式支持对 IP 地址和端口进行转换。即用户请求的端口和真实服务器的端口可以不一致

(2)TUN模式

客户端将请求发往LVS,LVS会选择一台服务器响应请求,在客户端与服务器之间建立隧道,返回结果的时候直接由服务器返回响应,不在经过LVS。

TUN模式必须所有的服务器上都绑定VIP的IP地址,所有的服务器都必须有网卡。

TUN模式走隧道运维难度大,并且会直接暴露服务器地址

服务器将应答包直接发给用户。所以,减少了负载均衡器的大量数据流动,负载均衡器不再是系统的瓶颈,就能处理很巨大的请求量,这种方式,一台负载均衡器能够为很多服务器进行分发。而且跑在公网上就能进行不同地域的分发

(3)DR模式

客户端将请求发往LVS,LVS会选择一台服务器响应请求,返回结果的时候通过统一的路由进行返回,不在经过LVS。

和TUN模式一样,LVS只是分发请求,应答包通过单独的路由返回给客户端,与TUN相比这种方式不需要隧道结构,可以兼容大多数的操作系统,同时统一路由可以隐藏真实的物理服务器。DR模式效率更高,但配置更复杂.

所有服务器节点和LVS只能在一个局域网里面。

3、搭建LVS-DR模式

先关闭掉服务器上网络配置管理器,避免网络接口冲突

systemctlstopNetworkManagersystemctldisableNetworkManager

(1)创建子接口(创建LVS的虚拟ip)

进入网卡配置目录/etc/sysconfig/network-scripts/,找到网卡配置文件,这里以ifcfg-ens33为例,拷贝并创建子接口

cpifcfg-ens33ifcfg-ens33:1

修改子接口配置如下

配置中的 192.168.1.150 就是vip,是提供给外网用户访问的ip地址

DEVICE="ens33:1"ONBOOT="yes"IPADDR=192.168.1.150NETMASK=255.255.255.0BOOTPROTO=static

重启网络服务

servicenetworkrestart

重启成功后,ip addr 查看一下,你会发现多了一个ip,也就是虚拟ip(vip)

注意:阿里云不支持配置网卡,需要购买相应的负载均衡服务,腾讯云支持配置网卡,但需要购买网卡支持,一个网卡支持10个虚拟ip配置

(2)安装ipvsadm

如今的centos都集成了LVS,所以ipvs是自带的,我们只需要安装ipvsadm即可(ipvsadm是管理集群的工具,通过ipvs可以管理集群,查看集群等操作)

yuminstallipvsadm

(3)配置服务器(RS)的虚拟ip

进入网卡配置目录/etc/sysconfig/network-scripts/,找到ifcfg-lo,拷贝并创建子接口

cpifcfg-loifcfg-lo:1

修改子接口配置如下

DEVICE="lo:1"
IPADDR=192.168.1.150
NETMASK=255.255.255.255
NETWORK=127.0.0.0
BROADCAST=127.255.255.255
ONBOOT="yes"
NAME=loopback

重启网络服务成功后,ip addr 查看一下,你会发现多了一个ip,也就是虚拟ip(vip)

(4)为服务器(RS)配置arp

ARP响应级别与通告行为参数说明

arp-ignore:ARP响应级别(处理请求)
0:只要本机配置了ip,就能响应请求
 1:请求的目标地址到达对应的网络接口,才会响应请求
arp-announce:ARP通告行为(返回响应)
0:本机上任何网络接口都向外通告,所有的网卡都能接受到通告
 1:尽可能避免本网卡与不匹配的目标进行通告2:只在本网卡通告

打开sysctl.conf:

vim/etc/sysctl.conf

配置所有网卡、默认网卡以及虚拟网卡的arp响应级别和通告行为,分别对应:all,default,lo

#configrationforlvs
net.ipv4.conf.all.arp_ignore=1
net.ipv4.conf.default.arp_ignore=1
net.ipv4.conf.lo.arp_ignore=1

net.ipv4.conf.all.arp_announce=2
net.ipv4.conf.default.arp_announce=2
net.ipv4.conf.lo.arp_announce=2

刷新配置文件

sysctl-p

增加一个网关,用于接收数据报文,当有请求到本机后,会交给lo去处理

routeadd-host192.168.1.150devlo:1

将网关添加至开机启动

echo"routeadd-host192.168.1.150devlo:1">>/etc/rc.local

(4)使用ipvsadm配置集群规则

创建LVS节点,用户访问的集群调度者

ipvsadm-A-t192.168.1.150:80-srr-p5

-A:添加集群

-t:tcp协议ip地址:设定集群的访问

ip:也就是LVS的虚拟ip

-s:设置负载均衡的算法,

rr:表示轮询

-p:设置连接持久化的时间,在指定时间内同一个用户的请求会访问到同一个服务器中

创建多台RS真实服务器

ipvsadm-a-t192.168.1.150:80-r192.168.1.171:80-g
ipvsadm-a-t192.168.1.150:80-r192.168.1.172:80-g

-a:添加真实服务器

-t:tcp协议

-r:真实服务器的ip地址

-g:设定DR模式

保存到规则库,否则重启失效

ipvsadm-S

检查集群

#查看集群列表
ipvsadm-Ln
#查看集群状态
ipvsadm-Ln--stats

一些其他命令

#重启ipvsadm,重启后需要重新配置
serviceipvsadmrestart
#查看持久化连接
ipvsadm-Ln--persistent-conn
#查看连接请求过期时间以及请求源ip和目标ip
ipvsadm-Lnc
#设置tcptcpfinudp的过期时间(一般保持默认)
ipvsadm--set111
#查看过期时间
ipvsadm-Ln--timeout

(5)访问虚拟ip,完成LVS搭建

附:LVS的负载均衡算法

(1)静态算法

静态:根据LVS本身自由的固定的算法分发用户请求。

轮询(Round Robin 简写’rr’):轮询算法假设所有的服务器处理请求的能力都一样的,调度器会把所有的请求平均分配给每个真实服务器。(同Nginx的轮询)

加权轮询(Weight Round Robin 简写’wrr’):安装权重比例分配用户请求。权重越高,被分配到处理的请求越多。(同Nginx的权重)

源地址散列(Source Hash 简写’sh’):同一个用户ip的请求,会由同一个RS来处理。(同Nginx的ip_hash)

目标地址散列(Destination Hash 简写’dh’):根据url的不同,请求到不同的RS。(同Nginx的url_hash)

(2)动态算法

动态:会根据流量的不同,或者服务器的压力不同来分配用户请求,这是动态计算的。

最小连接数(Least Connections 简写’lc’):把新的连接请求分配到当前连接数最小的服务器。

加权最少连接数(Weight Least Connections 简写’wlc’):服务器的处理性能用数值来代表,权重越大处理的请求越多。Real Server 有可能会存在性能上的差异,wlc动态获取不同服务器的负载状况,把请求分发到性能好并且比较空闲的服务器。

最短期望延迟(Shortest Expected Delay 简写’sed’):特殊的wlc算法。举例阐述,假设有ABC三台服务器,权重分别为1、2、3 。如果使用wlc算法的话,当一个新请求进来,它可能会分给ABC中的任意一个。使用sed算法后会进行如下运算:

A:(1+1)/1=2

B:(1+2)/2=3/2

C:(1+3)/3=4/3

最终结果,会把这个请求交给得出运算结果最小的服务器。最少队列调度(Never Queue 简写’nq’):永不使用队列。如果有Real Server的连接数等于0,则直接把这个请求分配过去,不需要在排队等待运算了(sed运算)。

八、搭建Keepalived+Lvs+Nginx高可用集群负载均衡

如果原先服务器上配置了LVS+nginx需要清空ipvsadm中的配置

ipvsadm-C

如果配置了Keepalived+Nginx双主集群也需要去除掉Keepalived中原先的配置,按照的后文进行配置

(1)使用keepalived配置Master LVS

在LVS的机器上安装keepalived,安装过程参考上文

(1)修改keepalived的配置

global_defs{
router_idkeep_151
}
vrrp_instanceVI_1{
stateMASTER
interfaceens33
virtual_router_id41
priority100
advert_int1
authentication{
auth_typePASS
auth_pass1111
}
virtual_ipaddress{
192.168.1.150
}
}

#配置集群访问的ip+端口,端口和nginx保持一致
virtual_server192.168.1.15080{
#健康检查的时间,单位:秒
delay_loop6
#配置负载均衡的算法,默认的轮询
lb_algorr
#设置LVS的模式NAT|TUN|DR
lb-kindDR
#设置会话持久化的时间
persistence_timeout5
#协议
protocolTCP

#配置负载均衡的真实服务器,也就是nginx节点的具体的ip地址
real_server192.168.1.17180{
#轮询权重配比
weight1
#设置健康检查
TCP_CHECK{
#检查80端口
connect_port80
#超时时间
connect_timeout2
#重试次数
nb_get_retry2
#重试间隔时间
delay_before_retry3
}
}
real_server192.168.1.17180{
weight1
TCP_CHECK{
connect_port80
connect_timeout2
nb_get_retry2
delay_before_retry3
}
}
}

(2)启动/重启keepalived

systemctlrestartkeepalived

(2)使用keepalived配置Backup LVS

配置在备用机上

global_defs{
router_idkeep_152
}
vrrp_instanceVI_1{
stateBACKUP
interfaceens33
virtual_router_id41
priority50
advert_int1
authentication{
auth_typePASS
auth_pass1111
}
virtual_ipaddress{
192.168.1.150
}
}

#配置集群访问的ip+端口,端口和nginx保持一致
virtual_server192.168.1.15080{
#健康检查的时间,单位:秒
delay_loop6
#配置负载均衡的算法,默认的轮询
lb_algorr
#设置LVS的模式NAT|TUN|DR
lb-kindDR
#设置会话持久化的时间
persistence_timeout5
#协议
protocolTCP

#配置负载均衡的真实服务器,也就是nginx节点的具体的ip地址
real_server192.168.1.17180{
#轮询权重配比
weight1
#设置健康检查
TCP_CHECK{
#检查80端口
connect_port80
#超时时间
connect_timeout2
#重试次数
nb_get_retry2
#重试间隔时间
delay_before_retry3
}
}
real_server192.168.1.17180{
weight1
TCP_CHECK{
connect_port80
connect_timeout2
nb_get_retry2
delay_before_retry3
}
}
}

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • Linux系统
    +关注

    关注

    4

    文章

    567

    浏览量

    26920
  • 集群
    +关注

    关注

    0

    文章

    79

    浏览量

    17102
  • 解压
    +关注

    关注

    0

    文章

    7

    浏览量

    7847

原文标题:Nginx 从安装到高可用

文章出处:【微信号:芋道源码,微信公众号:芋道源码】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    解析keepalived+nginx实现高可用方案技术

    的位置,Nginx的高可用影响到整个系统的稳定性。如果nginx服务器宕机,后端web服务将无法提供服务,影响严重。所以如何保证Nginx 的稳定和高
    的头像 发表于 09-30 15:52 3484次阅读
    解析<b class='flag-5'>keepalived+nginx</b>实现高<b class='flag-5'>可用</b>方案技术

    基于KeepAlive的可用配置

    KeepAlived集群可用搭建
    发表于 06-11 16:36

    PHP开发中,如何处理负载并发?

    性。目前使用最为广泛的负载均衡软件是NginxLVS、HAProxy。我分别来说下三种的优缺点:Nginx的优点是:工作在网络的7层之上,
    发表于 07-03 10:33

    高性能负载均衡Tomcat集群的实现

    Nginx+Tomcat搭建高性能负载均衡集群
    发表于 08-21 14:31

    使用nginx实现tomcat负载均衡

    Nginx+tomcat+memcached实现负载均衡及session(交叉存储)
    发表于 08-28 08:52

    nginx实现的负载均衡

    nginx实现负载均衡
    发表于 05-04 13:42

    16nginx+keepalived +zuul如何实现可用负载均衡

    学习笔记微服务-16 nginx+keepalived +zuul 实现可用负载均衡
    发表于 05-22 10:16

    Keepalived+Haproxy如何实现可用负载综合实验

    Keepalived+Haproxy实现可用负载综合实验
    发表于 06-02 16:53

    双机热备与负载均衡的设计与实现

    针对OpenFlow SDN系统中的策略管理模块提出了一种新型的双机热备和负载均衡方案,采用了服务器集群的方式,通过Keepalived和Heartbeat实现了双机热备模块,通过
    发表于 12-24 17:57 10次下载

    构建实战:Nginx+IIS构筑Web服务器集群负载均衡

    构建实战:Nginx+IIS构筑Web服务器集群负载均衡
    发表于 09-05 10:56 4次下载
    构建实战:<b class='flag-5'>Nginx</b>+IIS构筑Web服务器<b class='flag-5'>集群</b><b class='flag-5'>负载</b><b class='flag-5'>均衡</b>

    云环境中基于LVS集群负载均衡算法

    为了解决传统负载均衡技术应用到云计算环境中引发的新问题,提出一种云环境下基于LVS集群分组负载均衡
    发表于 11-24 11:05 1次下载
    云环境中基于<b class='flag-5'>LVS</b><b class='flag-5'>集群</b>的<b class='flag-5'>负载</b><b class='flag-5'>均衡</b>算法

    超详细!使用 LVS 实现负载均衡原理及安装配置详解

    负载均衡集群是 load balance 集群的简写,翻译成中文就是负载均衡
    发表于 01-21 14:01 981次阅读

    keepalivedLVS概述,KeepAlived工作原理

    Checkers :此功能模块主要负责真实服务器的健康检查( HealthChecking ),是Keepalived最主要的功能之一,因为HealthChecking是负载均衡功能稳定运行的基础,
    的头像 发表于 06-25 14:08 5.4w次阅读
    <b class='flag-5'>keepalived</b>及<b class='flag-5'>LVS</b>概述,<b class='flag-5'>KeepAlived</b>工作原理

    负载均衡能否能直接从LVS打到站点层

    上一篇负载均衡的文章有一个点不少人有疑问,所以我觉得有必要单独写篇文章解释一下,先看下上篇文章展示的架构图: 这里一些朋友的疑问点是 Nginx 是否多此一举,能否能直接从 LVS
    的头像 发表于 08-17 10:29 1204次阅读
    <b class='flag-5'>负载</b><b class='flag-5'>均衡</b>能否能直接从<b class='flag-5'>LVS</b>打到站点层

    基于LVS+Keepalived实现高可用负载均衡

    LVS 是一种预装在 Linux 系统中,基于四层、具有强大性能的反向代理服务器。ipvsadm 是 LVS 的命令行管理工具。
    的头像 发表于 04-09 12:30 213次阅读
    基于<b class='flag-5'>LVS+Keepalived</b>实现高<b class='flag-5'>可用</b><b class='flag-5'>负载</b><b class='flag-5'>均衡</b>