负载均衡原理图
通过以上示例图我简单解析一下流程原理:
- 不同用户通过app/web/小程序等客户端访问的时候,需要请求后端的接口获取数据
- 后端的接口最先请求到统一的负载均衡服务器,这个时候负载均衡服务器相当于一个任务调度和分配者,通过hash、权重、轮巡、最少连接、响应时间等方式将访问的请求派发给不同的服务器
- 当对应的请求被发送到不同服务器时,由对应的服务器去处理计算或其他数据库的增删改查工作并返回请求结果
负载均衡的最终目的主要是将流量进行分发,以减轻单一服务器下访问的压力,这个就好比我们去窗口办理业务的时候,有不同的业务办理窗口,会通过叫号的方式让办理业务的人员进行排队办理,这个作业流程与负载均衡的工作逻辑类似,其中:
用户:排队办理业务
负载均衡服务器:负责安排窗口和叫号
N个服务器:办理业务的不同窗口
搭建准备
至少准备三台以上的服务器,保证每台服务器都安装相同配置的nginx
1:关闭防火墙
service iptables stop
2:关闭SELinux
setenforce 0
3:安装基本依赖库
yum install -y gcc pcre-devel openssl-devel
4:安装nginx
5:配置nginx
配置完成后我们获得以下信息:
名称 | IP | 功能 |
---|---|---|
负载均衡 | 192.168.1.2 | 负责任务的分配和调度 |
web服务器1 | 192.168.1.3 | 提供web服务 |
web服务器2 | 192.168.1.4 | 提供web服务 |
权重方式
http{
#位于http标签下,与server标签平行
upstream loadBlance{ #存放提供web服务的服务器地址,loadBlance作为示例,可以根据自己的需求进行命名
server 192.168.1.3 weight=5;#一台web服务器地址,权重5/6
server 192.168.1.4 weight=1;#一台web服务器地址,权重1/6
}
server{
location / {
proxy_pass http://loadBlance;#指定代理连接池
proxy_set_header Host $host;#转发请求头信息
proxy_set_header X-Forward-For $remote_addr;#转发请求IP地址
}
}
}
如果weight不设置,nginx服务器默认为轮询方式进行流量的转发
配置完成后需要重启负责任务分配的web服务器
nginx -s reload 或 servce nginx restart
常用Nginx负载均衡分发参数说明
1、轮询
将所有的请求轮流分配到不同的服务器上
upstream loadBlance {
server 192.168.1.3;
server 192.168.1.4;
}
2、加权轮询-weight
由于有的时候我们可能会存在成本等问题导致服务器的配置带宽都有所差别,所以对应服务器的性能也会有差异,所以加权轮训的方式我们可以根据自己的需求进行配置;
如下:
计算方法:对应服务器的权重/所有的权重值相加得到的总和=分配率
upstream loadBlance{
server 192.168.1.3 weight=5;
server 192.168.1.4 weight=1;
}
3、哈希算法-iphash
通过哈希算法将客户端ip进行计算,用计算得到的结果对服务器列表的大小进行取模运算,得到的结果便是客服端要访问服务器的序号。只要服务器的配置没有变化,后续同一个ip访问会固定访问某一台服务器
#配置
upstream loadBlance {
iphash;
server 192.168.1.3 weight=5;
server 192.168.1.4 weight=1;
}
4、最少连接数-least_conn
动态地选取其中接数最少的一台服务器来处理当前的请求,将后端服务利用效率最大化。
upstream loadBlance {
least_conn;
server 192.168.1.3;
server 192.168.1.4;
}
5、响应时间-fair
哪台服务器的响应时间最短会被优先调度和分配
upstream loadBlance {
fair;
server 192.168.1.3 weight=5;
server 192.168.1.4 weight=1;
}