今天介绍以下nginx集群方面的知识,先了解下传统的web访问模型吧,上图
• 1 部署⼀台备份服务器,宕机直接切换
• 2 部署多台服务器,根据DNS的轮询解析机制去实现⽤户分发
问题:
1⽅案:服务器利⽤率低,成本⾼,切换不及时,服务器压⼒依然⼤
2⽅案: 优势是⽤户处理速度得到了提升,但是当其中⼀台故障,就会有⼀部分⽤户访问不了⽹站
并⾏处理解决⽅案
• 1上述的DNS轮询解析⽅案
• 2 多机阵列---集群模式
那么啥是集群了???
将多个物理机器组成⼀个逻辑计算机,实现负载均衡和容错
• 计算机集群简称集群,是⼀种计算机系统, 它通过⼀组松散集成的计算机软件或硬件连接起来⾼度紧密地协作完成计算⼯作。在某种意义上,他们可以被看作是⼀台计算机。 (百度解释) • 组成要素
1)VIP: ⼀个IP地址
2)分发器: nginx
3)数据服务器: Web服务器
Nginx集群
在该集群中Nginx扮演的⻆⾊是: 分发器
• 任务:接受请求、分发请求、响应请求
• 功能模块:
1:ngx_http_upstream_module 基于应⽤层分发模块
2:ngx_stream_core_module 基于传输层分发模块 (1.9开始提供)
Nginx集群原理
• Nginx集群其实是:虚拟主机+反向代理+upstream分发模块组成的
虚拟主机:接受和响应请求
反向代理: 带⽤户去数据服务器拿数据
upstream: 告诉Nginx去哪个数据服务器拿数据
• 数据⾛向
1.虚拟主机接受⽤户请求
2.虚拟主机去找反向代理
3.反向代理让去找upstream
4.upstream 告诉 ⼀个数据服务器IP
5.Nginx去找数据服务器 并发起⽤户的请求
6.数据服务器接受请求并处理请求
7.数据服务器响应请求给Nginx
8.Nginx响应请求给⽤户
Nginx集群默认算法
upstream module
nginx的upstream⽬前⽀持4种⽅式的分配
1、轮询(默认)
每个请求按时间顺序逐⼀分配到不同的后端服务器,如果后端服务器down掉,能⾃动剔除。
2、weight
指定轮询⼏率,weight和访问⽐率成正⽐,⽤于后端服务器性能不均的情况。
3、ip_hash
每个请求按访问ip的hash结果分配,这样每个访客固定访问⼀个后端服务器,可以解决session的问题。
4、fair(第三⽅)
按后端服务器的响应时间来分配请求,响应时间短的优先分配。
5、url_hash(第三⽅)
按访问url的hash结果来分配请求,使每个url定向到同⼀个后端服务器,后端服务器为缓存时⽐较有效。
Nginx业务服务器状态
每个设备的状态设置为:
1.down 表示单前的server暂时不参与负载
2.weight 默认为1.weight越⼤,负载的权重就越⼤。
3.max_fails :允许请求失败的次数默认为1.当超过最⼤次数时,返回proxy_next_upstream 模块定义的错误
4.fail_timeout: 失败超时时间,在连接Server时,如果在超时时间之内超过max_fails指定的失败次数,会认为在fail_timeout时间内Server不可⽤。默认为10s。
5.backup: 其它所有的⾮backup机器down或者忙的时候,请求backup机器。所以这台机器压⼒会最轻。
基于请求头的分发
1.基于host分发
2.基于开发语⾔分发
3.基于浏览器的分发
4.基于源ip
#配置web业务机器,可略过。。。。
#web02
[root@web02 ~]# sh nginx_install
[root@web02 ~]# echo web02 > /usr/local/nginx/html/index.html
[root@web02 ~]# yum -y install elinks &>/dev/null
[root@web02 ~]# /usr/local/nginx/sbin/nginx
[root@web02 ~]# elinks http://localhost -dump
web02
轮询分发(默认)
#配置分发器
upstream web {
server 192.168.10.42;
server 192.168.10.43;
}
server {
listen 80;
server_name localhost;
location / {
proxy_pass http://web;
}
}
ps:定义了一个名称为web分发机制,会自动去upstream按照顺序自动分发访问
每个请求按时间顺序逐⼀分配到不同的后端服务器,如果后端服务器down掉,能⾃动剔除。
基于权重的分发
upstream web {
server 192.168.10.42 weight=1;
server 192.168.10.43 weight=2 down;#down表示不参与分发了 ,backup表示web01忙不过来的时候帮忙分发
}
server {
listen 80;
server_name localhost;
location / {
proxy_pass http://web;
}
}
ps:指定轮询⼏率,weight和访问⽐率成正⽐,⽤于后端服务器性能不均的情况。
ip_hash
upstream web {
ip_hash;
server 192.168.10.42;
server 192.168.10.43;
}
server {
listen 80;
server_name localhost;
location / {
proxy_pass http://web;
}
}
#ip_hash算法能够保证来⾃同样源地址的请求,都分发到同⼀台主机
ps:每个请求按访问ip的hash结果分配,这样每个访客固定访问⼀个后端服务器,可以解决
session的问题。
介绍2个第三方的分发方式吧!
A:fair(第三⽅)
按后端服务器的响应时间来分配请求,响应时间短的优先分配。
B:url_hash(第三⽅)
按访问url的hash结果来分配请求,使每个url定向到同⼀个后端服务器,后端服务器为缓
存时⽐较有效。
下面介绍4个常用的分发吧
1:基于host分发(域名)
http{
upstream web1 {
server 192.168.10.42;
}
upstream web2 {
server 192.168.10.43;
}
server {
listen 80;
server_name www.web1.com;
location / {
proxy_pass http://web1;
}
}
server {
listen 80;
server_name www.web2.com;
location / {
proxy_pass http://web2;
}
}
}
2:基于开发语言分发
http{
upstream php {
server 192.168.10.42;
}
upstream html {
server 192.168.10.43;
}
server {
location ~* \.php$ {
proxy_pass http://php;
}
location ~* \.html$ {
proxy_pass http://html;
}
}
}
ps:就是访问不同的域名,例如index.html和index.php就可以根据规则,分发不同的服务器去访问
3:基于浏览器分发
upstream elinks { server 192.168.10.42; }
upstream chrome { server 192.168.10.43; }
upstream any { server 192.168.10.42:81; }
server {
listen 80;
server_name www.web1.com;
location / {
proxy_pass http://any;
if ( $http_user_agent ~* Elinks ) {
proxy_pass http://elinks;
}
if ( $http_user_agent ~* chrome ) {
proxy_pass http://chrome;
}
}
}
ps:根据你访问的浏览器的不同,从而分发不同的服务器或者匹配的规则去响应数据,例如手机客户和PC客户
4:基于源ip分发
upstream beijin.server {
server 192.168.10.42;
}
upstream shanghai.server {
server 192.168.10.43;
}
upstream default.server {
server 192.168.10.42:81;
}
geo $geo {
default default;
192.168.10.241/32 beijin;
192.168.10.242/32 shanghai;
}
location / {
proxy_pass http://$geo.server$request_uri;
}
ps:http://request_uri;是为了匹配全路径,防止url所有参数丢失,例如源ip来自北京的就返回北京的server数据,来自上海的就返回上海的server数据
好了,大功告成,今天就先写到这里吧,感谢观看~~~