栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 系统运维 > 运维 > Linux

四、Nginx负载均衡实例

Linux 更新时间: 发布时间: IT归档 最新发布 模块sitemap 名妆网 法律咨询 聚返吧 英语巴士网 伯小乐 网商动力

四、Nginx负载均衡实例

一、负载均衡概念

单个服务器解决不了,我们增加服务器的数量,然后将请求分发到各个服务器上,将原先请求集中到单个服务器上的情况改为将请求分发到多个服务器上,将负载分发到不同的服务器,也就是我们所说的负载均衡

1、实现效果

(1)浏览器地址栏输入http://192.168.1.173/edu/a.html,让请求平均分发到8080和8081端口中。

2、准备工作

(1)准备两台tomcat服务器,一台8080,一台8081
在/usr/src文件夹下,创建tomcat8080、tomcat8081两个文件夹,将apache-tomcat-7.0.70包分别解压到其下。然后将tomcat8081的server.xml将端口号改为8081。具体怎么改看–》
三、nginx反向代理

(2)在两台tomcat里面webapps目录中,创建名称为edu的文件夹,文件夹中创建测试页面a.html,用于测试显示端口号。

3.在nginx的配置文件中进行负载均衡的配置

4.重启nginx,测试效果

谷歌浏览器开启无痕窗口,不然负载均衡效果出不来。

测试

刷新一下

Nginx的分配策略 1.轮询(默认)

每个 请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器 down 掉,能自动剔除。

2.weight(权重)

指定轮询几率,weight 和访问比率成正比,用于后端服务器性能不均的情况。

upstream server_pool{
server 192.168.5.21 weight=5;
server 192.168.5.22 weight=10; 
}
3.ip_hash

每个请求按访问 ip 的 hash 结果分配,这样每个访客固定访问一个后端服务器,可以解决 session 共享的问题。

upstream server_pool{
	ip_hash;
	server 192.168.5.21:80;
	server 192.168.5.22:80; 
}
4.fair(第三方)

按后端服务器的响应时间来分配请求,响应时间短的优先分配。

upstream server_pool{
	server 192.168.5.21:80; 
	server 192.168.5.22:80;
	fair; 
}
转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/341459.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号