- 概念
- 安装
- 本文环境
- 反向代理
- 问题
- 解决方案:
- 限流
- limit_req_zone
- 实战
- 其他参数
- 错误码 limit_req_status
- limit_conn_zone
- 实战
Nginx 是一个高性能的HTTP和反向代理web服务器,Nginx是一款轻量级的Web 服务器/反向代理服务器及电子邮件(IMAP/POP3)代理服务器。其特点是占有内存少,并发能力强
安装因为要测试nginx的各种特性,在Linux上不太方便,所以这里直接下载Windows的nginx , 下载地址
下载解压即安装完成
我们先创建一个Spring Boot项目,然后创建如下的Controller:
@RestController
public class MyController {
@GetMapping("/hello")
public String hello(){
return "hello";
}
}
我们去nginx配置反向代理:
location / {
proxy_pass http://127.0.0.1:8080;
}
然后启动nginx
反向代理 问题我们使用nginx一般都是用于反向代理我们的服务器,那么此时会出现一些问题。
我们将 controller修改如下:
@GetMapping("/hello")
public String hello(HttpServletRequest request){
String remoteHost = request.getRemoteHost();
int remotePort = request.getRemotePort();
return "Host的值是"+remoteHost+",port的值是"+remotePort;
}
然后分别测试直接访问和通过nginx访问该接口:
使用浏览器直接访问:
通过nginx访问:
可以发现,HOST和IP的值均不同,我们这里知道浏览器就是当前访问的客户端,客户端身处65235发送请求,经过nginx转发到服务器,服务器得到的是经过nginx修改过后的值。
总结:
域名、协议、端口都是Nginx访问Web应用时的域名、协议、端口,而非客户端浏览器地址栏上的真实域名、协议、端口。
由于Nginx是代理服务器,所有客户端请求都从Nginx转发到Tomcat,如果Nginx不把客户端真实IP、域名、协议、端口告诉Tomcat,那Tomcat应用永远不会知道这些信息,所以Nginx需要配置HTTP Header来将这些信息告诉被代理的Tomcat,而Tomcat则需要从header中获取
将nginx配置文件修改如下:
location / {
proxy_pass http://127.0.0.1:8080;
proxy_set_header Host $http_host;
proxy_set_header X-Real-IP $remote_addr;
}
然后我们就可以从
request.getRemoteHost()中获取到客户端的实际IP地址了
在开发高并发系统时有三把利器用来保护系统:缓存、降级和限流。
限流可以认为服务降级的一种,限流就是限制系统的输入和输出流量已达到保护系统的目的。一般来说系统的吞吐量是可以被测算的,为了保证系统的稳定运行,一旦达到的需要限制的阈值,就需要限制流量并采取一些措施以完成限制流量的目的。比如:延迟处理,拒绝处理,或者部分拒绝处理等等。
nginx给我们提供了限流的配置:
limit_req_zone 限制单位时间内的请求数,采用的是 “漏桶算法”
需要配置的信息如下:
limit_req_zone $binary_remote_addr zone=one:10m rate=1r/s;
- 第一个参数:$binary_remote_addr 表示通过remote_addr 标识(即IP地址)来做限制,是限制同一客户端ip地址,binary_ 表示保存客户端IP地址的二进制形式。
- 第二个参数:zone=one:10m表示生成一个大小为10M,名字为one的内存区域,用来存储访问的频次信息。
- 第三个参数:rate=1r/s表示允许相同标识(即相同IP)的客户端的访问频次,这里限制的是每秒1次,还可以有比如30r/m(每分钟三十次)的。
还要配置limit_req:
limit_req zone=one burst=5 nodelay;
- 第一个参数:zone=one 设置使用哪个配置区域来做限制,与上面limit_req_zone 里的name对应。
- 第二个参数:burst=5,burst爆发的意思,这个配置的意思是设置一个大小为5的缓冲区,当有大量请求(爆发)过来时,超过了访问频次限制的请求可以先放到这个缓冲区内
- 第三个参数:nodelay,如果设置,超过访问频次而且缓冲区也满了的时候就会直接返回503,如果没有设置,则所有请求会等待排队,不会有503报错。
实战burst的作用是让多余的请求可以先放到队列里,慢慢处理。如果不加nodelay参数,队列里的请求不会立即处理,而是按照rate设置的速度,以毫秒级精确的速度慢慢处理
接下来我们就配置一下我们的nginx:
http {
limit_req_zone $binary_remote_addr zone=one:10m rate=1r/s;
server {
listen 80;
server_name localhost;
location / {
proxy_pass http://127.0.0.1:8080;
proxy_set_header Host $http_host;
proxy_set_header X-Real-IP $remote_addr;
limit_req zone=one burst=1 nodelay;
}
}
}
我们配置的burst是1,是为了让限流的效果更明显。当请求数超出缓冲区的时候,就会进行限流。
当我们疯狂发送请求到接口时:
发现nginx直接返回报错了,所以限流成功了
其他参数 错误码 limit_req_status这里返回的是503报错,我们可以自定义返回的错误码:
http {
limit_req_zone $binary_remote_addr zone=one:10m rate=1r/s;
limit_req_status 555;
server {
listen 80;
server_name localhost;
location / {
proxy_pass http://127.0.0.1:8080;
proxy_set_header Host $http_host;
proxy_set_header X-Real-IP $remote_addr;
limit_req zone=one burst=1 nodelay;
}
}
}
这样返回的就会是555错误码:
这个用来限制单个IP的请求数。并非所有的连接都被计数。只有在服务器处理了请求并且已经读取了整个请求头时,连接才被计数。
配置如下:
limit_conn_zone $binary_remote_addr zone=addr:10m;
- 第一个参数也是用IP地址进行标识
- 第二个参数也是用于记录计数的内存区域
和 limit_conn配置,
limit_conn addr 1;
- 第二个参数是指 允许多少连接数,这里是 1
因为要让连接保持着,所以我们修改一下 controller:
@RestController
public class MyController {
@GetMapping("/hello")
public String hello(HttpServletRequest request) {
try {
Thread.sleep(20000);
} catch (InterruptedException e) {
e.printStackTrace();
}
return "ok";
}
}
当我们第一个请求正在服务器处理的时候,我们用另一个浏览器发送请求,发现会报错:



