Nginx高频面试题
Nginx高频面试题
1.什么是Nginx?
Nginx是一个 轻量级/高性能的反向代理Web服务器,他实现非常高 效的反向代理、负载平衡,他可以处理2-3万并发连接数,官方监测 能支持5万并发,现在中国使用nginx网站用户有很多,例如:新 浪、网易、 腾讯等。
2.为什么要用Nginx?
跨平台、配置简单、方向代理、高并发连接:处理2-3万并发连接数,官方监测能支持5万并发,内存消耗小:开启10个nginx才占150M内存 ,nginx处理静态文件好,耗费内存少, 而且Nginx内置的健康检查功能:如果有一个服务器宕机,会做一 个健康检查,再发送的请求就不会发送到宕机的服务器了。重新将 请求提交到其他的节点上。
同时还有如下优点:节省宽带:支持GZIP压缩,可以添加浏览器本地缓存 稳定性高:宕机的概率非常小 接收用户请求是异步的
3.什么是正向代理和反向代理?
- 正向代理就是一个人发送一个请求直接就到达了目标的服务器
- 反方代理就是请求统一被Nginx接收,nginx反向代理服务器接收到之后,按照一定的规 则分发给了后端的业务处理服务器进行处理了
4.Nginx的优缺点?
优点:占内存小,可实现高并发连接,处理响应快可实现http服务器、虚拟主机、方向代理、负载均衡Nginx配置简单 可以不暴露正式的服务器IP地址
缺点:动态处理差:nginx处理静态文件好,耗费内存少,但是处理动态页面则很鸡肋,现在一般前端用nginx作为反向代理抗住压力
5.Nginx应用场景?
http服务器。Nginx是一个http服务可以独立提供http服务。可以做 网页静态服务器。 虚拟主机。可以实现在一台服务器虚拟出多个网站,例如个人网站 使用的虚拟机。 反向代理,负载均衡。当网站的访问量达到一定程度后,单台服务 器不能满足用户的请求时,需要用多台服务器集群可以使用nginx做 反向代理。并且多台服务器可以平均分担负载,不会应为某台服务 器负载高宕机而某台服务器闲置的情况。
nginz 中也可以配置安全管理、比如可以使用Nginx搭建API接口网关,对每个接口服务进行拦截。
6.location的作用是什么?
location指令的作用是根据用户请求的URI来执行不同的应用,也就是根据用户请求的网站URL进行匹配,匹配成功即进行相关的操作。
7.location的语法能说出来吗?
示例如下:
#优先级1,精确匹配,根路径
location =/ {
return 400;
}
#优先级2,以某个字符串开头,以av开头的,优先匹配这里,区分大小写
location ^~ /av {
root /data/av/;
}
#优先级3,区分大小写的正则匹配,匹配/media*****路径
location ~ /media {
alias /data/static/;
}
#优先级4 ,不区分大小写的正则匹配,所有的
****.jpg|gif|png 都走这里
location ~* .*\.(jpg|gif|png|js|css)$ {
root /data/av/;
}
#优先7,通用匹配
location / {
return 403;
}
8.限流怎么做的?
Nginx限流就是限制用户请求速度,防止服务器受不了限流有3种
- 正常限制访问频率(正常流量)
- 突发限制访问频率(突发流量)
- 限制并发连接数
Nginx的限流都是基于漏桶流算法,底下会说道什么是桶铜流
正常限制访问频率(正常流量)
限制一个用户发送的请求,我Nginx多久接收一个请求。
Nginx中使用ngx_http_limit_req_module模块来限制的访问频 率,限制的原理实质是基于漏桶算法原理来实现的。在 nginx.conf配置文件中可以使用limit_req_zone命令及limit_req命令限制单个IP的请求处理频率。
#定义限流维度,一个用户一分钟一个请求进来,多余的全部漏掉
limit_req_zone $binary_remote_addr
zone=one:10m rate=1r/m;
#绑定限流维度
server{
location/seckill.html{
limit_req zone=zone;
proxy_pass http://lj_seckill;
}
}
突发限制访问频率(突发流量) 限制一个用户发送的请求,我Nginx多久接收一个。
上面的配置一定程度可以限制访问频率,但是也存在着一个问 题:如果突发流量超出请求被拒绝处理,无法处理活动时候的突 发流量,这时候应该如何进一步处理呢?Nginx提供burst参数 结合nodelay参数可以解决流量突发的问题,可以设置能处理的 超过设置的请求数外能额外处理的请求数。我们可以将之前的例 子添加burst参数以及nodelay参数:
#定义限流维度,一个用户一分钟一个请求进来,多余的全部漏掉
limit_req_zone $binary_remote_addr
zone=one:10m rate=1r/m;
#绑定限流维度
server{
location/seckill.html{
limit_req zone=zone burst=5 nodelay;
proxy_pass http://lj_seckill;
}
}
为什么就多了一个 burst=5 nodelay; 呢,多了这个可以代表 Nginx对于一个用户的请求会立即处理前五个,多余的就慢 慢来落,没有其他用户的请求我就处理你的,有其他的请求 的话我Nginx就漏掉不接受你的请求 限制并发连接数 Nginx中的ngx_http_limit_conn_module模块提供了限制 并发连接数的功能,可以使用limit_conn_zone指令以及 limit_conn执行进行配置。接下来我们可以通过一个简单 的例子来看下:
http {
limit_conn_zone $binary_remote_addr
zone=myip:10m;
limit_conn_zone $server_name
zone=myServerName:10m;
}
server {
location / {
limit_conn myip 10;
limit_conn myServerName 100;
rewrite / http://www.lijie.net
permanent;
}
}
上面配置了单个IP同时并发连接数最多只能10个连接,并且设置了 整个虚拟服务器同时最大并发数最多只能100个链接。当然,只有 当请求的header被服务器处理后,虚拟服务器的连接数才会计数。 刚才有提到过Nginx是基于漏桶算法原理实现的,实际上限流一般 都是基于漏桶算法和令牌桶算法实现的。接下来我们来看看两个算 法的介绍:
9.漏桶流算法和令牌桶算法知道?
漏桶算法
漏桶算法是网络世界中流量整形或速率限制时经常使用的一种算 法,它的主要目的是控制数据注入到网络的速率,平滑网络上的突 发流量。漏桶算法提供了一种机制,通过它,突发流量可以被整形 以便为网络提供一个稳定的流量。也就是我们刚才所讲的情况。漏 桶算法提供的机制实际上就是刚才的案例:突发流量会进入到一个 漏桶,漏桶会按照我们定义的速率依次处理请求,如果水流过大也 就是突发流量过大就会直接溢出,则多余的请求会被拒绝。所以漏 桶算法能控制数据的传输速率。
令牌桶算法
令牌桶算法是网络流量整形和速率限制中最常使用的一种算法。典 型情况下,令牌桶算法用来控制发送到网络上的数据的数目,并允 许突发数据的发送。Google开源项目Guava中的RateLimiter使用的 就是令牌桶控制算法。令牌桶算法的机制如下:存在一个大小固定 的令牌桶,会以恒定的速率源源不断产生令牌。如果令牌消耗速率 小于生产令牌的速度,令牌就会一直产生直至装满整个令牌桶。
10.为什么要做动静分离?
Nginx是当下最热的Web容器,网站优化的重要点在于静态化网 站,网站静态化的关键点则是是动静分离,动静分离是让动态网站 里的动态网页根据一定规则把不变的资源和经常变的资源区分开 来,动静资源做好了拆分以后,我们则根据静态资源的特点将其做 缓存操作。
让静态的资源只走静态资源服务器,动态的走动态的服务器Nginx的静态处理能力很强,但是动态处理能力不足,因此,在企 业中常用动静分离技术。
对于静态资源比如图片,js,css等文件,我们则在反向代理服务器 nginx中进行缓存。这样浏览器在请求一个静态资源时,代理服务器 nginx就可以直接处理,无需将请求转发给后端服务器tomcat。 若用户请求的动态文件,比如servlet,jsp则转发给Tomcat服务器处 理,从而实现动静分离。这也是反向代理服务器的一个重要的作 用。
11.Nginx怎么做的动静分离?
只需要指定路径对应的目录。location/可以使用正则表达式匹配。 并指定对应的硬盘中的目录。如下:(操作都是在Linux上)
location /image/ {
root /usr/local/static/;
autoindex on;
}
创建目录<br>
mkdir /usr/local/static/image 1 进入目录
cd /usr/local/static/image 1 放一张照片上去#
1.jpg 1
重启 nginx
sudo nginx -s reload 1
打开浏览器 输入 server_name/image/1.jpg 就可以访问该静态图片了
12 负载均衡
轮询
worker_processes 1;
events {
worker_connections 1024;
}
http {
include mime.types;
default_type application/octet-stream;
sendfile on;
#tcp_nopush on;
#keepalive_timeout 0;
keepalive_timeout 65;
#gzip on;
upstream myserver{
server 192.168.3.201:8080;
server 192.168.3.201:8081;
}
server {
listen 80;
server_name localhost;
location / {
proxy_pass http://myserver;
}
#error_page 404 /404.html;
# redirect server error pages to the static page /50x.html
#error_page 500 502 503 504 /50x.html;
location = /50x.html {
root html;
}
}
}
#启动验证
#构建镜像
docker build -t nginx_webapi .
#启动项目
docker run -d -p8080:80 -v
/home/nginx/Zhaoxi.WebApi/8080/appsettings.json:/
app/appsettings.json --name
nginx_webapi8080 nginx_webapi
#启动项目
docker run -d -p8081:80 -v
/home/nginx/Zhaoxi.WebApi/8081/appsettings.json:/
app/appsettings.json --name nginx_webapi8081
nginx_webapi
###http://192.168.3.201:8090/get
weight权重:可以给每一台服务器设置一个权重,这样权重高的干的活也就会多一点
upstream myserver{
server 192.168.3.201:8080 weight=5;
server 192.168.3.201:8081 weight=10;
}
ip_hash:这种方式是基于客户端的ip地址,采用hash算法计算下一个请求要选择哪一个服务器,这样固定的ip会访问同一个服务器,可以解决session问题
upstream myserver{
ip_hash;
server 192.168.3.201:8080;
server 192.168.3.201:8081;
}
least_conn:最少链接会将下一个请求分发到当前链接数最少的一台服务器
upstream myserver {
least_conn;
server 192.168.3.201:8080;
server 192.168.3.201:8081;
}
fair:按后端服务器的响应时间来分配请求,响应时间短的优先分配。
upstream myserver {
fair;
server 192.168.3.201:8080;
server 192.168.3.201:8081;
}
url_hash:按访问url的hash结果来分配请求,使每个url定向到同一个后端服 务器资源集群服务器,缓存文件,文件存储在第三发服务,则可以缓存到本 地服务器
upstream myserver {
hash $request_uri;
server squid1:3128;
server squid2:3128;
}
12.Nginx配置高可用性怎么配置?
当上游服务器(真实访问服务器),一旦出现故障或者是没有及时相应 的话,应该直接轮训到下一台服务器,保证服务器的高可用
Nginx配置代码:
server {
listen 80;
server_name www.lijie.com;
location / {
### 指定上游服务器负载均衡服务器
proxy_pass http://backServer;
###nginx与上游服务器(真实访问的服务器)超时时间 后
端服务器连接的超时时间_发起握手等候响应超时时间
proxy_connect_timeout 1s;
###nginx发送给上游服务器(真实访问的服务器)超时时间
proxy_send_timeout 1s;
### nginx接受上游服务器(真实访问的服务器)超时时间
proxy_read_timeout 1s;
index index.html index.htm;
}
}
Nginx怎么判断别IP不可访问?
# 如果访问的ip地址为192.168.9.115,则返回403
if ($remote_addr = 192.168.9.115) {
return 403;
}
怎么限制浏览器访问?
## 不允许谷歌浏览器访问 如果是谷歌浏览器返回500
if ($http_user_agent ~ Chrome) {
return 500;
}
13、nginx和apache的区别?
轻量级,同样起web 服务,比apache 占用更少的内存及资源;抗 并发,nginx处理请求是异步非阻塞的,而apache 则是阻塞型的, 在高并发下nginx 能保持低资源低消耗高性能;高度模块化的设 计,编写模块相对简单;最核心的区别在于apache是同步多进程模 型,一个连接对应一个进程;nginx是异步的,多个连接(万级别)可以对应一个进程。
14、nginx是如何实现高并发的?
一个主进程,多个工作进程,每个工作进程可以处理多个请求,每 进来一个request,会有一个worker进程去处理。但不是全程的处 理,处理到可能发生阻塞的地方,比如向上游(后端)服务器转发 request,并等待请求返回。那么,这个处理的worker继续处理其 他请求,而一旦上游服务器返回了,就会触发这个事件,worker才 会来接手,这个request才会接着往下走。由于web server的工作 性质决定了每个request的大部份生命都是在网络传输中,实际上花 费在server机器上的时间片不多。这是几个进程就解决高并发的秘 密所在。即@skoo所说的webserver刚好属于网络io密集型应用, 不算是计算密集型。
15、什么是C10K问题?
C10K问题是指无法同时处理大量客户端(10,000)的网络套接字。
16、为什么不使用多线程?
答:Nginx:采用单线程来异步非阻塞处理请求(管理员可以配置 Nginx主进程的工作进程的数量),不会为每个请求分配cpu和内存 资源,节省了大量资源,同时也减少了大量的CPU的上下文切换, 所以才使得Nginx支持更高的并发。
17、Nginx如何处理请求?
Nginx启动后,首先进行配置文件的解析,解析成功会得到虚拟服 务器的ip和端口号,在主进程master进程中创建socket,对 addrreuse选项进行设置,并将socket绑定到对应的ip地址和端口 并进行监听。然后创建子进程worker进程,当客户端和Nginx进行 三次握手,则可以创建成功与Nginx的连接。当有新的请求进入 时,空闲的worker进程会竞争,当某一个worker进程竞争成功,则 会得到这个已经成功建立连接的socket,然后创建 ngx_connection_t结构体,接下来设置读写事件处理函数并添加读 写事件用来与客户端进行数据交换。当请求结束Nginx或者客户端 主动关闭连接,此时一个请求处理完毕。
18Nginx常用优化配置
- 调整worker_processes指定Nginx需要创建的worker进程数量,刚才有提到worker进程数一般设置为和CPU核心数一致。
- 调整worker_connections设置Nginx最多可以同时服务的客户端数。结合worker_processes配置可以获得每秒可以服务的最大 客户端数。
- 启动gzip压缩,可以对文件大小进行压缩,减少了客户端http的传输带宽,可以大幅度提高页面的加载速度。
- 启用缓存,如果请求静态资源,启用缓存是可以大幅度提升性能的。
19.nginx 请求合并
当我们在浏览网页的时候,对浏览速度有一个重要的影响因素,就是浏览器的并发数量。并发数量简单通俗的讲就是,当浏览器网页的时候同时工作的进行数量。当然浏览器的并发请求数目限制是针对同一域名的,同一时间针对同一域名下的请求有一定数量限制,超过限制数目的请求会被阻塞。 首先我们看下各个浏览器的并发连接数: 安装第三方模块nginx-http-concat 合并访问:http://ip:port/static/css/??index.css,common.css
20.请陈述stub_status和sub_filter指令的作用是什么?
Stub_status指令:该指令用于了解Nginx当前状态的当前状态,如当前的活动连接,接受和处理当前读/写/等待连接的总数 ;
Sub_filter指令:它用于搜索和替换响应中的内容,并快速修复陈旧的数据
21.Nginx是否支持将请求压缩到上游?
可以使用Nginx模块gunzip将请求压缩到上游。gunzip模块是一个 过滤器,它可以对不支持“gzip”编码方法的客户机或服务器使用“内 容编码:gzip”来解压缩响应。
22.用Nginx服务器解释-s的目的是什么?
用于运行Nginx -s参数的可执行文件。
23.解释如何在Nginx服务器上添加模块?
在编译过程中,必须选择Nginx模块,因为Nginx不支持模块的运 行时间选择。