反向代理 订阅
反向代理服务器位于用户与目标服务器之间,但是对于用户而言,反向代理服务器就相当于目标服务器,即用户直接访问反向代理服务器就可以获得目标服务器的资源。同时,用户不需要知道目标服务器的地址,也无须在用户端作任何设定。反向代理服务器通常可用来作为Web加速,即使用反向代理作为Web服务器的前置机来降低网络和服务器的负载,提高访问效率。 [1] 展开全文
反向代理服务器位于用户与目标服务器之间,但是对于用户而言,反向代理服务器就相当于目标服务器,即用户直接访问反向代理服务器就可以获得目标服务器的资源。同时,用户不需要知道目标服务器的地址,也无须在用户端作任何设定。反向代理服务器通常可用来作为Web加速,即使用反向代理作为Web服务器的前置机来降低网络和服务器的负载,提高访问效率。 [1]
信息
外文名
Reverse Proxy
本    质
代理服务器的一种
中文名
反向代理
反向代理定义
随着网络技术与计算机的普及与发展,代理服务成为网上应用较多的形式。代理服务是指内部网络对Internet发出连接请求,需要制定代理服务将原本直接传输至Web服务器的HTTP发送至代理服务器中。换句话来说,代理服务就是网络信息的中转站。代理服务器作为浏览器与Web服务器之间的另一类服务器,配备代理服务器,浏览器无需直接至Web服务器获取网页,只需向代理服务器发出所需的请求,由代理服务器传送给访问者所需的浏览器。普通的Web代理服务器仅支持对内部网络的访问请求,反向代理服务与普通的代理方法并不存在明显冲突。如果一个代理服务器可以代理外部网络主机访问内部网络,这类代理服务模式称之为反向代理服务。因此,系统的防火墙中可以同时配备两种方式,反向代理用来服务外部网络访问,从而提供内部网络访问外部网络的能力。将反向代理功能与拒绝外部访问防火墙软件合理结合,从而构建一种既包含内部网络、也能向外部发布Web信息防火墙系统。反向代理功能可以提供全面的连接记录,从而提供预防、捕获信息的能力。 [2]  反向代理的工作原理是,代理服务器来接受客户端的网络访问连接请求,然后服务器将请求有策略的转发给网络中实际工作的业务服务器,并将从业务服务器处理的结果,返回给网络上发起连接请求的客户端。 [3] 
收起全文
精华内容
参与话题
问答
  • nginx反向代理配置去除前缀

    万次阅读 多人点赞 2019-01-07 00:13:28
    使用nginx做反向代理的时候,可以简单的直接把请求原封不动的转发给下一个服务。设置proxy_pass请求只会替换域名,如果要根据不同的url后缀来访问不同的服务,则需要通过如下方法: 方法一:加"/" server ...

    使用nginx做反向代理的时候,可以简单的直接把请求原封不动的转发给下一个服务。设置proxy_pass请求只会替换域名,如果要根据不同的url后缀来访问不同的服务,则需要通过如下方法:

    方法一:加"/"

    server {
        listen              8000;
        server_name         abc.com;
        access_log  "pipe:rollback /data/log/nginx/access.log interval=1d baknum=7 maxsize=1G"  main;
    
        location ^~/user/ {
            proxy_set_header Host $host;
            proxy_set_header  X-Real-IP        $remote_addr;
            proxy_set_header  X-Forwarded-For  $proxy_add_x_forwarded_for;
            proxy_set_header X-NginX-Proxy true;
    
            proxy_pass http://user/;
        }
    
        location ^~/order/ {
            proxy_set_header Host $host;
            proxy_set_header  X-Real-IP        $remote_addr;
            proxy_set_header  X-Forwarded-For  $proxy_add_x_forwarded_for;
            proxy_set_header X-NginX-Proxy true;
    
            proxy_pass http://order/;
        }
    }
    

    ^~/user/表示匹配前缀是user的请求,proxy_pass的结尾有/, 则会把/user/*后面的路径直接拼接到后面,即移除user

    方法二:rewrite

    upstream user {
      server localhost:8089 weight=5;
    }
    upstream order {
      server localhost:8090 weight=5;
    }
    
    server {
        listen              80;
        server_name  abc.com;
        access_log  "pipe:rollback /data/log/nginx/access.log interval=1d baknum=7 maxsize=1G"  main;
    
        location ^~/user/ {
            proxy_set_header Host $host;
            proxy_set_header  X-Real-IP        $remote_addr;
            proxy_set_header  X-Forwarded-For  $proxy_add_x_forwarded_for;
            proxy_set_header X-NginX-Proxy true;
    
            rewrite ^/user/(.*)$ /$1 break;
            proxy_pass http://user;
        }
    
        location ^~/order/ {
            proxy_set_header Host $host;
            proxy_set_header  X-Real-IP        $remote_addr;
            proxy_set_header  X-Forwarded-For  $proxy_add_x_forwarded_for;
            proxy_set_header X-NginX-Proxy true;
    
            rewrite ^/order/(.*)$ /$1 break;
            proxy_pass http://order;
        }
    }
    

    proxy_pass结尾没有/rewrite重写了url。

    参考资料1

    展开全文
  • 反向代理

    2018-11-16 10:18:35
    反向代理(Reverse Proxy)方式是指以代理服务器来接受internet上的连接请求,然后将请求转发给内部网络上的服务器,并将从服务器上得到的结果返回给internet上请求连接的客户端,此时代理服务器对外就表现为一个...

    反向代理(Reverse Proxy)方式是指以代理服务器来接受internet上的连接请求,然后将请求转发给内部网络上的服务器,并将从服务器上得到的结果返回给internet上请求连接的客户端,此时代理服务器对外就表现为一个反向代理服务器。

    工作方式

    通常的代理服务器,只用于代理内部网络对Internet的连接请求,客户机必须指定代理服务器,并将本来要直接发送到Web服务器上的http请求发送到代理服务器中。由于外部网络上的主机并不会配置并使用这个代理服务器,普通代理服务器也被设计为在Internet上搜寻多个不确定的服务器,而不是针对Internet上多个客户机的请求访问某一个固定的服务器,因此普通的Web代理服务器不支持外部对内部网络的访问请求。当一个代理服务器能够代理外部网络上的主机,访问内部网络时,这种代理服务的方式称为反向代理服务。此时代理服务器对外就表现为一个Web服务器,外部网络就可以简单把它当作一个标准的Web服务器而不需要特定的配置。不同之处在于,这个服务器没有保存任何网页的真实数据,所有的静态网页或者CGI程序,都保存在内部的Web服务器上。因此对反向代理服务器的攻击并不会使得网页信息遭到破坏,这样就增强了Web服务器的安全性。

    反向代理方式和包过滤方式或普通代理方式并无冲突,因此可以在防火墙设备中同时使用这两种方式,其中反向代理用于外部网络访问内部网络时使用,正向代理或包过滤方式用于拒绝其他外部访问方式并提供内部网络对外部网络的访问能力。因此可以结合这些方式提供最佳的安全访问方式。

    展开全文
  • nginx反向代理--负载均衡

    万次阅读 多人点赞 2018-10-19 17:39:37
    Nginx配置详解 nginx概述 nginx是一款自由的、开源的、高性能的HTTP服务器和反向代理服务器;同时也是一个IMAP、POP3、SMTP代理服务器;...反向代理 负载均衡 nginx特点 1. 反向代理 关于代理 说到代理,首先...

    Nginx配置详解

    nginx概述

    nginx是一款自由的、开源的、高性能的HTTP服务器和反向代理服务器;同时也是一个IMAP、POP3、SMTP代理服务器;nginx可以作为一个HTTP服务器进行网站的发布处理,另外nginx可以作为反向代理进行负载均衡的实现。

    这里主要通过三个方面简单介绍nginx

    • 反向代理
    • 负载均衡
    • nginx特点

    1. 反向代理

    关于代理

    说到代理,首先我们要明确一个概念,所谓代理就是一个代表、一个渠道;

    此时就设计到两个角色,一个是被代理角色,一个是目标角色,被代理角色通过这个代理访问目标角色完成一些任务的过程称为代理操作过程;如同生活中的专卖店~客人到adidas专卖店买了一双鞋,这个专卖店就是代理,被代理角色就是adidas厂家,目标角色就是用户

     


    正向代理

    说反向代理之前,我们先看看正向代理,正向代理也是大家最常接触的到的代理模式,我们会从两个方面来说关于正向代理的处理模式,分别从软件方面和生活方面来解释一下什么叫正向代理

    正向代理最大的特点是客户端非常明确要访问的服务器地址;服务器只清楚请求来自哪个代理服务器,而不清楚来自哪个具体的客户端;正向代理模式屏蔽或者隐藏了真实客户端信息。

    举例图片审核不过 大家自行理解吧


    反向代理

     

    明白了什么是正向代理,我们继续看关于反向代理的处理方式,举例如我大天朝的某宝网站,每天同时连接到网站的访问人数已经爆表,单个服务器远远不能满足人民日益增长的购买欲望了,此时就出现了一个大家耳熟能详的名词:分布式部署;也就是通过部署多台服务器来解决访问人数限制的问题;某宝网站中大部分功能也是直接使用nginx进行反向代理实现的,并且通过封装nginx和其他的组件之后起了个高大上的名字:Tengine,有兴趣的童鞋可以访问Tengine的官网查看具体的信息:http://tengine.taobao.org/
    那么反向代理具体是通过什么样的方式实现的分布式的集群操作呢,我们先看一个示意图:

     

    通过上述的图解大家就可以看清楚了,多个客户端给服务器发送的请求,nginx服务器接收到之后,按照一定的规则分发给了后端的业务处理服务器进行处理了。此时~请求的来源也就是客户端是明确的,但是请求具体由哪台服务器处理的并不明确了,nginx扮演的就是一个反向代理角色

    反向代理,主要用于服务器集群分布式部署的情况下,反向代理隐藏了服务器的信息!

    项目场景

    通常情况下,我们在实际项目操作时,正向代理和反向代理很有可能会存在在一个应用场景中,正向代理代理客户端的请求去访问目标服务器,目标服务器是一个反向单利服务器,反向代理了多台真实的业务处理服务器。具体的拓扑图如下:

    2. 负载均衡

    我们已经明确了所谓代理服务器的概念,那么接下来,nginx扮演了反向代理服务器的角色,它是以依据什么样的规则进行请求分发的呢?不用的项目应用场景,分发的规则是否可以控制呢?

    这里提到的客户端发送的、nginx反向代理服务器接收到的请求数量,就是我们说的负载量

    请求数量按照一定的规则进行分发到不同的服务器处理的规则,就是一种均衡规则

    所以~将服务器接收到的请求按照规则分发的过程,称为负载均衡。

    负载均衡在实际项目操作过程中,有硬件负载均衡和软件负载均衡两种,硬件负载均衡也称为硬负载,如F5负载均衡,相对造价昂贵成本较高,但是数据的稳定性安全性等等有非常好的保障,如中国移动中国联通这样的公司才会选择硬负载进行操作;更多的公司考虑到成本原因,会选择使用软件负载均衡,软件负载均衡是利用现有的技术结合主机硬件实现的一种消息队列分发机制

     

    nginx支持的负载均衡调度算法方式如下:

    1. weight轮询(默认):接收到的请求按照顺序逐一分配到不同的后端服务器,即使在使用过程中,某一台后端服务器宕机,nginx会自动将该服务器剔除出队列,请求受理情况不会受到任何影响。 这种方式下,可以给不同的后端服务器设置一个权重值(weight),用于调整不同的服务器上请求的分配率;权重数据越大,被分配到请求的几率越大;该权重值,主要是针对实际工作环境中不同的后端服务器硬件配置进行调整的。

    2. ip_hash:每个请求按照发起客户端的ip的hash结果进行匹配,这样的算法下一个固定ip地址的客户端总会访问到同一个后端服务器,这也在一定程度上解决了集群部署环境下session共享的问题。

    3. fair:智能调整调度算法,动态的根据后端服务器的请求处理到响应的时间进行均衡分配,响应时间短处理效率高的服务器分配到请求的概率高,响应时间长处理效率低的服务器分配到的请求少;结合了前两者的优点的一种调度算法。但是需要注意的是nginx默认不支持fair算法,如果要使用这种调度算法,请安装upstream_fair模块

    4. url_hash:按照访问的url的hash结果分配请求,每个请求的url会指向后端固定的某个服务器,可以在nginx作为静态服务器的情况下提高缓存效率。同样要注意nginx默认不支持这种调度算法,要使用的话需要安装nginx的hash软件包

    Nginx安装

    1. windows安装

    官方网站下载地址:

    https://nginx.org/en/download.html
    

     

     

    如下图所示,下载对应的版本的nginx压缩包,解压到自己电脑上存放软件的文件夹中即可

     

    解压完成后,文件目录结构如下:

     

     

    启动nginx

    1) 直接双击该目录下的nginx.exe,即可启动nginx服务器

    2) 命令行计入该文件夹,执行nginx命令,也会直接启动nginx服务器

    D:/resp_application/nginx-1.13.5> nginx

     

    访问nginx

    打开浏览器,输入地址:http://localhost,访问页面,出现如下页面表示访问成功

     

    停止nginx

    命令行进入nginx根目录,执行如下命令,停止服务器:

    # 强制停止nginx服务器,如果有未处理的数据,丢弃
    D:/resp_application/nginx-1.13.5> nginx -s stop
    
    # 优雅的停止nginx服务器,如果有未处理的数据,等待处理完成之后停止
    D:/resp_application/nginx-1.13.5> nginx -s quit

     

    2. ubuntu安装

    按照正常软件的安装方式,直接通过如下命令进行安装:

    $ sudo apt-get install nginx

    安装完成即可,在/usr/sbin/目录下是nginx命令所在目录,在/etc/nginx/目录下是nginx所有的配置文件,用于配置nginx服务器以及负载均衡等信息

     

    查看nginx进程是否启动

    $ ps -ef|grep nginx

    nginx会自动根据当前主机的CPU的内核数目创建对应的进程数量(当前ubuntu主机是2核4线程配置)

    备注:这里启动的服务进程其实是4个进程,因为nginx进程在启动的时候,会附带一个守护进程,用于保护正式进程不被异常终止;如果守护进程一旦返现nginx继承被终止了,会自动重启该进程。

    守护进程一般会称为master进程,业务进程被称为worker进程

     

    启动nginx服务器命令

    直接执行nginx会按照默认的配置文件进行服务器的启动

    $ nginx

     

    停止nginx服务命令

    和windows系统执行过程一样,两种停止方式

    $ nginx -s stop
    or
    $ nginx -s quit

     

    重新启动加载

    同样也可以使用命令reopen和reload来重新启动nginx或者重新加载配合着文件。

     

    3. mac os安装

    直接通过brew进行nginx的安装,或者下载tar.gz压缩包都是可以的。

    直接通过brew进行安装

    brew install nginx

    安装完成后,后续的命令操作,服务器的启动、进程查看、服务器的停止、服务器的重启已经文件加载命令都是一致的。

    nginx配置

    nginx是一个功能非常强大的web服务器加反向代理服务器,同时又是邮件服务器等等

    在项目使用中,使用最多的三个核心功能是反向代理、负载均衡和静态服务器

    这三个不同的功能的使用,都跟nginx的配置密切相关,nginx服务器的配置信息主要集中在nginx.conf这个配置文件中,并且所有的可配置选项大致分为以下几个部分

    main                                # 全局配置
    
    events {                            # nginx工作模式配置
    
    }
    
    http {                                # http设置
        ....
    
        server {                        # 服务器主机配置
            ....
            location {                    # 路由配置
                ....
            }
    
            location path {
                ....
            }
    
            location otherpath {
                ....
            }
        }
    
        server {
            ....
    
            location {
                ....
            }
        }
    
        upstream name {                    # 负载均衡配置
            ....
        }
    }

     

    如上述配置文件所示,主要由6个部分组成:

    1. main:用于进行nginx全局信息的配置
    2. events:用于nginx工作模式的配置
    3. http:用于进行http协议信息的一些配置
    4. server:用于进行服务器访问信息的配置
    5. location:用于进行访问路由的配置
    6. upstream:用于进行负载均衡的配置

    main模块

    观察下面的配置代码

    # user nobody nobody;
    worker_processes 2;
    # error_log logs/error.log
    # error_log logs/error.log notice
    # error_log logs/error.log info
    # pid logs/nginx.pid
    worker_rlimit_nofile 1024;

    上述配置都是存放在main全局配置模块中的配置项

    • user用来指定nginx worker进程运行用户以及用户组,默认nobody账号运行
    • worker_processes指定nginx要开启的子进程数量,运行过程中监控每个进程消耗内存(一般几M~几十M不等)根据实际情况进行调整,通常数量是CPU内核数量的整数倍
    • error_log定义错误日志文件的位置及输出级别【debug / info / notice / warn / error / crit】
    • pid用来指定进程id的存储文件的位置
    • worker_rlimit_nofile用于指定一个进程可以打开最多文件数量的描述

    event 模块

    上干货

    event {
        worker_connections 1024;
        multi_accept on;
        use epoll;
    }

    上述配置是针对nginx服务器的工作模式的一些操作配置

    • worker_connections 指定最大可以同时接收的连接数量,这里一定要注意,最大连接数量是和worker processes共同决定的。
    • multi_accept 配置指定nginx在收到一个新连接通知后尽可能多的接受更多的连接
    • use epoll 配置指定了线程轮询的方法,如果是linux2.6+,使用epoll,如果是BSD如Mac请使用Kqueue

    http模块

    作为web服务器,http模块是nginx最核心的一个模块,配置项也是比较多的,项目中会设置到很多的实际业务场景,需要根据硬件信息进行适当的配置,常规情况下,使用默认配置即可!

    http {
        ##
        # 基础配置
        ##
    
        sendfile on;
        tcp_nopush on;
        tcp_nodelay on;
        keepalive_timeout 65;
        types_hash_max_size 2048;
        # server_tokens off;
    
        # server_names_hash_bucket_size 64;
        # server_name_in_redirect off;
    
        include /etc/nginx/mime.types;
        default_type application/octet-stream;
    
        ##
        # SSL证书配置
        ##
    
        ssl_protocols TLSv1 TLSv1.1 TLSv1.2; # Dropping SSLv3, ref: POODLE
        ssl_prefer_server_ciphers on;
    
        ##
        # 日志配置
        ##
    
        access_log /var/log/nginx/access.log;
        error_log /var/log/nginx/error.log;
    
        ##
        # Gzip 压缩配置
        ##
    
        gzip on;
        gzip_disable "msie6";
    
        # gzip_vary on;
        # gzip_proxied any;
        # gzip_comp_level 6;
        # gzip_buffers 16 8k;
        # gzip_http_version 1.1;
        # gzip_types text/plain text/css application/json application/javascript
     text/xml application/xml application/xml+rss text/javascript;
    
        ##
        # 虚拟主机配置
        ##
    
        include /etc/nginx/conf.d/*.conf;
        include /etc/nginx/sites-enabled/*;

    1) 基础配置

    sendfile on:配置on让sendfile发挥作用,将文件的回写过程交给数据缓冲去去完成,而不是放在应用中完成,这样的话在性能提升有有好处
    tc_nopush on:让nginx在一个数据包中发送所有的头文件,而不是一个一个单独发
    tcp_nodelay on:让nginx不要缓存数据,而是一段一段发送,如果数据的传输有实时性的要求的话可以配置它,发送完一小段数据就立刻能得到返回值,但是不要滥用哦
    
    keepalive_timeout 10:给客户端分配连接超时时间,服务器会在这个时间过后关闭连接。一般设置时间较短,可以让nginx工作持续性更好
    client_header_timeout 10:设置请求头的超时时间
    client_body_timeout 10:设置请求体的超时时间
    send_timeout 10:指定客户端响应超时时间,如果客户端两次操作间隔超过这个时间,服务器就会关闭这个链接
    
    limit_conn_zone $binary_remote_addr zone=addr:5m :设置用于保存各种key的共享内存的参数,
    limit_conn addr 100: 给定的key设置最大连接数
    
    server_tokens:虽然不会让nginx执行速度更快,但是可以在错误页面关闭nginx版本提示,对于网站安全性的提升有好处哦
    include /etc/nginx/mime.types:指定在当前文件中包含另一个文件的指令
    default_type application/octet-stream:指定默认处理的文件类型可以是二进制
    type_hash_max_size 2048:混淆数据,影响三列冲突率,值越大消耗内存越多,散列key冲突率会降低,检索速度更快;值越小key,占用内存较少,冲突率越高,检索速度变慢

    2) 日志配置

    access_log logs/access.log:设置存储访问记录的日志
    error_log logs/error.log:设置存储记录错误发生的日志

    3) SSL证书加密

    ssl_protocols:指令用于启动特定的加密协议,nginx在1.1.13和1.0.12版本后默认是ssl_protocols SSLv3 TLSv1 TLSv1.1 TLSv1.2,TLSv1.1与TLSv1.2要确保OpenSSL >= 1.0.1 ,SSLv3 现在还有很多地方在用但有不少被攻击的漏洞。
    ssl prefer server ciphers:设置协商加密算法时,优先使用我们服务端的加密套件,而不是客户端浏览器的加密套件

    4) 压缩配置

    gzip 是告诉nginx采用gzip压缩的形式发送数据。这将会减少我们发送的数据量。
    gzip_disable 为指定的客户端禁用gzip功能。我们设置成IE6或者更低版本以使我们的方案能够广泛兼容。
    gzip_static 告诉nginx在压缩资源之前,先查找是否有预先gzip处理过的资源。这要求你预先压缩你的文件(在这个例子中被注释掉了),从而允许你使用最高压缩比,这样nginx就不用再压缩这些文件了(想要更详尽的gzip_static的信息,请点击这里)。
    gzip_proxied 允许或者禁止压缩基于请求和响应的响应流。我们设置为any,意味着将会压缩所有的请求。
    gzip_min_length 设置对数据启用压缩的最少字节数。如果一个请求小于1000字节,我们最好不要压缩它,因为压缩这些小的数据会降低处理此请求的所有进程的速度。
    gzip_comp_level 设置数据的压缩等级。这个等级可以是1-9之间的任意数值,9是最慢但是压缩比最大的。我们设置为4,这是一个比较折中的设置。
    gzip_type 设置需要压缩的数据格式。上面例子中已经有一些了,你也可以再添加更多的格式。

    5) 文件缓存配置

    open_file_cache 打开缓存的同时也指定了缓存最大数目,以及缓存的时间。我们可以设置一个相对高的最大时间,这样我们可以在它们不活动超过20秒后清除掉。
    open_file_cache_valid 在open_file_cache中指定检测正确信息的间隔时间。
    open_file_cache_min_uses 定义了open_file_cache中指令参数不活动时间期间里最小的文件数。
    open_file_cache_errors 指定了当搜索一个文件时是否缓存错误信息,也包括再次给配置中添加文件。我们也包括了服务器模块,这些是在不同文件中定义的。如果你的服务器模块不在这些位置,你就得修改这一行来指定正确的位置。

    server模块

    srever模块配置是http模块中的一个子模块,用来定义一个虚拟访问主机,也就是一个虚拟服务器的配置信息

    server {
        listen        80;
        server_name localhost    192.168.1.100;
        root        /nginx/www;
        index        index.php index.html index.html;
        charset        utf-8;
        access_log    logs/access.log;
        error_log    logs/error.log;
        ......
    }

    核心配置信息如下:

    • server:一个虚拟主机的配置,一个http中可以配置多个server

    • server_name:用力啊指定ip地址或者域名,多个配置之间用空格分隔

    • root:表示整个server虚拟主机内的根目录,所有当前主机中web项目的根目录

    • index:用户访问web网站时的全局首页

    • charset:用于设置www/路径中配置的网页的默认编码格式

    • access_log:用于指定该虚拟主机服务器中的访问记录日志存放路径

    • error_log:用于指定该虚拟主机服务器中访问错误日志的存放路径

    location模块

    location模块是nginx配置中出现最多的一个配置,主要用于配置路由访问信息

    在路由访问信息配置中关联到反向代理、负载均衡等等各项功能,所以location模块也是一个非常重要的配置模块

    基本配置

    location / {
        root    /nginx/www;
        index    index.php index.html index.htm;
    }

    location /:表示匹配访问根目录

    root:用于指定访问根目录时,访问虚拟主机的web目录

    index:在不指定访问具体资源时,默认展示的资源文件列表

    反向代理配置方式

    通过反向代理代理服务器访问模式,通过proxy_set配置让客户端访问透明化

    location / {
        proxy_pass http://localhost:8888;
        proxy_set_header X-real-ip $remote_addr;
        proxy_set_header Host $http_host;
    }

    uwsgi配置

    wsgi模式下的服务器配置访问方式

    location / {
        include uwsgi_params;
        uwsgi_pass localhost:8888
    }

    upstream模块

    upstream模块主要负责负载均衡的配置,通过默认的轮询调度方式来分发请求到后端服务器

    简单的配置方式如下

    upstream name {
        ip_hash;
        server 192.168.1.100:8000;
        server 192.168.1.100:8001 down;
        server 192.168.1.100:8002 max_fails=3;
        server 192.168.1.100:8003 fail_timeout=20s;
        server 192.168.1.100:8004 max_fails=3 fail_timeout=20s;
    }

    核心配置信息如下

    • ip_hash:指定请求调度算法,默认是weight权重轮询调度,可以指定

    • server host:port:分发服务器的列表配置

    • -- down:表示该主机暂停服务

    • -- max_fails:表示失败最大次数,超过失败最大次数暂停服务

    • -- fail_timeout:表示如果请求受理失败,暂停指定的时间之后重新发起请求

    展开全文
  • 反向代理5. 动静分离6.动静分离二、Nginx 的安装三、 Nginx 的常用命令和配置文件四、 Nginx 配置实例 1 反向代理五、 Nginx 配置实例 2 负载均衡六、 Nginx 配置实例 3 动静分离七、 Nginx 的高可用集群 前言 一、...

    文章目录

    前言

    一、nginx简介

    1. 什么是 nginx 和可以做什么事情

    • Nginx 是高性能的 HTTP 和反向代理的web服务器,处理高并发能力是十分强大的,能经受高负 载的考验,有报告表明能支持高达 50,000 个并发连接数。

    • 其特点是占有内存少,并发能力强,事实上nginx的并发能力确实在同类型的网页服务器中表现较好,中国大陆使用nginx网站用户有:百度、京东、新浪、网易、腾讯、淘宝等。

    2.Nginx 作为 web 服务器

    • Nginx 可以作为静态页面的 web 服务器,同时还支持 CGI 协议的动态语言,比如 perl、php 等。但是不支持 java。Java 程序只能通过与 tomcat 配合完成。Nginx 专为性能优化而开发, 性能是其最重要的考量,实现上非常注重效率 ,能经受高负载的考验,有报告表明能支持高 达 50,000 个并发连接数。
      https://lnmp.org/nginx.html

    3. 正向代理

    Nginx 不仅可以做反向代理,实现负载均衡。还能用作正向代理来进行上网等功能。 正向代理:如果把局域网外的 Internet 想象成一个巨大的资源库,则局域网中的客户端要访 问 Internet,则需要通过代理服务器来访问,这种代理服务就称为正向代理。

    • 简单一点:通过代理服务器来访问服务器的过程 就叫 正向代理。
    • 需要在客户端配置代理服务器进行指定网站访问

    4. 反向代理

    • 反向代理,其实客户端对代理是无感知的,因为客户端不需要任何配置就可以访问
    • 我们只 需要将请求发送到反向代理服务器,由反向代理服务器去选择目标服务器获取数据后,在返 回给客户端,此时反向代理服务器和目标服务器对外就是一个服务器,暴露的是代理服务器 地址,隐藏了真实服务器 IP 地址。

    5. 负载均衡

    • 增加服务器的数量,然后将请求分发到各个服务器上,将原先请求集中到单个服务器上的 情况改为将请求分发到多个服务器上,将负载分发到不同的服务器,也就是我们所说的负 载均衡

    • 客户端发送多个请求到服务器,服务器处理请求,有一些可能要与数据库进行交互,服 务器处理完毕后,再将结果返回给客户端。

           这种架构模式对于早期的系统相对单一,并发请求相对较少的情况下是比较适合的,成 本也低。但是随着信息数量的不断增长,访问量和数据量的飞速增长,以及系统业务的复杂 度增加,这种架构会造成服务器相应客户端的请求日益缓慢,并发量特别大的时候,还容易 造成服务器直接崩溃。很明显这是由于服务器性能的瓶颈造成的问题,那么如何解决这种情 况呢?

           我们首先想到的可能是升级服务器的配置,比如提高 CPU 执行频率,加大内存等提高机 器的物理性能来解决此问题,但是我们知道摩尔定律的日益失效,硬件的性能提升已经不能 满足日益提升的需求了。最明显的一个例子,天猫双十一当天,某个热销商品的瞬时访问量 是极其庞大的,那么类似上面的系统架构,将机器都增加到现有的顶级物理配置,都是不能 够满足需求的。那么怎么办呢?上面的分析我们去掉了增加服务器物理配置来解决问题的办法,也就是说纵向解决问题 的办法行不通了,那么横向增加服务器的数量呢?这时候集群的概念产生了,单个服务器解 决不了,我们增加服务器的数量,然后将请求分发到各个服务器上,将原先请求集中到单个服务器上的情况改为将请求分发到多个服务器上,将负载分发到不同的服务器,也就是我们 所说的负载均衡
    在这里插入图片描述
    在这里插入图片描述

    6.动静分离

    为了加快网站的解析速度,可以把动态页面和静态页面由不同的服务器来解析,加快解析速 度。降低原来单个服务器的压力。
    在这里插入图片描述

    二、Nginx 的安装(Linux:centos为例)

    nginx安装时,用到的包,我都准备好啦,方便使用:
    https://download.csdn.net/download/qq_40036754/11891855
    本来想放百度云的,但是麻烦,所以我就直接上传到我的资源啦,大家也可以直接联系我,我直接给大家的。

    1. 准备工作

    • 打开虚拟机,使用finallshell链接Linux操作系统
    • 到nginx下载软件
      http://nginx.org/
      在这里插入图片描述
    • 先安装其依赖软件,最后安装nginx。
    • 依赖工具:pcre-8.3.7.tar.gz, openssl-1.0.1t.tar.gz, zlib-1.2.8.tar.gz, nginx-1.11.1.tar.gz。 我这里也提供下。

    2. 开始安装

    • 都有两种方式,一种直接下载,第二种使用解压包方式。这里大多使用解压包方式。
    • 我的安装路径:/usr/feng/
    1. 安装pcre
      方式一、wget http://downloads.sourceforge.net/project/pcre/pcre/8.37/pcre-8.37.tar.gz 。
      方拾二、上传源码压缩包,解压、编译、安装 三部曲。
      1)、解压文件, 进入pcre目录,
      2)、./configure 完成后,
      3)、执行命令: make && make install
    2. 安装 openssl
      下载OpenSSL的地址:
      http://distfiles.macports.org/openssl/
      1)、解压文件, 回到 openssl目录下,
      2)、./configure 完成后,
      3)、执行命令: make && make install
    3. 安装 zlib
      1)、解压文件, 回到 zlib 目录下,
      2)、./configure 完成后,
      3)、执行命令: make && make install
    4. **安装 nginx **
      1)、解压文件, 回到 nginx 目录下,
      2)、./configure 完成后,
      3)、执行命令: make && make install

    3. 运行nginx

    • 安装完nginx后,会在 路径 /usr/local 下自动生成 nginx 文件夹。这是自动生成的。
    • 进入这个目录:
    cd /usr/local/nginx
    

    目录内容如下:
    在这里插入图片描述

    • 进入sbin文件夹,里面有两个文件:nginx 和 nginx.old。
    • 执行命令:./nginx 即可执行
    • 测试启动: ps -ef | grep nginx
      在这里插入图片描述
      已经启动。
    • 查看nginx默认端口(默认为80),使用网页的形式测试,(像Tomcat一样。)
    • 进入目录查看端口:cd /usr/local/nginx/conf 下的 nginx.conf文件。这个文件也是nginx的配置文件。vim 下:
      如下在这里插入图片描述
    • 输入IP:80,则显示:
      在这里插入图片描述

    4. 防火墙问题

    在 windows 系统中访问 linux 中 nginx,默认不能访问的,因为防火墙问题 (1)关闭防火墙 (2)开放访问的端口号,80 端口

    查看开放的端口号

    firewall-cmd --list-all 
    

    设置开放的端口号

    firewall-cmd --add-service=http –permanent 
    firewall-cmd --add-port=80/tcp --permanent 
    

    重启防火墙

    firewall-cmd –reload 
    

    三、 Nginx 的常用命令和配置文件

    1. Nginx常用命令

    a. 使用nginx操作命令前提

    使用nginx操作命令前提:必须进入到nginx的自动生成目录的下/sbin文件夹下
    nginx有两个目录:
    第一个:安装目录,我放在:

    /usr/feng/
    

    第二个:自动生成目录:

    /usr/local/nginx/
    

    b. 查看 nginx 的版本号

    ./nginx -v
    

    在这里插入图片描述

    c. 启动 nginx

    ./nginx
    

    在这里插入图片描述

    d. 关闭nginx

    ./nginx -s stop
    

    在这里插入图片描述

    e. 重新加载 nginx

    在目录:/usr/local/nginx/sbin 下执行命令,不需要重启服务器,自动编译。

    ./nginx -s reload
    

    2. Nginx配置文件

    a. 配置文件位置

    /usr/local/nginx/conf/nginx.conf
    在这里插入图片描述

    b. nginx 的组成部分

    配置文件中有很多#, 开头的表示注释内容,我们去掉所有以 # 开头的段落,精简之后的 内容如下:

    worker_processes  1;
    
    events {
        worker_connections  1024;
    }
    
    http {
        include       mime.types;
        default_type  application/octet-stream;
        sendfile        on;
        keepalive_timeout  65;
    
        server {
            listen       80;
            server_name  localhost;
    
            location / {
                root   html;
                index  index.html index.htm;
            }
            error_page   500 502 503 504  /50x.html;
            location = /50x.html {
                root   html;
            }
        }
    }
    
    • nginx 配置文件有三部分组成

    第一部分:全局块

    从配置文件开始到 events 块之间的内容,主要会设置一些影响nginx 服务器整体运行的配置指令,主要包括配 置运行 Nginx 服务器的用户(组)、允许生成的 worker process 数,进程 PID 存放路径、日志存放路径和类型以 及配置文件的引入等。
    比如上面第一行配置的:

      worker_processes  1;
    

    这是 Nginx 服务器并发处理服务的关键配置,worker_processes 值越大,可以支持的并发处理量也越多,但是 会受到硬件、软件等设备的制约。

    第二部分:events块

    比如上面的配置:

    events {
        worker_connections  1024;
    }
    

    events 块涉及的指令**主要影响 Nginx 服务器与用户的网络连接,常用的设置包括是否开启对多 work process 下的网络连接进行序列化,是否 允许同时接收多个网络连接,选取哪种事件驱动模型来处理连接请求,每个 word process 可以同时支持的最大连接数等。**
    上述例子就表示每个 work process 支持的最大连接数为 1024.
    这部分的配置对 Nginx 的性能影响较大,在实际中应该灵活配置。

    第三部分:

    http {
        include       mime.types;
        default_type  application/octet-stream;
        sendfile        on;
        keepalive_timeout  65;
    
        server {
            listen       80;
            server_name  localhost;
    
            location / {
                root   html;
                index  index.html index.htm;
            }
            error_page   500 502 503 504  /50x.html;
            location = /50x.html {
                root   html;
            }
        }
    }
    

    这算是 Nginx 服务器配置中最频繁的部分,代理、缓存和日志定义等绝大多数功能和第三方模块的配置都在这里。

    需要注意的是:http 块也可以包括 http全局块、server 块。

    • http全局块
      http全局块配置的指令包括文件引入、MIME-TYPE 定义、日志自定义、连接超时时间、单链接请求数上限等。
    • server 块
      这块和虚拟主机有密切关系,虚拟主机从用户角度看,和一台独立的硬件主机是完全一样的,该技术的产生是为了 节省互联网服务器硬件成本。
      每个 http 块可以包括多个 server 块,而每个 server 块就相当于一个虚拟主机。
      而每个 server 块也分为全局 server 块,以及可以同时包含多个 locaton 块。
    1. 全局 server 块
      最常见的配置是本虚拟机主机的监听配置和本虚拟主机的名称或IP配置。
    2. location 块
      一个 server 块可以配置多个 location 块。
      这块的主要作用是基于 Nginx 服务器接收到的请求字符串(例如 server_name/uri-string),对虚拟主机名称 (也可以是IP 别名)之外的字符串(例如 前面的 /uri-string)进行匹配,对特定的请求进行处理。 地址定向、数据缓 存和应答控制等功能,还有许多第三方模块的配置也在这里进行。

    四、 Nginx 反向代理 配置实例 1.1

    1. 实现效果

    • 打开浏览器,在浏览器地址栏输入地址 www.123.com,跳转到 liunx 系统 tomcat 主页 面中

    2. 准备工作

    (1)在 liunx 系统安装 tomcat,使用默认端口 8080,我这里8080被其他应用占用,所以我已修改端口为8081。在conf目录下的server.xml配置文件中,如下,将port改为 8081,其实下面也有类似的Connector 标签,但是要看protocol协议为HTTP/1.1的标签修改即可。

    <Connector port="8081" protocol="HTTP/1.1"
                   connectionTimeout="20000"
                   redirectPort="8443" />
    
    
    • tomcat 安装文件放到 liunx 系统中,解压。
      Tomcat的路径:/usr/feng/apach-tomcat/tomcat8081下
    • 进入 tomcat 的 bin 目录中,./startup.sh 启动 tomcat 服务器。

    (2)对外开放访问的端口 (我这里不需要)

    • firewall-cmd --add-port=8080/tcp --permanent
    • firewall-cmd –reload
    • 查看已经开放的端口号 firewall-cmd --list-all

    (3)在 windows 系统中通过浏览器访问 tomcat 服务器
    别忘了开启tomcat,在bin目录下,使用 命令:

    ./startup.sh
    

    在这里插入图片描述

    3. 访问过程的分析

    在这里插入图片描述

    4、具体配置

    a. 第一步 在 windows 系统的 host 文件进行域名和 ip 对应关系的配置

    在这里插入图片描述
    添加内容在 host 文件中
    在这里插入图片描述

    2. 第二步 在 nginx 进行请求转发的配置(反向代理配置)

    在这里插入图片描述

    5、最终测试

    如上配置,我们监听 80 端口,访问域名为 www.123.com,不加端口号时默认为 80 端口,故 访问该域名时会跳转到 127.0.0.1:8081 路径上。在浏览器端输入 www.123.com 结果如下:

    在这里插入图片描述

    五、 Nginx 反向代理 配置实例 1.2

    1. 实现效果

    实现效果:使用 nginx 反向代理,根据访问的路径跳转到不同端口的服务中
    nginx 监听端口为 9001,
    访问 http://127.0.0.1:9001/edu/ 直接跳转到 127.0.0.1:8081
    访问 http://127.0.0.1:9001/vod/ 直接跳转到 127.0.0.1:8082

    2. 准备工作

    a. 第一步,两个tomcat端口和测试页面

    • 准备两个 tomcat,一个 8081 端口,一个 8082 端口。
      在**/usr/feng/apach-tomcat/下 新建tomcat8081和tomcat8082两个文件夹,将 Tomcat安装包 分别上传到两个文件夹,进行解压缩安装,8081的Tomcat只改一个http协议默认端口号** 就行,直接启动即可。
      这里需要改8082的端口号,需要修改三个端口,只修改一个端口号的话,是启动不了的,我已经测试过了(如果只修改http协议默认端口的话,8081和8082只会启动一个)。因为默认的都是8080(没有的直接创建文件夹,好多都是刚建的,与上面的第一个示例示例有点改动
    1. tomcat8081 解压包,然后进入到 /bin 下 ,使用命令 ./startup 启动

    2. tomcat8082
      使用命令 编辑 文件 :/conf/server.xml 文件
      vim server.xml
      修改后如下:
      1、修改server 的默认端口,由默认8005->8091在这里插入图片描述
      2、修改http协议的默认端口,由默认的8080->8082
      在这里插入图片描述
      3、修改默认ajp协议的默认端口,由默认的8009->9001
      在这里插入图片描述

    • 并准备好测试的页面
      写一个a.html页面,
      tomcat8081的tomcat,放到目录 /webapp/vod 下,内容:
    <h1>fengfanchen-nginx-8081!!!</h1>
    

    tomcat8082的tomcat,放到目录 /webapp/edu 下,内容:

    <h1>fengfanchen-nginx-8082!!!</h1>
    
    • 测试页面
      在这里插入图片描述
      在这里插入图片描述

    b. 第二步,修改 nginx 的配置文件

    修改 nginx 的配置文件 在 http 块中添加 server{}
    修改其中注释的就行。
    在这里插入图片描述
    修改成功后
    在这里插入图片描述

    • 开发的端口: nginx监听端口:8001,tomcat8081端口:8081,tomcat8082端口:8082。
    • 测试结果
      在这里插入图片描述
      在这里插入图片描述
    • location 指令说明

    该指令用于匹配 URL。
    语法如下:

    1、= :用于不含正则表达式的 uri 前,要求请求字符串与 uri 严格匹配,如果匹配 成功,就停止继续向下搜索并立即处理该请求。
    2、~:用于表示 uri 包含正则表达式,并且区分大小写。
    3、~*:用于表示 uri 包含正则表达式,并且不区分大小写。
    4、^~:用于不含正则表达式的 uri 前,要求 Nginx 服务器找到标识 uri 和请求字 符串匹配度最高的 location 后,立即使用此 location 处理请求,而不再使用 location 块中的正则 uri 和请求字符串做匹配。

    注意:如果 uri 包含正则表达式,则必须要有 ~ 或者 ~*标识。

    六、 Nginx 负载均衡 配置实例 2

    1. 实现效果

    浏览器地址栏输入地址 http://208.208.128.122/edu/a.html,负载均衡效果,平均 8081 和 8082 端口中

    2. 准备工作

    a.准备两台 tomcat 服务器

    • 准备两台 tomcat 服务器,一台 8081,一台 8082
    • 上面的反向代理第二个实例中已经配置成功了。但是需要添加点东西,如下哦。

    b. 修改一处

    • 在两台 tomcat 里面 webapps 目录中,创建名称是 edu 文件夹,在 edu 文件夹中创建 页面 a.html,用于测试。
    • 由于第二个实例中,8082中有了 edu 的文件夹,所以只在8081 文件夹下创建即可。
      然后使用在vod文件下使用命令:
    cp a.html ../edu/
    

    即可完成,
    查看命令

    cd ../edu/  # 进入到 edu 目录下
    cat a.html  #查看内容
    

    c. 测试页面

    测试URL

    http://208.208.128.122:8081/edu/a.html
    

    在这里插入图片描述

    http://208.208.128.122:8082/edu/a.html
    

    在这里插入图片描述

    3. 在 nginx 的配置文件中进行负载均衡的配置

    修改了第一个示例的 配置
    在这里插入图片描述

        upstream myserver {
            server 208.208.128.122:8081;
            server 208.208.128.122:8082;
        }
        server {
            listen       80;
            server_name  208.208.128.122;
    
            #charset koi8-r;
    
            #access_log  logs/host.access.log  main;
    
            location / {
                root   html;
                proxy_pass   http://myserver;
                #proxy_pass   http://127.0.0.1:8081;
                index  index.html index.htm;
        }
    

    4. 最终测试

    测试url

    http://208.208.128.122/edu/a.html
    

    在这里插入图片描述
    在这里插入图片描述

    4. nginx 分配服务器策略

    随着互联网信息的爆炸性增长,负载均衡(load balance)已经不再是一个很陌生的话题, 顾名思义,负载均衡即是将负载分摊到不同的服务单元,既保证服务的可用性,又保证响应 足够快,给用户很好的体验。快速增长的访问量和数据流量催生了各式各样的负载均衡产品, 很多专业的负载均衡硬件提供了很好的功能,但却价格不菲,这使得负载均衡软件大受欢迎, nginx 就是其中的一个,在 linux 下有 Nginx、LVS、Haproxy 等等服务可以提供负载均衡服 务,而且 Nginx 提供了几种分配方式(策略):

    a. 轮询(默认)

    每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器 down 掉,能自动剔除。
    配置方式:

    b. weight

    weight 代表权重, 默认为 1,权重越高被分配的客户端越多

        upstream myserver {
            server 208.208.128.122:8081 weight=10;   #  在这儿
            server 208.208.128.122:8082 weight=10;
        }
        server {
            listen       80;
            server_name  208.208.128.122;
            location / {
                root   html;
                proxy_pass   http://myserver;
                index  index.html index.htm;
        }
    

    c. ip_hash

    ip_hash 每个请求按访问 ip 的 hash 结果分配,这样每个访客固定访问一个后端服务器

        upstream myserver {
        	ip_hash;							//  在这儿
            server 208.208.128.122:8081 ;   
            server 208.208.128.122:8082 ;
        }
        server {
            listen       80;
            server_name  208.208.128.122;
            location / {
                root   html;
                proxy_pass   http://myserver;
                index  index.html index.htm;
        }
    

    d. fair(第三方)

    fair(第三方),按后端服务器的响应时间来分配请求,响应时间短的优先分配。

        upstream myserver {					
            server 208.208.128.122:8081 ;   
            server 208.208.128.122:8082 ;
            fair; 														#  在这儿
        }
        server {
            listen       80;
            server_name  208.208.128.122;
            location / {
                root   html;
                proxy_pass   http://myserver;
                index  index.html index.htm;
        }
    

    七、 Nginx 动静分离 配置实例 3

    1. 什么是动静分离

    在这里插入图片描述
    Nginx 动静分离简单来说就是把动态跟静态请求分开,不能理解成只是单纯的把动态页面和 静态页面物理分离。严格意义上说应该是动态请求跟静态请求分开,可以理解成使用 Nginx 处理静态页面,Tomcat 处理动态页面。动静分离从目前实现角度来讲大致分为两种:

    • 一种是纯粹把静态文件独立成单独的域名,放在独立的服务器上,也是目前主流推崇的方案;

    • 另外一种方法就是动态跟静态文件混合在一起发布,通过 nginx 来分开。

    通过 location 指定不同的后缀名实现不同的请求转发。通过 expires 参数设置,可以使 浏览器缓存过期时间,减少与服务器之前的请求和流量。具体 Expires 定义:是给一个资 源设定一个过期时间,也就是说无需去服务端验证,直接通过浏览器自身确认是否过期即可, 所以不会产生额外的流量。此种方法非常适合不经常变动的资源。(如果经常更新的文件, 不建议使用 Expires 来缓存),我这里设置 3d,表示在这 3 天之内访问这个 URL,发送 一个请求,比对服务器该文件最后更新时间没有变化,则不会从服务器抓取,返回状态码 304,如果有修改,则直接从服务器重新下载,返回状态码 200。

    2. 准备工作

    • 在Linux 系统中准备 静态资源,用于进行访问。
      在这里插入图片描述
    1. www文件夹中 a.html
    <h1>fengfanchen-test-html</h1>
    
    1. image 中的 01.jpg
      我的照片哈!!!(自动忽略)
      在这里插入图片描述

    3. 具体配置

    a. 在 nginx 配置文件中进行配置

    在这里插入图片描述

    4. 最终测试

    a. 测试 image

    http://208.208.128.122/image/
    http://208.208.128.122/image/01.jpg
    

    在这里插入图片描述
    在这里插入图片描述

    b. 测试 www

    http://208.208.128.122/www/a.html 
    

    在这里插入图片描述

    八、 Nginx 的高可用集群

    1. 什么是nginx 高可用

    在这里插入图片描述
    配置示例流程:

    1. 需要两台nginx 服务器
    2. 需要keepalived
    3. 需要虚拟IP

    2. 配置高可用的准备工作

    1. 需要两台服务器 208.208.128.122 和 208.208.128.85
    2. 在两台服务器安装 nginx(流程最上面有)
      第二台服务器的默认端口 改为 9001 ,运行并测试,如下:
      在这里插入图片描述
    3. 在两台服务器安装 keepalived

    2. 在两台服务器安装keepalived

    a)安装:

    第一种方式:命令安装

    yum install keepalived -y
    # 查看版本:
    rpm -q -a keepalived
    

    第二种方式:安装包方式(这里我使用这个)
    将压缩包上传至:/usr/feng/
    命令如下:

    cd /usr/feng/
    tar -zxvf keepalived-2.0.18.tar.gz
    cd keepalived-2.0.18
    ./configure
    make && make install
    

    b) 配置文件

    安装之后,在 etc 里面生成目录 keepalived,有文件 keepalived.conf 。
    这个就是主配置文件。
    主从模式主要在这个文件里配置。

    完成高可用配置(主从配置)

    a) 修改 keepalived.conf 配置文件

    修改/etc/keepalived/keepalivec.conf 配置文件

    global_defs { 
       notification_email { 
         acassen@firewall.loc 
         failover@firewall.loc 
         sysadmin@firewall.loc 
       } 
       notification_email_from Alexandre.Cassen@firewall.loc 
       smtp_server 208.208.128.122
       smtp_connect_timeout 30 
       router_id LVS_DEVEL 
    } 
      
    vrrp_script chk_http_port { 
      
       script "/usr/local/src/nginx_check.sh" 
       
       interval 2      #(检测脚本执行的间隔) 
      
       weight 2 
      
    } 
      
    vrrp_instance VI_1 {     
    	state MASTER   # 备份服务器上将 MASTER 改为 BACKUP       
    	interface ens192  //网卡     
    	virtual_router_id 51   # 主、备机的 virtual_router_id 必须相同     
    	priority 100     # 主、备机取不同的优先级,主机值较大,备份机值较小 
        advert_int 1 
        authentication { 
            auth_type PASS 
            auth_pass 1111 
        } 
        virtual_ipaddress {         
    		208.208.128.50 // VRRP H 虚拟地址 
        } 
    }
    

    b) 添加检测脚本

    在/usr/local/src 添加检测脚本

    #!/bin/bash
    A=`ps -C nginx –no-header |wc -l`
    if [ $A -eq 0 ];then
        /usr/local/nginx/sbin/nginx
        sleep 2
        if [ `ps -C nginx --no-header |wc -l` -eq 0 ];then
            killall keepalived
        fi
    fi
    

    c) 开启nginx 和 keepalived

    把两台服务器上 nginx 和 keepalived 启动 :
    启动 nginx:./nginx
    启动 keepalived:systemctl start keepalived.service
    在这里插入图片描述
    85服务一样。

    4. 最终测试

    a)在浏览器地址栏输入 虚拟 ip 地址 192.168.17.50

    在这里插入图片描述
    在这里插入图片描述

    b)把主服务器(192.168.17.129)nginx 和 keepalived 停止,再输入 192.168.17.50

    在这里插入图片描述
    在这里插入图片描述

    九、 Nginx 的原理

    1. mater 和 worker

    • nginx 启动后,是由两个进程组成的。master(管理者)和worker(工作者)。

    • 一个nginx 只有一个master。但可以有多个worker
      在这里插入图片描述

    • ,过来的请求由master管理,worker进行争抢式的方式去获取请求。
      在这里插入图片描述
      在这里插入图片描述

    2. master-workers 的机制的好处

    • 首先,对于每个 worker 进程来说,独立的进程,不需要加锁,所以省掉了锁带来的开销, 同时在编程以及问题查找时,也会方便很多。
    • 可以使用 nginx –s reload 热部署,利用 nginx 进行热部署操作
    • 其次,采用独立的进程,可以让互相之间不会 影响,一个进程退出后,其它进程还在工作,服务不会中断,master 进程则很快启动新的 worker 进程。当然,worker 进程的异常退出,肯定是程序有 bug 了,异常退出,会导致当 前 worker 上的所有请求失败,不过不会影响到所有请求,所以降低了风险。

    3. 设置多少个 worker

    Nginx 同 redis 类似都采用了 io 多路复用机制,每个 worker 都是一个独立的进程,但每个进 程里只有一个主线程,通过异步非阻塞的方式来处理请求, 即使是千上万个请求也不在话 下。每个 worker 的线程可以把一个 cpu 的性能发挥到极致。所以 worker 数和服务器的 cpu 数相等是最为适宜的。设少了会浪费 cpu,设多了会造成 cpu 频繁切换上下文带来的损耗。

    • worker 数和服务器的 cpu 数相等是最为适宜

    4. 连接数 worker_connection

    第一个:发送请求,占用了 woker 的几个连接数?

    • 答案:2 或者 4 个

    第二个:nginx 有一个 master,有四个 woker,每个 woker 支持最大的连接数 1024,支持的 最大并发数是多少?

    • 普通的静态访问最大并发数是: worker_connections * worker_processes /2,
    • 而如果是 HTTP 作 为反向代理来说,最大并发数量应该是 worker_connections * worker_processes/4。

    这个值是表示每个 worker 进程所能建立连接的最大值,所以,一个 nginx 能建立的最大连接 数,应该是 worker_connections * worker_processes。当然,这里说的是最大连接数,对于 HTTP 请 求 本 地 资 源 来 说 , 能 够 支 持 的 最 大 并 发 数 量 是 worker_connections * worker_processes,如果是支持 http1.1 的浏览器每次访问要占两个连接,所以普通的静态访 问最大并发数是: worker_connections * worker_processes /2,而如果是 HTTP 作 为反向代 理来说,最大并发数量应该是 worker_connections * worker_processes/4。因为作为反向代理服务器,每个并发会建立与客户端的连接和与后端服 务的连接,会占用两个连接。

    在这里插入图片描述

    展开全文
  • Nginx配置反向代理

    万次阅读 多人点赞 2019-07-14 14:05:31
    Nginx配置反向代理,什么是反向代理 反向代理服务器决定哪台服务器提供服务。返回代理服务器不提供服务器。只是请求的转发。
  • 相信大家在学习Nginx之前对反向代理和负载均衡就有所闻知,那么今天小编带领大家先来体验一下使用这个Nginx反向代理的感觉。 二、反向代理流程 话说这个Nginx反向代理+负载均衡难吗?实话告诉你们 ...
  • nginx反向代理——将80端口请求转发到8080

    万次阅读 热门讨论 2018-03-25 11:09:46
    先来理解一波概念,什么是nginx反向代理反向代理的意思是以代理服务器(这里也就是nginx)来接收网络上的请求,也就是url(默认是80端口), 1,nginx通过对url里面的一些判断(转达规则配置在nginx配置文件中)...
  • Nginx实现HTTP反向代理配置

    万次阅读 多人点赞 2018-05-31 14:34:15
    无意中发现了一个巨牛的人工智能教程,忍不住分享一下给大家。教程不仅是零基础,通俗易懂,而且非常风趣幽默...反向代理(Reverse Proxy)方式是指以代理服务器来接受internet上的连接请求,然后将请求转发给内部网...
  • nginx反向代理

    万次阅读 2020-07-13 04:17:32
    通过Nginx反向代理加速网站访问速度
  • 反向代理 一、为啥要叫反向代理 正向代理隐藏真实客户端,反向代理隐藏真实服务端。 二、反向代理解决的问题 反向代理解决的就是跨域,在前后端联调的情况下,前端有服务器,后端也有服务器,那么联调时,就...
  • Nginx 是由伊戈尔·赛索耶夫为 俄罗斯 访问量第二的 Rambler.ru 站点开发...对于用户而言,反向代理服务器就是目标服务器,用户不需要知道 Google 的地址,也无须在用户端作任何设定,用户只需直接访问反向代理服务器就
  • 反向代理为什么叫反向代理

    千次阅读 2018-09-12 19:28:05
    Nginx可以实现端口转发,这又叫反向代理。那么什么叫反向代理呢?一开始特别不理解,然后去找一些答案时,发现一个特别形象和容易懂的回答。来自知乎中对此问题的一个回答:https://www.zhihu.com/question/24723688...
  • Nginx 配置实例-反向代理 实现效果:直接输入ip地址即可跳转到 Tomcat 主页 1. 修改 nginx 如下配置: server { listen 80; server_name localhost; #charset koi8-r; #access_log logs/host.access.log ...
  • Nginx反向代理

    千次阅读 2020-12-24 19:02:22
    文章目录Nginx系列文章目录nginx介绍nginx正向代理介绍一、反向代理简介二、反向代理原理三、反向代理作用总结 nginx介绍 nginx介绍:https://blog.csdn.net/qq_45937199/article/details/111637912 nginx正向代理...
  • 反向代理
  • Nginx正向代理与反向代理详解

    万次阅读 2020-06-17 09:29:59
    代理分为正向代理和反向代理,此文就来演示一下Nginx配置正向代理和反向代理的场景。 二、正向代理和反向代理的区别 正向代理和反向代理的区别我在知乎上找到两张图可以帮助我们很好的理解: 正向代理:客户端 <...
  • Nginx 反向代理

    千次阅读 2020-09-22 11:06:49
    利用 Nginx 进行反向代理
  • 反向代理服务器位于用户与目标服务器之间,但是对于用户而言,反向代理服务器就相当于目标服务器,即用户直接访问反向代理服务器就可以获得目标服务器的资源。同时,用户不需要知道目标服务器的地址,也无须在用户端...
  • squid反向代理

    千次阅读 2020-02-27 15:18:14
    干嘛要做反向代理? 当用户浏览器发出一个HTTP请求时,通过域名解析将请求定向到反向代理服务器(如果要实现多个WEB服务器的反向代理,需要将多个WEB服务器的域名都指向反向代理服务器)。由反向代理服务器处理器...
  • 反向代理 反向代理(Reverse Proxy)方式是指以代理服务器来接受internet上的连接请求,然后将请求,发给内部网络上的服务器 并将从服务器上得到的结果返回给internet上请求连接的客户端,此时代理服务器对外就表现...

空空如也

1 2 3 4 5 ... 20
收藏数 45,287
精华内容 18,114
关键字:

反向代理