精华内容
参与话题
问答
  • 正向代理

    2020-02-12 19:55:58
    正向代理:是一个位于客户端和原始服务器之间的服务器,为了原始服务器取得内容,客户端向代理发送一个请求并指定目标,然后代理向原始服务器转交并将获得的内容返回给客户端。客户端才能使用正向代理正向代理的...

    定义

    正向代理:是一个位于客户端和原始服务器之间的服务器,为了原始服务器取得内容,客户端向代理发送一个请求并指定目标,然后代理向原始服务器转交并将获得的内容返回给客户端。客户端才能使用正向代理。
    正向代理的典型用途是为在防火墙内的局域网客户端提供Internet的途径。正向代理还可以使用缓冲特性减少网络使用率。
    使用ProxyRequests指令即可激活正向代理。因为正向代理允许客户端通过它访问任意网站并且隐藏客户端自身,因此你必须采取安全措施以确保仅为经过授权的客户端提供服务。
    环境准备
    准备两台服务器(两台服务器都拥有两块网卡)
    类似这样
    ens33是外网网卡ens37是内网网卡ens33是外网网卡ens37是内网网卡

    10.0.0.41
    10.0.0.42
    首先的操作在41这台服务器
    添加IP转发

    [root@ localhost ~]# vim /etc/sysctl.conf
    
    net.ipv4.ip_forward=1
    使添加的IP转发生效
    [root@ localhost ~]# sysctl -p
    net.ipv4.ip_forward = 1
    查看防火墙状态
    [root@ localhost ~]# firewall-cmd --add-masquerade --permanent
    FirewallD is not running
    开启防火墙,并查看状态
    [root@ localhost ~]# systemctl start firewalld
    [root@ localhost ~]# systemctl status firewalld
    ● firewalld.service - firewalld - dynamic firewall daemon
       Loaded: loaded (/usr/lib/systemd/system/firewalld.service; disabled; vendor preset: enabled)
       Active: active (running) since Wed 2020-02-12 19:41:23 CST; 6s ago
         Docs: man:firewalld(1)
     Main PID: 2916 (firewalld)
       CGroup: /system.slice/firewalld.service
               └─2916 /usr/bin/python -Es /usr/sbin/firewalld --nofork --nopid
    
    Feb 12 19:41:23 localhost.localdomain systemd[1]: Starting firewalld - dynamic firewall daemon...
    Feb 12 19:41:23 localhost.localdomain systemd[1]: Started firewalld - dynamic firewall daemon.
    再一次查看防火墙是否开启
    [root@ localhost ~]# firewall-cmd --add-masquerade --permanent
    success
    添加规则
    [root@ localhost ~]# firewall-cmd --permanent --direct  --passthrough ipv4 -t nat -I POSTROUTING -o ens37 -j MASQUERADE -s 172.16.1.0/24
    success
    
    [root@ localhost ~]# firewall-cmd --reload 
    success
    
    

    添加内网服务器网关(没有外网IP或者没有外网的服务器)
    这里我们的10.0.0.42服务器充当没有外网的服务器
    这个时候我们需要在没有外网的服务器上添加可以访问外网的内网IP地址为网关就可以访问外网了。
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述

    重启网卡
    systemctl restart network
    关掉外网IP
    ifdown ens33
    查看是否能ping通百度
    ping www.baidu.com
    

    效果如下表示成功
    在这里插入图片描述

    展开全文
  • 正向代理4. 反向代理5. 动静分离6.动静分离二、Nginx 的安装三、 Nginx 的常用命令和配置文件四、 Nginx 配置实例 1 反向代理五、 Nginx 配置实例 2 负载均衡六、 Nginx 配置实例 3 动静分离七、 Nginx 的高可用...

    文章目录

    前言

    一、nginx简介

    1. 什么是 nginx 和可以做什么事情

    • Nginx 是高性能的 HTTP 和反向代理的web服务器,处理高并发能力是十分强大的,能经受高负 载的考验,有报告表明能支持高达 50,000 个并发连接数。

    • 其特点是占有内存少,并发能力强,事实上nginx的并发能力确实在同类型的网页服务器中表现较好,中国大陆使用nginx网站用户有:百度、京东、新浪、网易、腾讯、淘宝等。

    2.Nginx 作为 web 服务器

    • Nginx 可以作为静态页面的 web 服务器,同时还支持 CGI 协议的动态语言,比如 perl、php 等。但是不支持 java。Java 程序只能通过与 tomcat 配合完成。Nginx 专为性能优化而开发, 性能是其最重要的考量,实现上非常注重效率 ,能经受高负载的考验,有报告表明能支持高 达 50,000 个并发连接数。
      https://lnmp.org/nginx.html

    3. 正向代理

    Nginx 不仅可以做反向代理,实现负载均衡。还能用作正向代理来进行上网等功能。 正向代理:如果把局域网外的 Internet 想象成一个巨大的资源库,则局域网中的客户端要访 问 Internet,则需要通过代理服务器来访问,这种代理服务就称为正向代理。

    • 简单一点:通过代理服务器来访问服务器的过程 就叫 正向代理。
    • 需要在客户端配置代理服务器进行指定网站访问

    4. 反向代理

    • 反向代理,其实客户端对代理是无感知的,因为客户端不需要任何配置就可以访问
    • 我们只 需要将请求发送到反向代理服务器,由反向代理服务器去选择目标服务器获取数据后,在返 回给客户端,此时反向代理服务器和目标服务器对外就是一个服务器,暴露的是代理服务器 地址,隐藏了真实服务器 IP 地址。

    5. 负载均衡

    • 增加服务器的数量,然后将请求分发到各个服务器上,将原先请求集中到单个服务器上的 情况改为将请求分发到多个服务器上,将负载分发到不同的服务器,也就是我们所说的负 载均衡

    • 客户端发送多个请求到服务器,服务器处理请求,有一些可能要与数据库进行交互,服 务器处理完毕后,再将结果返回给客户端。

           这种架构模式对于早期的系统相对单一,并发请求相对较少的情况下是比较适合的,成 本也低。但是随着信息数量的不断增长,访问量和数据量的飞速增长,以及系统业务的复杂 度增加,这种架构会造成服务器相应客户端的请求日益缓慢,并发量特别大的时候,还容易 造成服务器直接崩溃。很明显这是由于服务器性能的瓶颈造成的问题,那么如何解决这种情 况呢?

           我们首先想到的可能是升级服务器的配置,比如提高 CPU 执行频率,加大内存等提高机 器的物理性能来解决此问题,但是我们知道摩尔定律的日益失效,硬件的性能提升已经不能 满足日益提升的需求了。最明显的一个例子,天猫双十一当天,某个热销商品的瞬时访问量 是极其庞大的,那么类似上面的系统架构,将机器都增加到现有的顶级物理配置,都是不能 够满足需求的。那么怎么办呢?上面的分析我们去掉了增加服务器物理配置来解决问题的办法,也就是说纵向解决问题 的办法行不通了,那么横向增加服务器的数量呢?这时候集群的概念产生了,单个服务器解 决不了,我们增加服务器的数量,然后将请求分发到各个服务器上,将原先请求集中到单个服务器上的情况改为将请求分发到多个服务器上,将负载分发到不同的服务器,也就是我们 所说的负载均衡
    在这里插入图片描述
    在这里插入图片描述

    6.动静分离

    为了加快网站的解析速度,可以把动态页面和静态页面由不同的服务器来解析,加快解析速 度。降低原来单个服务器的压力。
    在这里插入图片描述

    二、Nginx 的安装(Linux:centos为例)

    nginx安装时,用到的包,我都准备好啦,方便使用:
    https://download.csdn.net/download/qq_40036754/11891855
    本来想放百度云的,但是麻烦,所以我就直接上传到我的资源啦,大家也可以直接联系我,我直接给大家的。

    1. 准备工作

    • 打开虚拟机,使用finallshell链接Linux操作系统
    • 到nginx下载软件
      http://nginx.org/
      在这里插入图片描述
    • 先安装其依赖软件,最后安装nginx。
    • 依赖工具:pcre-8.3.7.tar.gz, openssl-1.0.1t.tar.gz, zlib-1.2.8.tar.gz, nginx-1.11.1.tar.gz。 我这里也提供下。

    2. 开始安装

    • 都有两种方式,一种直接下载,第二种使用解压包方式。这里大多使用解压包方式。
    • 我的安装路径:/usr/feng/
    1. 安装pcre
      方式一、wget http://downloads.sourceforge.net/project/pcre/pcre/8.37/pcre-8.37.tar.gz 。
      方拾二、上传源码压缩包,解压、编译、安装 三部曲。
      1)、解压文件, 进入pcre目录,
      2)、./configure 完成后,
      3)、执行命令: make && make install
    2. 安装 openssl
      下载OpenSSL的地址:
      http://distfiles.macports.org/openssl/
      1)、解压文件, 回到 openssl目录下,
      2)、./configure 完成后,
      3)、执行命令: make && make install
    3. 安装 zlib
      1)、解压文件, 回到 zlib 目录下,
      2)、./configure 完成后,
      3)、执行命令: make && make install
    4. **安装 nginx **
      1)、解压文件, 回到 nginx 目录下,
      2)、./configure 完成后,
      3)、执行命令: make && make install

    3. 运行nginx

    • 安装完nginx后,会在 路径 /usr/local 下自动生成 nginx 文件夹。这是自动生成的。
    • 进入这个目录:
    cd /usr/local/nginx
    

    目录内容如下:
    在这里插入图片描述

    • 进入sbin文件夹,里面有两个文件:nginx 和 nginx.old。
    • 执行命令:./nginx 即可执行
    • 测试启动: ps -ef | grep nginx
      在这里插入图片描述
      已经启动。
    • 查看nginx默认端口(默认为80),使用网页的形式测试,(像Tomcat一样。)
    • 进入目录查看端口:cd /usr/local/nginx/conf 下的 nginx.conf文件。这个文件也是nginx的配置文件。vim 下:
      如下在这里插入图片描述
    • 输入IP:80,则显示:
      在这里插入图片描述

    4. 防火墙问题

    在 windows 系统中访问 linux 中 nginx,默认不能访问的,因为防火墙问题 (1)关闭防火墙 (2)开放访问的端口号,80 端口

    查看开放的端口号

    firewall-cmd --list-all 
    

    设置开放的端口号

    firewall-cmd --add-service=http –permanent 
    firewall-cmd --add-port=80/tcp --permanent 
    

    重启防火墙

    firewall-cmd –reload 
    

    三、 Nginx 的常用命令和配置文件

    1. Nginx常用命令

    a. 使用nginx操作命令前提

    使用nginx操作命令前提:必须进入到nginx的自动生成目录的下/sbin文件夹下
    nginx有两个目录:
    第一个:安装目录,我放在:

    /usr/feng/
    

    第二个:自动生成目录:

    /usr/local/nginx/
    

    b. 查看 nginx 的版本号

    ./nginx -v
    

    在这里插入图片描述

    c. 启动 nginx

    ./nginx
    

    在这里插入图片描述

    d. 关闭nginx

    ./nginx -s stop
    

    在这里插入图片描述

    e. 重新加载 nginx

    在目录:/usr/local/nginx/sbin 下执行命令,不需要重启服务器,自动编译。

    ./nginx -s reload
    

    2. Nginx配置文件

    a. 配置文件位置

    /usr/local/nginx/conf/nginx.conf
    在这里插入图片描述

    b. nginx 的组成部分

    配置文件中有很多#, 开头的表示注释内容,我们去掉所有以 # 开头的段落,精简之后的 内容如下:

    worker_processes  1;
    
    events {
        worker_connections  1024;
    }
    
    http {
        include       mime.types;
        default_type  application/octet-stream;
        sendfile        on;
        keepalive_timeout  65;
    
        server {
            listen       80;
            server_name  localhost;
    
            location / {
                root   html;
                index  index.html index.htm;
            }
            error_page   500 502 503 504  /50x.html;
            location = /50x.html {
                root   html;
            }
        }
    }
    
    • nginx 配置文件有三部分组成

    第一部分:全局块

    从配置文件开始到 events 块之间的内容,主要会设置一些影响nginx 服务器整体运行的配置指令,主要包括配 置运行 Nginx 服务器的用户(组)、允许生成的 worker process 数,进程 PID 存放路径、日志存放路径和类型以 及配置文件的引入等。
    比如上面第一行配置的:

      worker_processes  1;
    

    这是 Nginx 服务器并发处理服务的关键配置,worker_processes 值越大,可以支持的并发处理量也越多,但是 会受到硬件、软件等设备的制约。

    第二部分:events块

    比如上面的配置:

    events {
        worker_connections  1024;
    }
    

    events 块涉及的指令**主要影响 Nginx 服务器与用户的网络连接,常用的设置包括是否开启对多 work process 下的网络连接进行序列化,是否 允许同时接收多个网络连接,选取哪种事件驱动模型来处理连接请求,每个 word process 可以同时支持的最大连接数等。**
    上述例子就表示每个 work process 支持的最大连接数为 1024.
    这部分的配置对 Nginx 的性能影响较大,在实际中应该灵活配置。

    第三部分:

    http {
        include       mime.types;
        default_type  application/octet-stream;
        sendfile        on;
        keepalive_timeout  65;
    
        server {
            listen       80;
            server_name  localhost;
    
            location / {
                root   html;
                index  index.html index.htm;
            }
            error_page   500 502 503 504  /50x.html;
            location = /50x.html {
                root   html;
            }
        }
    }
    

    这算是 Nginx 服务器配置中最频繁的部分,代理、缓存和日志定义等绝大多数功能和第三方模块的配置都在这里。

    需要注意的是:http 块也可以包括 http全局块、server 块。

    • http全局块
      http全局块配置的指令包括文件引入、MIME-TYPE 定义、日志自定义、连接超时时间、单链接请求数上限等。
    • server 块
      这块和虚拟主机有密切关系,虚拟主机从用户角度看,和一台独立的硬件主机是完全一样的,该技术的产生是为了 节省互联网服务器硬件成本。
      每个 http 块可以包括多个 server 块,而每个 server 块就相当于一个虚拟主机。
      而每个 server 块也分为全局 server 块,以及可以同时包含多个 locaton 块。
    1. 全局 server 块
      最常见的配置是本虚拟机主机的监听配置和本虚拟主机的名称或IP配置。
    2. location 块
      一个 server 块可以配置多个 location 块。
      这块的主要作用是基于 Nginx 服务器接收到的请求字符串(例如 server_name/uri-string),对虚拟主机名称 (也可以是IP 别名)之外的字符串(例如 前面的 /uri-string)进行匹配,对特定的请求进行处理。 地址定向、数据缓 存和应答控制等功能,还有许多第三方模块的配置也在这里进行。

    四、 Nginx 反向代理 配置实例 1.1

    1. 实现效果

    • 打开浏览器,在浏览器地址栏输入地址 www.123.com,跳转到 liunx 系统 tomcat 主页 面中

    2. 准备工作

    (1)在 liunx 系统安装 tomcat,使用默认端口 8080,我这里8080被其他应用占用,所以我已修改端口为8081。在conf目录下的server.xml配置文件中,如下,将port改为 8081,其实下面也有类似的Connector 标签,但是要看protocol协议为HTTP/1.1的标签修改即可。

    <Connector port="8081" protocol="HTTP/1.1"
                   connectionTimeout="20000"
                   redirectPort="8443" />
    
    
    • tomcat 安装文件放到 liunx 系统中,解压。
      Tomcat的路径:/usr/feng/apach-tomcat/tomcat8081下
    • 进入 tomcat 的 bin 目录中,./startup.sh 启动 tomcat 服务器。

    (2)对外开放访问的端口 (我这里不需要)

    • firewall-cmd --add-port=8080/tcp --permanent
    • firewall-cmd –reload
    • 查看已经开放的端口号 firewall-cmd --list-all

    (3)在 windows 系统中通过浏览器访问 tomcat 服务器
    别忘了开启tomcat,在bin目录下,使用 命令:

    ./startup.sh
    

    在这里插入图片描述

    3. 访问过程的分析

    在这里插入图片描述

    4、具体配置

    a. 第一步 在 windows 系统的 host 文件进行域名和 ip 对应关系的配置

    在这里插入图片描述
    添加内容在 host 文件中
    在这里插入图片描述

    2. 第二步 在 nginx 进行请求转发的配置(反向代理配置)

    在这里插入图片描述

    5、最终测试

    如上配置,我们监听 80 端口,访问域名为 www.123.com,不加端口号时默认为 80 端口,故 访问该域名时会跳转到 127.0.0.1:8081 路径上。在浏览器端输入 www.123.com 结果如下:

    在这里插入图片描述

    五、 Nginx 反向代理 配置实例 1.2

    1. 实现效果

    实现效果:使用 nginx 反向代理,根据访问的路径跳转到不同端口的服务中
    nginx 监听端口为 9001,
    访问 http://127.0.0.1:9001/edu/ 直接跳转到 127.0.0.1:8081
    访问 http://127.0.0.1:9001/vod/ 直接跳转到 127.0.0.1:8082

    2. 准备工作

    a. 第一步,两个tomcat端口和测试页面

    • 准备两个 tomcat,一个 8081 端口,一个 8082 端口。
      在**/usr/feng/apach-tomcat/下 新建tomcat8081和tomcat8082两个文件夹,将 Tomcat安装包 分别上传到两个文件夹,进行解压缩安装,8081的Tomcat只改一个http协议默认端口号** 就行,直接启动即可。
      这里需要改8082的端口号,需要修改三个端口,只修改一个端口号的话,是启动不了的,我已经测试过了(如果只修改http协议默认端口的话,8081和8082只会启动一个)。因为默认的都是8080(没有的直接创建文件夹,好多都是刚建的,与上面的第一个示例示例有点改动
    1. tomcat8081 解压包,然后进入到 /bin 下 ,使用命令 ./startup 启动

    2. tomcat8082
      使用命令 编辑 文件 :/conf/server.xml 文件
      vim server.xml
      修改后如下:
      1、修改server 的默认端口,由默认8005->8091在这里插入图片描述
      2、修改http协议的默认端口,由默认的8080->8082
      在这里插入图片描述
      3、修改默认ajp协议的默认端口,由默认的8009->9001
      在这里插入图片描述

    • 并准备好测试的页面
      写一个a.html页面,
      tomcat8081的tomcat,放到目录 /webapp/vod 下,内容:
    <h1>fengfanchen-nginx-8081!!!</h1>
    

    tomcat8082的tomcat,放到目录 /webapp/edu 下,内容:

    <h1>fengfanchen-nginx-8082!!!</h1>
    
    • 测试页面
      在这里插入图片描述
      在这里插入图片描述

    b. 第二步,修改 nginx 的配置文件

    修改 nginx 的配置文件 在 http 块中添加 server{}
    修改其中注释的就行。
    在这里插入图片描述
    修改成功后
    在这里插入图片描述

    • 开发的端口: nginx监听端口:8001,tomcat8081端口:8081,tomcat8082端口:8082。
    • 测试结果
      在这里插入图片描述
      在这里插入图片描述
    • location 指令说明

    该指令用于匹配 URL。
    语法如下:

    1、= :用于不含正则表达式的 uri 前,要求请求字符串与 uri 严格匹配,如果匹配 成功,就停止继续向下搜索并立即处理该请求。
    2、~:用于表示 uri 包含正则表达式,并且区分大小写。
    3、~*:用于表示 uri 包含正则表达式,并且不区分大小写。
    4、^~:用于不含正则表达式的 uri 前,要求 Nginx 服务器找到标识 uri 和请求字 符串匹配度最高的 location 后,立即使用此 location 处理请求,而不再使用 location 块中的正则 uri 和请求字符串做匹配。

    注意:如果 uri 包含正则表达式,则必须要有 ~ 或者 ~*标识。

    六、 Nginx 负载均衡 配置实例 2

    1. 实现效果

    浏览器地址栏输入地址 http://208.208.128.122/edu/a.html,负载均衡效果,平均 8081 和 8082 端口中

    2. 准备工作

    a.准备两台 tomcat 服务器

    • 准备两台 tomcat 服务器,一台 8081,一台 8082
    • 上面的反向代理第二个实例中已经配置成功了。但是需要添加点东西,如下哦。

    b. 修改一处

    • 在两台 tomcat 里面 webapps 目录中,创建名称是 edu 文件夹,在 edu 文件夹中创建 页面 a.html,用于测试。
    • 由于第二个实例中,8082中有了 edu 的文件夹,所以只在8081 文件夹下创建即可。
      然后使用在vod文件下使用命令:
    cp a.html ../edu/
    

    即可完成,
    查看命令

    cd ../edu/  # 进入到 edu 目录下
    cat a.html  #查看内容
    

    c. 测试页面

    测试URL

    http://208.208.128.122:8081/edu/a.html
    

    在这里插入图片描述

    http://208.208.128.122:8082/edu/a.html
    

    在这里插入图片描述

    3. 在 nginx 的配置文件中进行负载均衡的配置

    修改了第一个示例的 配置
    在这里插入图片描述

        upstream myserver {
            server 208.208.128.122:8081;
            server 208.208.128.122:8082;
        }
        server {
            listen       80;
            server_name  208.208.128.122;
    
            #charset koi8-r;
    
            #access_log  logs/host.access.log  main;
    
            location / {
                root   html;
                proxy_pass   http://myserver;
                #proxy_pass   http://127.0.0.1:8081;
                index  index.html index.htm;
        }
    

    4. 最终测试

    测试url

    http://208.208.128.122/edu/a.html
    

    在这里插入图片描述
    在这里插入图片描述

    4. nginx 分配服务器策略

    随着互联网信息的爆炸性增长,负载均衡(load balance)已经不再是一个很陌生的话题, 顾名思义,负载均衡即是将负载分摊到不同的服务单元,既保证服务的可用性,又保证响应 足够快,给用户很好的体验。快速增长的访问量和数据流量催生了各式各样的负载均衡产品, 很多专业的负载均衡硬件提供了很好的功能,但却价格不菲,这使得负载均衡软件大受欢迎, nginx 就是其中的一个,在 linux 下有 Nginx、LVS、Haproxy 等等服务可以提供负载均衡服 务,而且 Nginx 提供了几种分配方式(策略):

    a. 轮询(默认)

    每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器 down 掉,能自动剔除。
    配置方式:

    b. weight

    weight 代表权重, 默认为 1,权重越高被分配的客户端越多

        upstream myserver {
            server 208.208.128.122:8081 weight=10;   #  在这儿
            server 208.208.128.122:8082 weight=10;
        }
        server {
            listen       80;
            server_name  208.208.128.122;
            location / {
                root   html;
                proxy_pass   http://myserver;
                index  index.html index.htm;
        }
    

    c. ip_hash

    ip_hash 每个请求按访问 ip 的 hash 结果分配,这样每个访客固定访问一个后端服务器

        upstream myserver {
        	ip_hash;							//  在这儿
            server 208.208.128.122:8081 ;   
            server 208.208.128.122:8082 ;
        }
        server {
            listen       80;
            server_name  208.208.128.122;
            location / {
                root   html;
                proxy_pass   http://myserver;
                index  index.html index.htm;
        }
    

    d. fair(第三方)

    fair(第三方),按后端服务器的响应时间来分配请求,响应时间短的优先分配。

        upstream myserver {					
            server 208.208.128.122:8081 ;   
            server 208.208.128.122:8082 ;
            fair; 														#  在这儿
        }
        server {
            listen       80;
            server_name  208.208.128.122;
            location / {
                root   html;
                proxy_pass   http://myserver;
                index  index.html index.htm;
        }
    

    七、 Nginx 动静分离 配置实例 3

    1. 什么是动静分离

    在这里插入图片描述
    Nginx 动静分离简单来说就是把动态跟静态请求分开,不能理解成只是单纯的把动态页面和 静态页面物理分离。严格意义上说应该是动态请求跟静态请求分开,可以理解成使用 Nginx 处理静态页面,Tomcat 处理动态页面。动静分离从目前实现角度来讲大致分为两种:

    • 一种是纯粹把静态文件独立成单独的域名,放在独立的服务器上,也是目前主流推崇的方案;

    • 另外一种方法就是动态跟静态文件混合在一起发布,通过 nginx 来分开。

    通过 location 指定不同的后缀名实现不同的请求转发。通过 expires 参数设置,可以使 浏览器缓存过期时间,减少与服务器之前的请求和流量。具体 Expires 定义:是给一个资 源设定一个过期时间,也就是说无需去服务端验证,直接通过浏览器自身确认是否过期即可, 所以不会产生额外的流量。此种方法非常适合不经常变动的资源。(如果经常更新的文件, 不建议使用 Expires 来缓存),我这里设置 3d,表示在这 3 天之内访问这个 URL,发送 一个请求,比对服务器该文件最后更新时间没有变化,则不会从服务器抓取,返回状态码 304,如果有修改,则直接从服务器重新下载,返回状态码 200。

    2. 准备工作

    • 在Linux 系统中准备 静态资源,用于进行访问。
      在这里插入图片描述
    1. www文件夹中 a.html
    <h1>fengfanchen-test-html</h1>
    
    1. image 中的 01.jpg
      我的照片哈!!!(自动忽略)
      在这里插入图片描述

    3. 具体配置

    a. 在 nginx 配置文件中进行配置

    在这里插入图片描述

    4. 最终测试

    a. 测试 image

    http://208.208.128.122/image/
    http://208.208.128.122/image/01.jpg
    

    在这里插入图片描述
    在这里插入图片描述

    b. 测试 www

    http://208.208.128.122/www/a.html 
    

    在这里插入图片描述

    八、 Nginx 的高可用集群

    1. 什么是nginx 高可用

    在这里插入图片描述
    配置示例流程:

    1. 需要两台nginx 服务器
    2. 需要keepalived
    3. 需要虚拟IP

    2. 配置高可用的准备工作

    1. 需要两台服务器 208.208.128.122 和 208.208.128.85
    2. 在两台服务器安装 nginx(流程最上面有)
      第二台服务器的默认端口 改为 9001 ,运行并测试,如下:
      在这里插入图片描述
    3. 在两台服务器安装 keepalived

    2. 在两台服务器安装keepalived

    a)安装:

    第一种方式:命令安装

    yum install keepalived -y
    # 查看版本:
    rpm -q -a keepalived
    

    第二种方式:安装包方式(这里我使用这个)
    将压缩包上传至:/usr/feng/
    命令如下:

    cd /usr/feng/
    tar -zxvf keepalived-2.0.18.tar.gz
    cd keepalived-2.0.18
    ./configure
    make && make install
    

    b) 配置文件

    安装之后,在 etc 里面生成目录 keepalived,有文件 keepalived.conf 。
    这个就是主配置文件。
    主从模式主要在这个文件里配置。

    完成高可用配置(主从配置)

    a) 修改 keepalived.conf 配置文件

    修改/etc/keepalived/keepalivec.conf 配置文件

    global_defs { 
       notification_email { 
         acassen@firewall.loc 
         failover@firewall.loc 
         sysadmin@firewall.loc 
       } 
       notification_email_from Alexandre.Cassen@firewall.loc 
       smtp_server 208.208.128.122
       smtp_connect_timeout 30 
       router_id LVS_DEVEL 
    } 
      
    vrrp_script chk_http_port { 
      
       script "/usr/local/src/nginx_check.sh" 
       
       interval 2      #(检测脚本执行的间隔) 
      
       weight 2 
      
    } 
      
    vrrp_instance VI_1 {     
    	state MASTER   # 备份服务器上将 MASTER 改为 BACKUP       
    	interface ens192  //网卡     
    	virtual_router_id 51   # 主、备机的 virtual_router_id 必须相同     
    	priority 100     # 主、备机取不同的优先级,主机值较大,备份机值较小 
        advert_int 1 
        authentication { 
            auth_type PASS 
            auth_pass 1111 
        } 
        virtual_ipaddress {         
    		208.208.128.50 // VRRP H 虚拟地址 
        } 
    }
    

    b) 添加检测脚本

    在/usr/local/src 添加检测脚本

    #!/bin/bash
    A=`ps -C nginx –no-header |wc -l`
    if [ $A -eq 0 ];then
        /usr/local/nginx/sbin/nginx
        sleep 2
        if [ `ps -C nginx --no-header |wc -l` -eq 0 ];then
            killall keepalived
        fi
    fi
    

    c) 开启nginx 和 keepalived

    把两台服务器上 nginx 和 keepalived 启动 :
    启动 nginx:./nginx
    启动 keepalived:systemctl start keepalived.service
    在这里插入图片描述
    85服务一样。

    4. 最终测试

    a)在浏览器地址栏输入 虚拟 ip 地址 192.168.17.50

    在这里插入图片描述
    在这里插入图片描述

    b)把主服务器(192.168.17.129)nginx 和 keepalived 停止,再输入 192.168.17.50

    在这里插入图片描述
    在这里插入图片描述

    九、 Nginx 的原理

    1. mater 和 worker

    • nginx 启动后,是由两个进程组成的。master(管理者)和worker(工作者)。

    • 一个nginx 只有一个master。但可以有多个worker
      在这里插入图片描述

    • ,过来的请求由master管理,worker进行争抢式的方式去获取请求。
      在这里插入图片描述
      在这里插入图片描述

    2. master-workers 的机制的好处

    • 首先,对于每个 worker 进程来说,独立的进程,不需要加锁,所以省掉了锁带来的开销, 同时在编程以及问题查找时,也会方便很多。
    • 可以使用 nginx –s reload 热部署,利用 nginx 进行热部署操作
    • 其次,采用独立的进程,可以让互相之间不会 影响,一个进程退出后,其它进程还在工作,服务不会中断,master 进程则很快启动新的 worker 进程。当然,worker 进程的异常退出,肯定是程序有 bug 了,异常退出,会导致当 前 worker 上的所有请求失败,不过不会影响到所有请求,所以降低了风险。

    3. 设置多少个 worker

    Nginx 同 redis 类似都采用了 io 多路复用机制,每个 worker 都是一个独立的进程,但每个进 程里只有一个主线程,通过异步非阻塞的方式来处理请求, 即使是千上万个请求也不在话 下。每个 worker 的线程可以把一个 cpu 的性能发挥到极致。所以 worker 数和服务器的 cpu 数相等是最为适宜的。设少了会浪费 cpu,设多了会造成 cpu 频繁切换上下文带来的损耗。

    • worker 数和服务器的 cpu 数相等是最为适宜

    4. 连接数 worker_connection

    第一个:发送请求,占用了 woker 的几个连接数?

    • 答案:2 或者 4 个

    第二个:nginx 有一个 master,有四个 woker,每个 woker 支持最大的连接数 1024,支持的 最大并发数是多少?

    • 普通的静态访问最大并发数是: worker_connections * worker_processes /2,
    • 而如果是 HTTP 作 为反向代理来说,最大并发数量应该是 worker_connections * worker_processes/4。

    这个值是表示每个 worker 进程所能建立连接的最大值,所以,一个 nginx 能建立的最大连接 数,应该是 worker_connections * worker_processes。当然,这里说的是最大连接数,对于 HTTP 请 求 本 地 资 源 来 说 , 能 够 支 持 的 最 大 并 发 数 量 是 worker_connections * worker_processes,如果是支持 http1.1 的浏览器每次访问要占两个连接,所以普通的静态访 问最大并发数是: worker_connections * worker_processes /2,而如果是 HTTP 作 为反向代 理来说,最大并发数量应该是 worker_connections * worker_processes/4。因为作为反向代理服务器,每个并发会建立与客户端的连接和与后端服 务的连接,会占用两个连接。

    在这里插入图片描述

    展开全文
  • 正向代理 就是假设有一个内网 内网有两台机器,这两台机器只有 a 可以上网 b 不能上网,但是 a 和 b 通过网络相连接 这时如果 b 想访问外网,就可以通过 a 来正向代理访问外网 正向代理就是在内网中模拟目标服务器,...
  • Nginx正向代理与反向代理详解

    万次阅读 2020-06-17 09:29:59
    代理分为正向代理和反向代理,此文就来演示一下Nginx配置正向代理和反向代理的场景。 二、正向代理和反向代理的区别 正向代理和反向代理的区别我在知乎上找到两张图可以帮助我们很好的理解: 正向代理:客户端 <...

    一、介绍

    实践中客户端无法直接跟服务端发起请求的时候,我们就需要代理服务。代理可以实现客户端与服务端之间的通信,我们的Nginx也可以实现相应的代理服务。代理分为正向代理和反向代理,此文就来演示一下Nginx配置正向代理和反向代理的场景。

    二、正向代理和反向代理的区别

    正向代理和反向代理的区别我在知乎上找到两张图可以帮助我们很好的理解:
    在这里插入图片描述

    在这里插入图片描述

    正向代理:客户端 <一> 代理 一>服务端
    正向代理简单地打个租房的比方:

    A(客户端)想租C(服务端)的房子,但是A(客户端)并不认识C(服务端)租不到。
    B(代理)认识C(服务端)能租这个房子所以你找了B(代理)帮忙租到了这个房子。

    这个过程中C(服务端)不认识A(客户端)只认识B(代理)
    C(服务端)并不知道A(客户端)租了房子,只知道房子租给了B(代理)。

    反向代理:客户端 一>代理 <一> 服务端
    反向代理也用一个租房的例子:

    A(客户端)想租一个房子,B(代理)就把这个房子租给了他。
    这时候实际上C(服务端)才是房东。
    B(代理)是中介把这个房子租给了A(客户端)。

    这个过程中A(客户端)并不知道这个房子到底谁才是房东
    他都有可能认为这个房子就是B(代理)的

    由上的例子和图我们可以知道正向代理和反向代理的区别在于代理的对象不一样,正向代理的代理对象是客户端,反向代理的代理对象是服务端。

    三、Nginx代理的配置演示

    1、正向代理配置场景演示
    正向代理很常见,我们的科学上网就是一种正向代理。
    我们接下来演示正向代理的这么一个场景。
    首先我在我的A服务器的nginx设置访问控制
    访问控制之前我访问A下的test.html是这样的:
    在这里插入图片描述
    我们打开/etc/nginx/conf.d/default.conf
    我们加入这么一个判断语句
    如果访问A的IP不是118.126.106.11(我的B服务器)则返回403.

    location / {
            if ( $remote_addr !~* "^118\.126\.106\.11") {
                return 403;
            }
            root   /opt/app/demo/html;
            index  index.html index.htm;
        }
    

    添加后reload一下nginx再访问test.html:
    在这里插入图片描述
    此时本地我的浏览器就是被限制了,访问不了该资源。
    现在我登录上我的B服务器,打开/etc/nginx/conf.d/default.conf
    添加resolver和proxy_pass,设置如下:

    server {
        listen       80;
        server_name  localhost nginx.tangll.cn;
    
        resolver 8.8.8.8;
        location / {
            proxy_pass http://$http_host$request_uri;
        }
    
        error_page   500 502 503 504  /50x.html;
        location = /50x.html {
            root   /usr/share/nginx/html;
        }
    }
    

    resolver为DNS解析,这里填写的IP为Google提供的免费DNS服务器的IP地址
    proxy_pass配置代理转发
    至此便是配置了B服务器所有访问根一级的请求全部都代理转发对应到httphosthttp_hostrequest_uri去了,httphost访,http_host就是我们要访问的主机名,request_uri就是我们后面所加的参数。
    简单的说至此就是相当于配置好了我们请求了B服务器,B服务器再去请求我们所请求的地址。

    那么接下来我们来看一下结果,我们在本地配置好代理,我这里是mac系统,可以从网络设置中选择高级,然后选择代理
    在这里插入图片描述
    填入我们B服务器的IP,然后我们来看一下代理是否成功。
    我们登录http://www.ip138.com/ 可以看到此时我们的IP地址已经为B服务器的IP,说明代理成功。
    在这里插入图片描述

    然后我们再来访问一下test.html:
    在这里插入图片描述
    这不是翻墙

    结果证明,此时的客户端已经可以成功访问A服务器的资源。
    以上就是正向代理的一个场景演示,这个过程中可以知道,我们客户端是想要A的资源,但是A的资源只有B能拿到,便让B代理去帮助我们访问A的资源。整个过程A只知道B拿了他的资源,并不知道客户端拿到。

    2、反向代理配置场景演示
    反向代理的演示更为简单一些。
    首先在/etc/nginx/conf.d/下新建一个test.conf:

    server {
        listen       8080;
        server_name  localhost nginx.tangll.cn;
    
        location / {
            root   /opt/app/demo/html;
            index  index.html index.htm;
        }
    
        error_page   500 502 503 504 404  /50x.html;
        location = /50x.html {
            root   /usr/share/nginx/html;
        }
    }
    

    可以看到我server里listen的是8080端口,但是我的服务器本身不对外开放8080端口,只开放了80端口。
    所以我们此时访问test.html结果是访问不到的:
    在这里插入图片描述

    然后我们打开我们的/etc/nginx/conf.d/default.conf
    添加proxy_pass设置如下:

    server {
        listen       80;
        server_name  localhost nginx.tangll.cn;
        location / {
            root   /usr/share/nginx/html;
            index  index.html index.htm;
        }
      
        #设置代理
        #location ~ /test.html$ {
        #    proxy_pass http://127.0.0.1:8080;
        #}
    
        error_page   500 502 503 504 404  /50x.html;
        location = /50x.html {
            root   /usr/share/nginx/html;
        }
    }
    

    我们设置当匹配test.html结尾的URL时就去代理访问本机的8080端口
    为了对比我们先注释掉,然后直接80端口访问一下test.html:
    在这里插入图片描述

    可以看到此时返回的404。
    这时候取消注释我们reload一下nginx然后用80端口访问test.html
    在这里插入图片描述

    此时便可访问8080端口配置的资源。
    以上便是完成了一个反向代理的演示,这个过程中我们可以知道,客户端想要访问的是test.html,但是test.html实际上是8080端口下配置的,中间经过了代理才能拿到。也就是说客户端并不知道中间经历了什么代理过程,只有服务端知道。客户端只知道他拿到了test.html也就是8080端口下配置的资源内容。

    四、总结

    由上的打比方和演示例子可以体会到正向代理与反向代理的区别和Nginx正向代理和反向代理的简单配置。正向代理和反向代理的区别上边也说过在于代理的对象不一样,正向代理的代理对象是客户端,反向代理的代理对象是服务端。
    最后一句话总结此文就是
    代理服务器站在客户端那边就是正向代理,
    代理服务器站在原始服务器那边就是反向代理,
    Nginx通过proxy_pass可以设置代理服务。

    展开全文
  • 正向代理和反向代理

    2021-01-19 16:47:09
    文章目录正向代理和反向代理正向代理 参考资料:https://cloud.tencent.com/developer/article/1418457 正向代理和反向代理 正向代理 客户端直接向目标服务器请求资源困难,索引向代理服务器发送请求,代理服务器...


    参考资料:https://cloud.tencent.com/developer/article/1418457

    正向代理和反向代理

    正向代理

    客户端直接向目标服务器请求资源困难,索引向代理服务器发送请求,代理服务器转交客户端的请求给目标服务器,并且返回响应给客户端。实例场景:通过VPN访问外网。

    正向代理的特点:

    1. 正向代理是为了解决客户端访问目标服务器困难的问题
    2. 客户端知道代理服务器的存在
    3. 正向代理,代理的是客户端
    4. 提高访问速度,代理服务器可以缓存响应
    5. 保护客户端安全,代理服务器隐藏了客户端的ip和端口

    展开全文
  • 正向代理 反向代理

    2019-09-15 21:17:12
    正向代理是代理客户端的,正向代理,我们知道目标服务器的地址,但是无法直接发起请求,需要通过代理服务器与目标服务器进行通信。正向代理的用途比如说:无法访问谷歌,利用代理服务器访问谷歌。记录用户的访问信息...
  • 代理概念,正向代理反向代理详细讲解;系统服务器部署讲解
  • 文章目录正向代理反向代理透明代理 正向代理 含义 正向代理,一个位于客户端和原始服务器之间的服务器,为了从原始服务器取得内容,客户端向代理发送一个请求并制定目标(原始服务器),然后代理向原始服务器转发...
  • 正向代理(forward proxy) 正向代理是一种中间人提供的服务,该中间人拦截客户端机器的请求后,再去和服务端通讯(为什么要这样下面在讲) 反向代理(revese proxy) 反向代理也是一种中间人服务,该中间人获取到...
  • 正向代理 & 反向代理

    2021-01-08 19:34:52
    目录正向代理(forward proxy)用途反向代理(reverse proxy)用途正向代理和反向代理的区别 参考链接 终于有人把正向代理和反向代理解释的明明白白了! 正向代理(forward proxy) 一个位于客户端和目标服务器...
  • 有关正向代理和反向代理的简单科普PPT,对于小白来说便于理解和结束,关于PPT的排版和颜色等方面也希望各位大佬能提供宝贵的建议
  • 正向代理与反向代理

    2019-11-27 23:20:11
    正向代理和反向代理
  • 正向代理方向代理

    2019-09-18 22:20:14
    代理,即为提供代理服务器的电脑系统或其他类型网络终端,代替网络...正向代理:代理的是客户端,隐藏了客户端来访问外部资源 1、客户端访问授权,上网认证 2、记录用户访问记录,对外隐藏用户信息 3、访问原来...

空空如也

1 2 3 4 5 ... 20
收藏数 5,876
精华内容 2,350
关键字:

正向代理