精华内容
下载资源
问答
  • 传统的Fisher模型没有考虑交易成本,在保证最大化消费者效用的同时,市场均衡分配不一定唯一。论文在Fisher模型的基础上引进交易成本,且假定商品持有者承担交易成本,给出了市场均衡下均衡分配不唯一的充要条件。在此...
  • 利用一种求解混合非线性互补问题的非线性互补方法, 分析具有输电网络约束的电力市场模型的供应函数 N ash 均衡问题. 该方法利用每个策略发电商优化问题的Karush2Kuhn2Tucker (K K T ) 条件将均衡问题表述为一个...
  • 用有5家发电公司参与的电力市场为例,分析了合约电量、绿色证书价格、绿色能源波动等关键因素对市场均衡的影响。分析结果表明:随着合约电量的增大,发电公司在电力市场上总的发电出力增加,而市场电价和发电公司的...
  • 第五章两市场均衡模型:SM模型 第一节投资的决定 第二节IS曲线 第三节LM曲线 第四节ISLM模型 第五节凯恩斯有效需求理论的基本框架 第一节投资的決定 投资需求 1投资 又称资本形成,即社会实际资本资产的增加 定义:是...
  • 运用协同进化算法求取市场均衡, 协同进化算法系一种智能代理仿真 方法, 借鉴了生态系统中协同进化机制的理念。多个算例被用来验证协同进化算法的有效性, 实验 结果表明如果市场存在纯策略均衡, 该算法均能够快速收敛...
  • 本文提出了一个信息不对称的市场,在这个市场上,竞争性框架中可以私下揭示均衡,并且可以保留获取信息的动机。 均衡有效的,并且在不诉诸噪声交易者的情况下,排除了与充分揭示理性预期均衡有关的悖论。 该模型...
  • 分析具有输电网络约束的电力市场模型的供应函数Nash均衡问题。谈方法利用每个策略发电商优化问题的Karush-Kuhn-Tucker(KKT)条件将均衡问题表述为一个混合的非线性互补问题,然后采用某些具有特殊性质的非线性互补...
  • 根据Berge-NS均衡模型制定了电力市场多主体非合作博弈竞争的流程和步骤,并利用磷虾群(KH)优化算法对各市场主体竞价策略的动态调整和市场均衡情况进行求解。通过算例仿真对所构建竞争博弈模型及求解算法进行验证,...
  • 假定在电价拍卖过程中努力竞标是需要付出成本的,在竞标中引入竞标酬金,利用博弈论建立了一种基于竞标酬金和Nash均衡的电力市场...得出的一般性结果表明在两寡头电力市场中竞标酬金不能有效地激励竞标人的努力竞价。
  • 负载均衡

    2012-01-17 18:41:40
    网络专用术语,负载均衡建立在现有网络结构之上,它提供了一种廉价有效透明的方法扩展网络设备和服务器的带宽、增加吞吐量、加强网络数据处理能力、提高网络的灵活性和可用性。 编辑摘要 目录 1 负载均衡2 负载均衡...

    网络专用术语,负载均衡建立在现有网络结构之上,它提供了一种廉价有效透明的方法扩展网络设备和服务器的带宽、增加吞吐量、加强网络数据处理能力、提高网络的灵活性和可用性。

    编辑摘要

    负载均衡 -负载均衡

    负载均衡(Load Balance)

        由于目前现有网络的各个核心部分随着业务量的提高,访问量和数据流量的快速增长,其处理能力和计算强度也相应地增大,使得单一的服务器设备根本无法承担。在此情况下,如果扔掉现有设备去做大量的硬件升级,这样将造成现有资源的浪费,而且如果再面临下一次业务量的提升时,这又将导致再一次硬件升级的高额成本投入,甚至性能再卓越的设备也不能满足当前业务量增长的需求。

        针对此情况而衍生出来的一种廉价有效透明的方法以扩展现有网络设备和服务器的带宽、增加吞吐量、加强网络数据处理能力、提高网络的灵活性和可用性的技术就是负载均衡(Load Balance)。

    负载均衡技术主要应用

        1、DNS负载均衡 最早的负载均衡技术是通过DNS来实现的,在DNS中为多个地址配置同一个名字,因而查询这个名字的客户机将得到其中一个地址,从而使得不同的客户访问不同的服务器,达到负载均衡的目的。DNS负载均衡是一种简单而有效的方法,但是它不能区分服务器的差异,也不能反映服务器的当前运行状态。
        2、代理服务器负载均衡 使用代理服务器,可以将请求转发给内部的服务器,使用这种加速模式显然可以提升静态网页的访问速度。然而,也可以考虑这样一种技术,使用代理服务器将请求均匀转发给多台服务器,从而达到负载均衡的目的。
        3、地址转换网关负载均衡 支持负载均衡的地址转换网关,可以将一个外部IP地址映射为多个内部IP地址,对每次TCP连接请求动态使用其中一个内部地址,达到负载均衡的目的。
        4、协议内部支持负载均衡 除了这三种负载均衡方式之外,有的协议内部支持与负载均衡相关的功能,例如HTTP协议中的重定向能力等,HTTP运行于TCP连接的最高层。
        5、NAT负载均衡 NAT(Network Address Translation 网络地址转换)简单地说就是将一个IP地址转换为另一个IP地址,一般用于未经注册的内部地址与合法的、已获注册的Internet IP地址间进行转换。适用于解决Internet IP地址紧张、不想让网络外部知道内部网络结构等的场合下。
        6、反向代理负载均衡 普通代理方式是代理内部网络用户访问internet上服务器的连接请求,客户端必须指定代理服务器,并将本来要直接发送到internet上服务器的连接请求发送给代理服务器处理。反向代理(Reverse Proxy)方式是指以代理服务器来接受internet上的连接请求,然后将请求转发给内部网络上的服务器,并将从服务器上得到的结果返回给internet上请求连接的客户端,此时代理服务器对外就表现为一个服务器。反向代理负载均衡技术是把将来自internet上的连接请求以反向代理的方式动态地转发给内部网络上的多台服务器进行处理,从而达到负载均衡的目的。
        7、混合型负载均衡 在有些大型网络,由于多个服务器群内硬件设备、各自的规模、提供的服务等的差异,我们可以考虑给每个服务器群采用最合适的负载均衡方式,然后又在这多个服务器群间再一次负载均衡或群集起来以一个整体向外界提供服务(即把这多个服务器群当做一个新的服务器群),从而达到最佳的性能。我们将这种方式称之为混合型负载均衡。此种方式有时也用于单台均衡设备的性能不能满足大量连接请求的情况下。

    负载均衡 -负载均衡的四个分类

    软/硬件负载均衡

      软件负载均衡解决方案是指在一台或多台服务器相应的操作系统上安装一个或多个附加软件来实现负载均衡,如DNS Load Balance,CheckPoint Firewall-1 ConnectControl等,它的优点是基于特定环境,配置简单,使用灵活,成本低廉,可以满足一般的负载均衡需求。

      软件解决方案缺点也较多,因为每台服务器上安装额外的软件运行会消耗系统不定量的资源,越是功能强大的模块,消耗得越多,所以当连接请求特别大的时候,软件本身会成为服务器工作成败的一个关键;软件可扩展性并不是很好,受到操作系统的限制;由于操作系统本身的Bug,往往会引起安全问题。

      硬件负载均衡解决方案是直接在服务器和外部网络间安装负载均衡设备,这种设备我们通常称之为负载均衡器,由于专门的设备完成专门的任务,独立于操作系统,整体性能得到大量提高,加上多样化的负载均衡策略,智能化的流量管理,可达到最佳的负载均衡需求。

      负载均衡器有多种多样的形式,除了作为独立意义上的负载均衡器外,有些负载均衡器集成在交换设备中,置于服务器与Internet链接之间,有些则以两块网络适配器将这一功能集成到PC中,一块连接到Internet上,一块连接到后端服务器群的内部网络上。

      一般而言,硬件负载均衡在功能、性能上优于软件方式,不过成本昂贵。

      本地/全局负载均衡

      负载均衡从其应用的地理结构上分为本地负载均衡(Local Load Balance)和全局负载均衡(Global Load Balance,也叫地域负载均衡),本地负载均衡是指对本地的服务器群做负载均衡,全局负载均衡是指对分别放置在不同的地理位置、有不同网络结构的服务器群间作负载均衡。

      本地负载均衡能有效地解决数据流量过大、网络负荷过重的问题,并且不需花费昂贵开支购置性能卓越的服务器,充分利用现有设备,避免服务器单点故障造成数据流量的损失。其有灵活多样的均衡策略把数据流量合理地分配给服务器群内的服务器共同负担。即使是再给现有服务器扩充升级,也只是简单地增加一个新的服务器到服务群中,而不需改变现有网络结构、停止现有的服务。

      全局负载均衡主要用于在一个多区域拥有自己服务器的站点,为了使全球用户只以一个IP地址或域名就能访问到离自己最近的服务器,从而获得最快的访问速度,也可用于子公司分散站点分布广的大公司通过Intranet(企业内部互联网)来达到资源统一合理分配的目的。

      全局负载均衡有以下的特点:

      实现地理位置无关性,能够远距离为用户提供完全的透明服务。

      除了能避免服务器、数据中心等的单点失效,也能避免由于ISP专线故障引起的单点失效。

      解决网络拥塞问题,提高服务器响应速度,服务就近提供,达到更好的访问质量。

    负载均衡 -常见产品


      

    1.F5 负载均衡器

      目前全球范围内应用最为广泛的负载均衡设为为美国F5公司。F5公司于2000年底进驻中国,目前已分别在北京、上海、广州、成都、深圳、珠海设立了办事机构。在华拥有超过500位的F5认证工程师,为遍布全国的用户提供全面的技术支持。 在国内业界,F5产品已经成为了主流负载均衡技术的代名词。
      产品技术特点:
      1)全面的负载均衡
      BIG-IP LTM(本地流量管理)包含静态和动态负载均衡方法,包括动态速率、最少连接和观察模式的动态平衡,这些方法用于以整体方式跟踪服务器的动态性能。这保证了始终选择最佳的资源,以提高性能。可支持所有基于TCP/IP协议的服务器负载均衡。可支持最小连接数、轮询、比例、最快响应、哈希、预测、观察、动态比例等负载均衡算法。
      2)应用状态监控
      BIG-IP LTM提供的监视器,用于检查设备、应用和内容的可用性,包括适合多种应用的专用监视器(包括多种应用服务器、SQL、SIP、LDAP、XML/SOAP、RTSP、SASP、SMB等),以及用于检查内容和模拟应用调用的定制监视器。
      3)高可用性和交易保障
      BIG-IP LTM提供了次秒级系统故障切换和全面的连接映射,无论出现何种系统、服务器或应用故障,都能保证它是一个高可用的解决方案。BIG-IP LTM可以主动检测和响应任何服务器或应用错误。
      4)支持NAT地址转换
      提供NAT地址转换功能,能够实现动态或静态地址转换。
      5)支持访问控制列表
      能够实现防火墙的基本功能,建立访问控制列表,拒接IP网段或端口号吗。
      6)广域流量管理器(插件模块)
      为在全球各地的多个数据中心中运行的应用提供高可用性、最高的性能和全局管理。
      7) 链路控制器(插件模块)
      无缝地监控多个WAN连接的可用性和性能,智能地管理站点的双向流量,从而提供容错的、经过优化的互联网接入。比如管理控制CT和CNC的网络流量。
      8)应用防火墙(插件模块)
      该模块可加入到F5设备中,为设备提供更高级的安全服务。
      9)支持路由
      该功能为F5设备中基本功能,但只支持静态路由,如果使用较为高级的OSPF路由协议,需要购买单独的模块来支持。
      扩展应用-降低服务器负载
      1)内容转换
      BIG-IP LTM为将许多繁杂或者重复功能卸载到集中的高性能网络设备上提供了全面的解决方案。SSL、压缩以及BIG-IP LTM的其它多项功能提供了一个完整的内容转换网关,可重定向、插入或者全面转换应用内容,以实现有效且高效的应用集成。
      2) OneConnect
      F5 OneConnect™ 将数百万个请求汇聚为几百个服务器端的连接,确保后端系统能够高效地处理这些连接,从而使服务器容量提高60%。
      3)高速缓存
      智能缓存功能通过将重复流量从Web和应用服务器上卸载,使服务器容量提高9倍,从而实现显著的成本节约。该功能也是业内唯一提供多存储库缓存的解决方案,能够针对各应用或部门管理不同的缓存库,为高优先级的应用提供精确的智能控制。
      4) SSL加速和卸载
      每个BIG-IP LTM设备提供了硬件加速方式的SSL加密,以消除应用服务器的SSL负担。通过加快设置和批量加密,企业可以采用更安全的密码将全部通信迁移到SSL,几乎不会导致应用性能下降或瓶颈。
      优化的应用
      1)智能应用交换
      BIG-IP LTM拥有读取所有IP应用的独特能力,因此,它可以转换并且持续保留特定供应商的应用服务器(Microsoft、IBM、Oracle、SUN等)的独特信息; Web服务应用的XML数据;或者指示移动/无线应用的定制数值。您的企业可以借助BIG-IP LTM转换、记录以及持续保留有效负载或数据流的能力,实现更高的可靠性和可扩展性。
      2)智能压缩
      将应用性能提高至3倍,同时使带宽的使用量减少80%。使用业界标准的gzip和DEFLATE压缩算法减少HTTP流量,通过更慢/低的带宽连接降低带宽消耗量,缩短用户下载时间。这一功能对于压缩多种类型的文件提供了丰富的支持能力,包括HTTP、XML、JavaScript、J2EE应用等。
      3)灵活的第4至7层流量整形
      通过为更高优先级的应用分配带宽,控制流量峰值,并且根据第4层或第7层参数确定流量的优先级,保证最佳的应用性能。即目前我们IDC机房在核心交换机上所启用的QOS功能。
      4) TCP Express
      BIG-IP LTM的高度优化的TCP/IP堆栈(称为TCP Express™)将TCP/IP技术和最新RFC的改进功能,与F5开发的多项改进和扩展功能相结合,最大限度降低了拥塞、丢包和恢复的影响。BIG-IP LTM是一个全代理设备,因此,TCP Express可以屏蔽并且透明地优化服务器或客户端上运行的原有的或者不兼容的TCP堆栈。这样可以使用户的性能提高2倍,并且使带宽效率提高4倍,同时降低您的服务器上的连接负载。
      安全的应用
      1)基础防火墙功能——数据包过滤
      BIG-IP LTM集成了一个控制点,用于定义和执行基于第4层的过滤规则(基于PCAP,类似于网络防火墙),以提高网络防护能力。
      2)资源隐藏和内容安全
      BIG-IP LTM对所有应用、服务器错误代码和真正的URL参考实现了虚拟化和隐藏,因为这些可能为黑客提供关于基础架构、服务及其相关漏洞的信息。敏感的文档或内容将不允许离开您的站点。
      3)定制的应用攻击过滤
      全面的检测和基于事件的策略为搜索、检测和应用多种规则阻止已知第7层攻击提供了显著增强的能力。BIG-IP LTM还采用安全的应用模板阻止已知攻击和针对应用业务逻辑的攻击。额外的安全层可防止黑客、病毒和蠕虫,同时为合法流量提供持续的服务。
      4)隔离协议攻击
      BIG-IP LTM提供了协议无害处理 (Protocol Sanitization) 和充分TCP终止 (Full TCP Termination)点来单独管理客户端和服务器端连接,以保护所有后端系统和应用免遭恶意攻击。
      5)网络攻击防护
      BIG-IP LTM作为安全代理,可防护DoS攻击、SYN Flood以及其它基于网络的攻击。诸如SYNCheck™等特性可为部署在BIG-IP设备后的服务器提供全面的SYN Flood保护。BIG-IP LTM采用Dynamic Reaping(获取空闲连接的一种自适应方法)过滤掉负载最重的攻击,同时为合法连接提供不间断的服务。
      6)有选择的加密
      BIG-IP LTM提供了业界最具选择性的加密方法,对数据进行整体、部分或有条件的加密,从而保护并优化不同用户之间的通信。
      7)Cookie加密
      透明地分配给合法用户的Cookie和其它令牌都经过加密。企业可获得针对全部带状态的应用(电子商务、CRP、ERP和其它关键业务应用)的卓越安全性,以及更高的用户身份信任度。
      8)高级SSL加密标准
      BIG-IP LTM采用市场上最安全的SSL加密技术,支持更高标准的AES算法,而无需额外的处理成本。
      9)抓包工具
      提供tcpdump工具作为抓包分析使用,可用于故障处理,流量分析等方向。

      2.深信服

      深信服应用交付AD产品具备服务器负载均衡、链路负载均衡、单边加速、智能优化技术、SSL加速、商业智能分析等优势功能,将用户访问请求智能匹配到最优的链路,并为用户选择响应最快的服务器,提升用户使用体验,并为企业提供科学管理的决策。
      产品技术特点:
      深信服AD系列产品不仅包含传统的链路负载均衡以及服务器负载均衡的所有功能,同时具备单边加速、DNS透明代理、链路繁忙控制、智能路由、商业智能分析等众多快速、智能的优化技术,能够最大程度提升用户的访问体验。
      单边加速功能
      客户端无需安装任何插件和软件即可提升用户访问速度,这使得用户可以更快更稳定地访问发布内容,打造稳定智能的业务发布平台。
      商业智能分析
      深信服AD应用交付产品区别于传统负载均衡设备,更加关注企事业单位应用的整体交付过程中与业务、网络优化相关的一系列问题。其中最显著的特点就是,在保证应用交付过程中稳定性的前提下,不仅可以知悉组织网络和服务器的运行状况,更重要的是可以帮助组织分析自身的业务系统运行状况,以此为高层的网络优化和业务优化提供决策依据。
      链路负载和服务器负载二合一
      深信服AD产品包括链路优化和服务器优化,四到七层负载均衡,实现对各个链路以及服务器状态的实时监控,同时根据预设的规则将请求分配给相应的链路以及服务器,以此最终实现数据流的合理分配,使所有的链路和服务器都得到充分的利用,扩展应用系统的整体处理能力,提高应用系统的稳定性,改善用户的访问体验,降低组织IT投资成本。
      高投资回报比
      深信服AD系列应用交付产品打破国外厂商垄断,在同等投入水平下,具备链路、服务器二合一负载均衡解决方案,并直接开通SSL加速、缓存、压缩等众多优化功能,获得超出业界同类产品的设备性能
      功能价值
      
    链路负载均衡
    技术功能 功能价值
    负载均衡算法丰富:轮询、加权轮询、加权最小连接等 满足客户多种负载形式的需求,将用户访问请求合理的分配,实现业务快速、智能、稳定的访问
    支持入站/出站双向负载 入站流量及出站流量均支持负载均衡,提升组织多链路资源的带宽利用率
    DNS透明代理 即使内网用户DNS服务器配置不良,亦能实现上网链路的最佳选择
    链路拥塞控制 实时检测多链路状态,避免将请求发送给已过载的链路,提升链路使用率,实现链路保护
    链路健康检查 链路健康检查,及时排除链路故障
    服务器负载均衡
    技术功能 功能价值
    负载均衡算法丰富:轮询、URL散列、动态反馈、最快反应等 将用户访问均衡的分配给各台服务器,提升服务器响应速度,服务器资源利用率,以及访问请求的响应速度
    数据压缩 缓存及http压缩,答复降低服务器压力,缩短用户下载资源的时间,提升效率
    单边加速 客户端无需安装任何插件及软件情况下,大幅提升访问速度,改善用户体验
    SSL加速 将SSL加解密工作转交给应用交付设备,降低对服务器资源的占用,提升服务器响应能力
    服务器健康检查 服务器健康检查并及时发现故障服务器,保障用户访问的连贯性
    商业智能分析
    技术功能 功能价值
    链路负载报表 提供流量、访问次数、带宽利用率等面数据统计,帮助管理人员直观的了解链路运行状态
    服务器负载报表 提供流量、访问次数、并发连接数等数据,帮助管理人员直观了解服务器运行状态
    商业决策BI 提供用户时段分析、用户地域分析、用户类别分析等数据,让企业决策者清晰了解访问者分布及特点,为管理提供智慧决策依据
    稳定性统计 具备链路稳定性及服务器稳定性报表,管理人员可查看各链路、服务器状态是正常、繁忙还是故障,便于及时调整
    设备管理
    技术功能 功能价值
    智能告警系统 当服务器、应用系统故障时,以邮件、短信等方式通知管理员,以便及时维护并保障业务正常
    全中文界面 图形化配置界面,具备配置向导辅助配置,大大降低配置难度
    多级授权管理 用户与角色相分离,实现管理权限最大化细分,保障组织信息管理安全性
    安全防护 DOS攻击及ARP欺骗防护手段阻挡来自互联网的攻击,提高系统安全性
    配置备份/恢复 支持从设备图形配置界面直接备份及恢复备份配置,便于设备管理

      3.梭子鱼

      梭子鱼负载均衡机通过为多台服务器进行流量均衡、网络入侵防护等流量优化和安全扫描机制,实现应用的高可用性和安全性,并通过完善的服务器健康检查机制,为应用提供冗余。梭子鱼使用软、硬件一体化设计,避免了根据服务器台数和端口数的收费方式,为用户提供性价比极高的应用安全负载均衡。
      高可用性与高可扩展性
      据行业分析报告,目前只有不到20%的核心应用实现了高可用性。应用高可用性所面临的巨大挑战包括了持续工作时间的延长、应用的扩容和攻击的防护。梭子鱼负载均衡机使用完善的服务器健康检查对真实服务器进行实时监控,确保用户的请求始终到达健康的服务器,得到正常的响应。对于梭子鱼负载均衡机自身的高可用性,可以通过梭子鱼负载均衡机的集群部署实现。
      对于高流量的应用环境,梭子鱼负载均衡机通过动态权重分配机制根据每台服务器的实时处理能力进行流量的均衡。对于需要会话保持的应用,梭子鱼负载均衡机提供源IP会话保持以及7层的cookie会话保持功能。
      易于管理和维护
      梭子鱼负载均衡机部署简单。通过服务器自动发现功能和友好的Web配置界面,帮助用户轻松完成配置。同时,梭子鱼通过集成的IPS为应用提供实时的安全防护。
      梭子鱼负载均衡机的Web管理界面提供完善的数据统计,对设备的性能、流量等数据进行实时统计,同时提供易于操作的服务配置页面,为管理员提供方便的管理。

    负载均衡 -实际解决方案


     

      应用背景

      X集团是一家大型中国连锁性家电销售企业,在集团内部启动了OA建设,保障集团的办公效率。
      对于X集团的本次OA系统上线来说,主要存在着两大可用性挑战:
      1、 内部员工中需要使用此OA系统的人数过万,并发量对OA所提供的访问性能提出了较高要求;
      2、 连锁型企业特性决定了内部OA系统访问人员分散在全国各地,存在一定的链路性能问题,将对OA的推广、实际应用产生一定的阻力;
      3、 为保障内部人员访问的性能,X集团为OA系统配置了多台应用服务器,但尚无较好的方法来平衡各服务器的负担,可能会造成高并发访问的时候用户访问体验下降;
      基于以上的细致风险分析,X集团IT部决定采用国内规模最大、创新能力最强的深信服科技最新一代的应用交付技术来帮助新上线的OA系统实现最佳表现。新一代的应用交付技术由负载均衡技术发展而来,除了拥有传统3-4层负载技术之外,应用交付技术还融合了多项7层应用优化和增强稳定性的功能,使得应用交付技术特别适合在OA系统建设中发挥作用。
      X集团采用了其所提出的在服务器核心交换机前端以双机热备的部署模式部署两台深信服应用交付产品,具体部署图如右图所示:
        部署拓扑图通过在OA服务器群前部署深信服AD系列应用交付产品,X集团实现了以下效果:
      1、负载均衡接收到分支用户的请求,通过预先设定好的负载均衡算法(最小连接算法),然后将数据包发出到当前连接数最少的服务器。后台服务器收到后,将应答包按照其路由发回到负载均衡设备。
      2、负载均衡设备收到应答包后将其中的源地址请求发回客户端,由此就完成了一个标准的服务器负载平衡的流程,保障访问回包处于最快速、直接的路由中;
      3、对于所有应用服务器,同时采用可持续检查服务器的健康状态,一旦发现故障服务器,则将其从负载均衡组中移除。服务器健康检查采用7层应用检测,确保了提供服务器处于工作状态。一旦出现服务器性能急剧下降甚至宕机的情况,其所有连接将被平滑转移到其他健康服务器上,保障OA系统访问体验;
      4、通过合理的调度算法,对后台各服务器的性能负载进行了平衡,使得各服务器均能在性能之内发挥做大作用;
      5. 凭借深信服AD系列应用交付产品的特色功能——单边加速技术,较好的解决基于互联网甚至远程专线里普遍存在的丢包、延迟问题,通过此项技术一些远程发布的应用体验将得到很好的保障。

      最终效果:

      1. 通过合适机制实现了对办公自动化系统对于高性能的要求。
      2. 实现了通过丰富的服务器健康检查机制实现办公自动系统的冗余性;通过上述方案使得办公自动化平台的访问更加快速稳定,全体工作人员的工作效率得到进一步的提升.
    展开全文
  • 以房地产市场供求的非均衡问题为中心,采用协整分析法确定非均衡计量经济模型参数估计迭代的初始值,运用非均衡计量经济模型对我国房地产市场供求总量进行了分析,从定量的角度对房地产市场的非均衡问题进行了研究。...
  • 市场有效的吗?

    2020-03-10 19:15:43
    市场有效的吗? 有效市场假说(EMH)已经被当做金融教科书中的经典部分讲解,EMH指的是在一个充分竞争和自由的金融市场中,资产的当前价格已经包含了所有信息,投资者无法通过分析获得超过市场平均水平的收益。...

           有效市场假说(EMH)已经被当做金融教科书中的经典部分讲解,EMH指的是在一个充分竞争和自由的金融市场中,资产的当前价格已经包含了所有信息,投资者无法通过分析获得超过市场平均水平的收益。反过来想,假设市场上出现了可以获取超额收益的机会,那么聪明的投资者会立马进行套利,这样该机会就会立马消失,从而市场立即会变得有效。所以,在一个有效的市场中,投资者只能获取市场平均收益,这种理论也使得指数投资基金兴起。理论终究是理论,那么,真实的市场是有效的吗?

           对于一个理论或者假设来说,其结论总是依赖一些基本的前提假设的,要把一个理论和实际连接起来,关键就是要对比理论中的基本假设和现实情况是否相符。那么EMH的逻辑线中,其有哪些基本的隐含前提呢?

    第一,充分竞争和自由无摩擦保证了EMH中的金融市场不存在可以肆意操作市场的垄断者,以及忽略套利成本,这使得在EMH中,套利行为不会受套利成本的限制,成本即门槛,如果存在较高的套利成本,那么投资者很可能因为套利门槛过高,根本无法消除甚至识别这样的套利机会,即使在剔除成本后,该套利机会的收益是超过市场水平的;该条件可以弱化为可自由借贷的充分竞争的市场,可以允许市场摩擦的存在,那么在论述市场有效性时,投资者收益便应该指其净收益;同样的,弱化该假设后,套利行为尽管有成本,但是可自由借贷,所以不存在规模限制,即不管多大的套利规模,都可以被投资者充分套利,这是重要的一点。

    第二,最重要的假设,即理性人假设,EMH假设市场中存在很多这样的投资者,他们是充分聪明和理性的,可以充分识别市场中繁杂的信息,并可以充分的处理和利用不同的信息,提取信号,识别所有的潜在套利机会,进行交易,从而让价格回到一种无法再获取超额收益的水平,要注意,这里的理性人假设是很强的,需要其可以识别所有潜在的套利机会,因为只有还存在潜在的套利机会未被识别,那么便不能说市场是有效的,只是这个机会暂时没有被发现而已。

    第三,价格发现这个过程是迅速的,对于该假设的分析,容易忽略市场的动态性,用静态的角度去一次性的分析,认为价格发现是一步到位的,这很容易被反驳的,所以考虑市场的动态性,同时假设新的信息和套利机会的出现是相对缓慢的。即套利机会会被快速识别,快速被交易,价格迅速回到无法再获取超额收益的水平,同时新的套利机会的出现是相对缓慢的,因为如果这个过程不是迅速的,或者套利机会一直相对快速的出现,那么套利机会长时间存在,市场便不是有效的。

    这里可能会存在的一个疑惑是,由于套利机会的消失是投资者交易实现的,所以总是有投资者获取到套利收益的,那么这部分投资者不就获得了高于市场水平的收益了吗?EMH不就是不成立了?实际上并非如此简单,由于市场是被假设充分竞争的,且有了理性人假设,所以套利机会也是公开的,这样就会有很多的投资者都会去竞争这样的套利机会,那么在均衡状态下,可套利机会的收益应该和市场收益相等,所以长期来看(均衡状态下),是没有投资者可以战胜市场的。笔者以为,对于第一个假设条件,使用弱化的版本会更容易理解这里的均衡状态,不然如果忽略成本,没有成本端,只有收益端,那么均衡状态似乎是不太好理解的。在上面几个假设下,可以认为EMH是成立的,即市场是有效的。接下来,我们再逐一对比每个假设,看看现实情况是否和假设相符。

           对于第一个假设,即充分竞争和自由无摩擦的市场,在现实情况中,只有一些比较成熟且大的市场才能吸引很多的投资者,尤其是专业能力较高的机构投资者,这样的市场可能才能说相对的充分竞争,而对于大部分的市场,特别是新兴市场来说,由于投资者结构还是以散户为主,高素质的机构投资者较少,这样的市场容易被降维打击,容易形成少部分头部专业能力强的投资者一家或几家独大的局面,所以也就不能说充分竞争了。同样的,对于自由无摩擦的假设,也会是如此,尽管我们弱化为可自由借贷,这即使是在成熟资本市场,也是不现实的;现实世界中,套利是有成本的,而且,放贷机构也会对不同的投资者具有不同的风险评估,给予不同的额度限制,不可能存在自由借贷。所以,第一个假设只有充分竞争能在成熟的资本市场中勉强靠近。

           第二个假设是理性人假设,这个假设把市场中的这部分很专业的投资者群体假设为绝对理性和完美的研究能力。要注意的是,这里强调的是整体的力量,因为我们关心的是市场的有效性,所以只在乎投资者整体对于市场的作用结果,不是假设个体具有绝对理性和完美的研究发现能力,对于个体的假设毫无意义,而且不可能成立。这个假设的问题核心在于,在策略世界,其是一个极其隐秘的世界,所以真正有效的策略研究和各自的奇淫技巧是不可能开放共享的,这种隐秘性和分割性使得永远只有一小部分人来研究某些具体的套利机会和策略开发,不同的团体之间并无法在共享知识成果的基础上进一步研究,所以我们对于完美研究能力的假设对象便只能是一部分一部分分割的小团体,而不能是整个市场研究人员的共同智慧,这会大大的削弱这个假设的可成立性;尽管有很多关于这方面的公开的学术文章,但是这些文章公开的策略往往都是已经不再那么具有实操性的,或者现实意义不大,或者滞后当前业界前沿太多。对于研究,笔者始终坚信1+1>2,所以通过网络让全世界科研人员的知识共享和研究共享才使得人类的科技和文明达到了前所未有的高度,但是在策略世界,这种隐秘性和分割性严重的阻碍了向完美研究和高超智力的假设迈进,因此,直接假设在真实的资本市场存在完美的研究和发现能力是有问题的。绝对理性意味着持续的做出正确的决策,这里正确的定义是收益最大化,不受情绪等非理性因素的影响,所以绝对理性也意味着完美的研究和发现能力,故上述对于完美研究和发现能力的假设分析已经可以否定绝对理性的假设了;此外,由于人类本身的局限性,总是难以克服一些非理性因素的影响,比如一些典型的前景理论、心理账户等行为经济学中提出的非理性现象,当然,这些主观上的非理性行为主要还是针对大众,对于高素质的专业投资者,会充分借助更加专业的技术和知识来解决这些问题,但这也是一个过程,只能说这方面的因素会慢慢的不断趋向于被解决,是一个进行时,而不是完成时。综上,由于资本市场中策略世界的隐秘性和分割性,以及人类自身的局限性,该假设在现实世界中也是不太合理的。

           第三个假设是价格发现过程是非常迅速的,且新的信息和套利机会的出现是相对缓慢的。随着很多机构投资者为了抢占市场先机而不断的加大对研究和投资者的投入,和计算机技术的快速发展,以及低延迟交易技术的不断发展和使用,投资者对信息的处理速度和交易速度都会极大的提升,因此这个过程已经相当快,并且也将会变得越来越快,这是毋庸置疑的。由于市场是动态的,新的信息会不断的涌现出来,而且新的信息会影响原有的套利判断,这是一个复杂的相互作用的过程,而且很多新的信息都是噪音,因为企业的基本价值变化不会那么快,噪音交易者往往会提供新的套利机会,所以新的套利机会也会不断的出现,那么对于这个价格发现和新信息涌现的动态交替过程,我们并没有理由断言价格发现过程相对套利出现的速度是很大的,以使得市场几乎时时有效;相反的,相对于当下的价格发现过程,新信息产生的速度往往更快,因为市场中,特别是新兴市场,噪音交易者往往占多数,从而,套利机会往往会不断的持续的存在于市场当中。因此,该假设单纯的前半部分似乎相对合理,但是如果考虑到市场的动态性,价格发现过程其实并非一次性的一步到位的,而是需要一个过程的,且新的套利机会也会不断的出现,所以该假设在现实中也不太成立。

           通过上述对比,可以发现,EMH在现实中,是难以成立的。因此,对于EMH,学界提出了强有效、半强有效以及弱有效的版本,后两者对EMH进行了弱化,但是同样的,也存在上述类似的问题。其实,对于市场的非有效性,可以用一段简洁的话来说明:由于市场的动态性,价格发现过程往往并非一个非常迅速的过程,而且新的套利也会不断的出现;因为策略世界的隐秘性和分割性,以及套利成本的存在,使得还有很多潜在的套利模式和机会未被发掘,很多被发掘出来的可套利规模较大的套利机会也无法被及时的完全的消除;由于人自身的一些共同的局限性,难以总是避免一些非理性因素的影响,虽这一点正在通过不断量化模型甚至智能模型来部分克服和解决,但是还是进行时。这些共同的原因造成了市场的非有效性。如果需要从这段话中提取几个核心的关键词,那便是:套利成本、套利规模、隐秘性和分割性、市场动态性、人自身共同的局限性

           本文的基本结论是市场并非有效,那么市场正在变得有效吗?或者说市场怎么样才会变得有效?由于市场有效性最大的阻碍来自于策略世界的隐秘性和分割性,因为如果策略世界是共享的,那么投资者可以更快的发现新的套利机会,而且对于新的可套利规模较大的套利机会,会有更多的投资者进入消除这个套利,因此也就基本不存在套利规模问题;此外,随着技术进步,策略共享,以及市场制度的更加完善,套利成本也会逐渐变小,并且对市场动态性的认识也会更加深刻,从而更好更快的地建模,加快价格发现的相对速度。因此,不可否认的是,市场会变得越来越有效,但是如果市场的隐秘性和分割性不会改变,或者说市场的研究模式没有发生变革,那么这个从无效走向有效的过程将会相当缓慢。有效市场,终究是一个理想的均衡状态,因此,笔者以为,有效市场会是一个不断趋向的方向,但不可到达。

    展开全文
  • 负载均衡技术原理

    千次阅读 2021-02-24 22:01:54
    参看文章: 快速理解高性能HTTP服务端...负载均衡在现有网络结构基础上,提供了一种透明并且廉价有效的方法扩展服务器和网络设备的带宽、加强网络数据处理能力,增加吞吐量、提高网络的可用性和灵活性。 负载均衡包..

    参看文章:

    快速理解高性能HTTP服务端的负载均衡技术原理

    简介几种负载均衡原理

    浅谈几种常用负载均衡架构

    一篇读懂分布式架构下的负载均衡技术:分类、原理、算法、常见方案等


    一、 引言

    负载均衡(Load Balance)是指将负载(工作任务)进行平衡、分摊到多个操作单元上运行,促使多台设备共同更快、更高效完成某一项或者多项任务。负载均衡在现有网络结构基础上,提供了一种透明并且廉价有效的方法扩展服务器和网络设备的带宽、加强网络数据处理能力,增加吞吐量、提高网络的可用性和灵活性。

    负载均衡包含两方面的含义:

    • ①将一个复杂任务拆分成多个子任务,然后交由多个操作单元协作处理,最后共同完成这项任务。是不是有点像分布式计算呢?
    • ②将海量、高并发访问处理均分到多个处理单元中,雨露均沾,避免旱的旱死,涝的涝死。

    为什么要负载均衡?

    在网站创立之初,一般只需要一台服务器(通常为LAMP架构作为解决方案)对外提供服务即可,但是随着业务快速扩大,原先的架构依然无法满足现在的业务需求。此时就需要对服务器进行扩容,简单的说就是将多台服务器组成一个集群共同对外提供服务(架构一步到位了),通过负载均衡技术将用户的请求分流到不同的服务器上,从而达到扩容的目的,这便是负载均衡存在的意义。

    目前,负载均衡技术已经广泛地应用在网络之中。就拿全国人民都知晓的“双11购物节”而言,每一秒的订单量都是巨大的,只通过几台服务器完全无法满足这么多人同时访问。各个互联网巨头(淘宝、京东、微信、支付宝、抖音、美团等等)都是通过各种各样的技术来解决这么高的并发访问、海量数据存储等等,他们在满足自己业务需求的同时,将自己的解决方案通过搭建云平台来出售,供其他的小公司使用,从而降低小公司的运营成本(无需从头开始,一步一步来摸索高并发架构解决方案)。

    这些解决方案现在基本都是利用集群技术,达到最佳的资源使用、最大化吞吐率、最短的响应时间,避免单点过载问题。集群技术的使用,不可避免的会用到负载均衡技术,否则便无法发挥集群技术的优势。下面负载均衡技术做一个详细的介绍。

    二、 负载均衡实现分类

    负载均衡实现目前可以分为3类:

    基于DNS负载均衡

     

    基于硬件的负载均衡

    比如F5

    基于软件的负载均衡

    比如LVS, NGINX,Squid

    原理:当用户访问域名的时候(如www.taobao.com),会先向DNS服务器去解析域名对应的IP地址,这个时候我们可以让DNS服务器根据不同地理位置的用户返回不同的IP。比如杭州的用户就返回淘宝在杭州业务服务器的IP,北京的用户来访问的话,就返回淘宝在北京业务服务器所在的IP。

     

     

    在这个模式下,用户就相当于实现了按照「就近原则」将请求分流了,既减轻了单个集群的负载压力,也提升了用户的访问速度。

    使用DNS做负载均衡的方案,天然的优势就是配置简单,实现成本非常低,无需额外的开发和维护工作。

    但是它也有一个明显的缺点:当配置修改后,生效不及时。这个是由于DNS的特性导致的,DNS一般会有多级缓存,所以当我们修改了DNS配置之后,由于缓存的原因,会导致IP变更不及时,从而影响负载均衡的效果。

    另外,使用DNS做负载均衡的话,大多是基于地域或者干脆直接做IP轮询,没有更高级的路由策略,所以这也是DNS方案的局限所在。

    有专门的硬件加持,可能比用软件处理要高效。在硬件负载均衡器中,最出名的就是F5负载均衡器:

    硬件负载均衡器特点只有一个:除了贵,什么都好。就这一个特点就导致它的市场没有那个普及,因此更多中小公司使用了软件的负载均衡技术。

    软件技术的负载均衡,基于OSI 网络模型来实现。我们通过OSI 7层模型来简单说明存在的负载均衡技术。

    软件负载均衡分类:

    • 二层负载均衡

    负载均衡服务器对外提供一个公网IP, 集群中的真正服务器使用相同的内网IP地址,但是MAC地址不同。当负载均衡服务器收到客户请求时,通过修改报文中的目的MAC地址,将报文分流到不同的设备上,从而达到负载均衡的目的。此技术好像不常用。

    • ​​​​​​​三层负载均衡

    负载均衡服务器对外提供一个公网IP, 集群中的真正服务器使用不同的内网IP地址。当负载均衡服务器收到客户请求时,通过修改报文中的目的IP地址,将报文分流到不同的设备上,从而达到负载均衡的目的。

    • ​​​​​​​四层负载均衡

    四层负载均衡服务器除了使用传输层(TCP\UDP协议)的端口信息外,也会结合IP层源目的IP地址进行处理。当负载均衡服务器收到客户请求时,通过修改报文中的IP和端口,将报文分流到不同的设备上,从而达到负载均衡的目的。

    • LVS
    • NAT
    • IP隧道
    • ​​​​​​​七层负载均衡

    七层负载均衡工作在OSI模型的应用层,应用层的协议类型比较多(可以参考上图),可以通过应用层协议进行分流,同时也可以根据报文中的内容(如URL、浏览器类型、语言、甚至地址位置等)进行负载均衡

    • Nginx负载均衡

    其中软件中最常用的就是Nginx负载均衡(7层)和LVS负载均衡(4层)。

    基于四层的负载均衡效率要高,一般能达到每秒几十万的处理量;而基于7层的负载均衡处理量一般在每秒几万。

    基于软件的负载均衡特点很明显:便宜呀!!!。中小公司可以直接基于开源代码做移植、适配即可,且可以部署在普通服务器上,在研发成本和硬件上大大降低了成本,从而得到了很多公司的使用。

     

    三、 负载均衡算法

    主要的均衡算法有:

    负载均衡算法可以分为两类:静态负载均衡算法动态负载均衡算法

    • 静态负载均衡算法包括:轮询、比率、优先权
    • 动态负载均衡算法包括:最少连接数、最快响应速度、观察方法、预测法、动态性能分配、动态服务器补充、服务质量、服务类型、规则模式

    • 轮询(Round Robin):顺序循环将请求一次顺序循环地连接每个服务器。当其中某个服务器发生第二到第 7 层的故障,BIG-IP 就把其从顺序循环队列中拿出,不参加下一次的轮询,直到其恢复正常。

    实现时,一般为服务器带上权重;这样有两个好处:针对服务器的性能差异可分配不同的负载;当需要将某个结点剔除时,只需要将其权重设置为0即可;

    • 优点:实现简单、高效;易水平扩展
    • 缺点:请求到目的结点的不确定,造成其无法适用于有写的场景(缓存,数据库写)
    • 应用场景:数据库或应用服务层中只有读的场景
    • 随机方式请求随机分布到各个结点;在数据足够大的场景能达到一个均衡分布;
      • 优点:实现简单、易水平扩展
      • 缺点:同 Round Robin,无法用于有写的场景
      • 应用场景:数据库负载均衡,也是只有读的场景
    • 哈希方式根据 key 来计算需要落在的结点上,可以保证一个同一个键一定落在相同的服务器上;
      • 优点:相同 key 一定落在同一个结点上,这样就可用于有写有读的缓存场景
      • 缺点:在某个结点故障后,会导致哈希键重新分布,扩展性较差。
      • 解决:一致性哈希 or 使用 keepalived 保证任何一个结点的高可用性,故障后会有其它结点顶上来
      • 应用场景:缓存,有读有写
    • 一致性哈希在服务器一个结点出现故障时,受影响的只有这个结点上的 key,最大程度的保证正确率;如 twemproxy 中的 ketama方案;生产实现中还可以规划指定子 key 哈希,从而保证局部相似特征的键能分布在同一个服务器上;
    • 根据键的范围来负载根据键的范围来负载,前 1 亿个键都存放到第一个服务器,1~2 亿在第二个结点。
      • 优点:水平扩展容易,存储不够用时,加服务器存放后续新增数据
      • 缺点:负载不均;数据库的分布不均衡;
      • (数据有冷热区分,一般最近注册的用户更加活跃,这样造成后续的服务器非常繁忙,而前期的结点空闲很多)
      • 适用场景:数据库分片负载均衡
    • 根据键对服务器结点数取模来负载根据键对服务器结点数取模来负载;比如有 4 台服务器,key 取模为 0 的落在第一个结点,1 落在第二个结点上。
      • 优点:数据冷热分布均衡,数据库结点负载均衡分布;
      • 缺点:水平扩展较难;
      • 适用场景:数据库分片负载均衡
    • 纯动态结点负载均衡根据 CPU、IO、网络的处理能力来决策接下来的请求如何调度。
      • 优点:充分利用服务器的资源,保证个结点上负载处理均衡
      • 缺点:实现起来复杂,真实使用较少
    • 比率(Ratio):给每个服务器分配一个加权值为比例,根椐这个比例,把用户的请求分配到每个服务器。当其中某个服务器发生第 2 到第 7 层的故障,BIG-IP 就把其从服务器队列中拿出,不参加下一次的用户请求的分配,直到其恢复正常。
    • 优先权(Priority):给所有服务器分组,给每个组定义优先权,BIG-IP 用户的请求,分配给优先级高的服务器组(在同一组内,采用轮询或比率算法,分配用户的请求);当高优先级中所有服务器出现故障,BIG-IP 才将请求送给次优先级的服务器组。这种方式,实际为用户提供一种热备份的方式。
    • 最少的连接方式(Least Connection)传递新的连接给那些进行最少连接处理的服务器。当其中某个服务器发生第 2 到第 7 层的故障,BIG-IP 就把其从服务器队列中拿出,不参加下一次的用户请求的分配,直到其恢复正常。
    • 最快模式(Fastest):传递连接给那些响应最快的服务器。当其中某个服务器发生第二到第7 层的故障,BIG-IP 就把其从服务器队列中拿出,不参加下一次的用户请求的分配,直到其恢复正常。
    展开全文
  • 负载均衡学习笔记

    千次阅读 2016-07-03 18:53:55
    负载均衡学习笔记 负载均衡的目的:提高效率和性能。我认为将不同的应用或者应用的不同部分分离开,增强各自的处理能力,是负载均衡最核心的理念。比如将数据库服务器和web服务器分离就是负载均衡的一种。 负载均衡...

    负载均衡学习笔记

    负载均衡的目的:提高效率和性能。我认为将不同的应用或者应用的不同部分分离开,增强各自的处理能力,是负载均衡最核心的理念。比如将数据库服务器和web服务器分离就是负载均衡的一种。

    负载均衡理念

    资源

    • (1) 处理器(CPU)
    • (2) 内存
    • (3) 网络
    • (4) 存储(硬盘)

    通过分配资源来提高应用的运行效率是负载均衡的核心。

    负载均衡的主要实现途径

    • (1) 将应用分划到若干服务器上,通过这些服务器来进项负载均衡(例如将微博服务器和数据库服务器分开)。
    • (2) 给应用增加特定的模块来平衡每块应用功能需要的计算量;例如缓存创建的网站数据,从而节省从硬盘读取数据的时间,或从数据库内容中产生这些数据的时间,等等。
    • (3)创建额外的服务器来共享负载;它能有效增加服务器上完成的任务所需的计算能力。

    原则

    • (1) 深入理解系统
    • (2) 规划
    • (3) 检测和测试

    对网站进行负载均衡

    nginx优点:高性能、事件驱动,以及可作为轻量级解决方案。他的内存占用了非常低,而这正是提高网站速度要解决的问题。

    web服务器负载测试工具
    * (1) httperf

    # httperf demon
    httperf --server Server02 --uri /index.html --num-conns 20000 --add-header='Accept-Encoding:gzip,deflate\n'

    对于测量结果我们要重点关注服务器响应方面的数据,如下截图中红色圈起的内容:
    httperf结果

    加速Apache HTTP

    • (1) 禁用空载模块
    • (2) 禁用DNS查询
    • (3) 采用压缩
      切记,压缩数据并非不费吹灰之力,相反他会给服务器带来额外的负载。
    • (4) FollwSymLinks和SymLinksIfOwnerMatch选项

    加速nginx

    • (1) worker_processes和worker_cpu_affinity
    • (2) Gzip压缩

    对web服务器进行负载均衡

    将所有到网站的连接请求通过一台或多台负载均衡服务器分发到多个不同的web服务器上。

    配置概览
    * (1) 配置
    * (2) 准备IPVS(ip虚拟服务器)服务器

    # 安装ipvs服务
    yum install ipvsadm

    权重最小连接调度方式:即他会将入向连接转发给链接最少,权重最高的工作服务器
    * (3) 准备工作服务器
    * (4) 测试负载均衡器

    为了保证web服务器卡上所有的静态数据保持同步,可使用景象工具,如rsync,来同步新近修改过的文件
    * (5) 划分动态和静态内容

    nginx对许多静态数据来说有高性能服务器,apache http对处理动态数据-例如php页面效率更高。

    对数据库进行负载均衡

    MySQL Cluster:开源的高性能的事务性数据库。它专门为高性能和强容错性而设计,保存任何一个数据节点的数据都会自动复制并存储到其他数据库节点。(网络数据库:Network Database)。在前端由知名的MySQL server 来处理sql查询;它会跟msyql cluster提供的NDB存储引擎通信,存储引擎会请求集群节点来处理查询,并将结果发回给发送最初请的MySQL Server.
    数据库负载结构图

    术语:

    (NIC:网卡)

    (LoadBalancer:集群管理服务器)

    # 安装MySQL Cluster
    wget http://www.mysql.com/get/Downloads/MySQL-Cluster-7.1/mysql-cluster-gpl-7.1.15-linux-i686-glibc23.tar.gz
    tar xzf mysql-cluster-gpl-7.1.15-linux-i686-glibc23.tar.gz
    cd mysql-cluster-gpl-7.1.15-linux-i686-glibc23
    mv bin/ndb_mgm /usr/local/bin/
    mv bin/ndb_mgmd /usr/local/bin
    chmod +x /usr/local/bin/ndb_mg*

    MySQL Cluster配置文件:

    集群管理服务器的config.ini

    对网络进行负载均衡

    术语:

    (NLB:网络负载均衡)
    (路由:IP提供寻址,通过互联发送数据到目的地的过程)
    (NAT:网络地址转换)
    (PAT: 端口地址转换,属于NAP的一种)

    用户连接的整个过程,如下截图:

    用户连接过程

    通过上述过程,你能清楚的看到那些地方已经做了负载均衡,那些地方尚未做负载均衡。

    TCP连接工作方式:
    * (1) 客户端想服务器发送初始报文请求连接
    * (2) 服务器响应,客户端和服务器进行握手,双方建立通信规则
    * (3) 握手完成后,双方进入数据传送状态,互传数据。

    TCP/UDP 二者的主要差异在于,UDP是无状态的,TCP是状态协议

    IPVS常用的5种调度系统:
    * 基于轮询的调度算法(Round-Robin)
    * 加权轮询调度(Weighted Round-Robin)
    * 基于最小连接的调度算法(Least-Connections)
    * 加权最小连接调度(Weighted Least-Connections)
    * 基于局部性的调度算法(Locality-Based Least-Connections)

    CentOS 安装IPVS :

    yum install -y ipvsadm

    IPVS 的配置:

    # 添加公网: -s rr 制定调度算法
    ipvsadm -A -t 178.250.53.225:80 -s rr
    # 添加工作服务器: -w 2 制定权值
    ipvsadm -a -t 18.250.53.225:80 -r 192.168.1.2:80 -m -w 2 
    ipvsadm -a -t 18.250.53.225:80 -r 192.168.1.3:80 -m
    # 切换调度算法
    ipvsadm -E -t 178.250.53.225:80 -s wrr

    对SSL进行负载均衡

    TSL作为如今保证互联网安全的手段之一,但是他给本身就捉襟见肘的HTTP服务器带来了额外的复杂度,因此常规HTTP服务器的负载会随着引入TSL带来的额外开销明显增加

    术语:

    (SSL:安全套接层)

    (TSL:传输层安全)

    公钥密码学(Publc-Key Cryptography)=非对称密码学(Asymmetcric Cryoptography)

    对称密钥加密(Symmetric Key Encription):用同一密钥对报文进行加密

    非对称密钥加密:加密与解密的密码不同看,往往,加密密钥公开,解密密码不公开。

    TSL加密过程:
    tsl加密过程图

    SSL负载均衡的不变之处,每个连接都要占用一个证书和一个会话,即无法在多台服务器间分担SSL数据流。因此SSL负载常用的方式:SSL加速(SSL Acceleration)和SSL前端(SSL Termination)

    SSL前端

    简单来说,可以创建一个节点来处理(终结)到网站的所有SSL连接,之后再将处理过的连接分发给服务器。这意味着,后面的服务器根本不用考虑SSL.

    SSL加速

    加速则需要特制的硬件设备。

    配置web服务器上的SSL

    • 创建自签名证书
    #生成private.key文件和private.csr文件
    openssl genrsa -des3 -out private.key 1024
    openssl req -new private.key -out private.csr
    cp private.key private.bkp
    openssl rsa -in private.key.bkp -out private.key
    # 生成证书
    openssl x509 -days 365 -in private.csr -signkey private.key private.csr
    • 额配置web服务器上的SSL(nginx)
    server {
        listen 443 default_server ssl;
        server_name localhost;
        root html;
        index index.html index.htm;
    
        ssl on;
        ssl_certificate /etc/ssl/certs/private.crt;
        ssl_certificate_key /etc/ssl/private/private.key;
    }
    • 在nginx上启用SSL加速
    # 找到nginx配置文件中的Server条目,加入以下内容:
    ssl_engine <Device>
    • 配置nginx的反向代理
    server {
        # 服务器基本信息
        listen 443;
        server_name memcache.plb.membrey.hk
        # 启用SSL并进行详细设置
        ssl on;
        ssl_certificate /etc/ssl/certs/private.crt;
        ssl_certificate_key /etc/ssl/private/private.key; 
        # 日志文件
        access_log /var/log/ssl-access.log;
        error_log /var/log/ssl-error.log;
    
        location / {
            proxy_pass http;//192.168.1.2;
            proxy_nex_upstream error timeout invalid_header http_500 http_502 http_503;
            proxy_set_header Host $host;
            proxy_set_header X-Real-IP $remote_addr;
            proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
            proxy_set_header X-Forwarded-Proto https;
            proxy_redirect off;
        }
    }

    使用集群提高可用性

    集群(Cluster)和高可用性(High Availatility,HA);高可用性,即网站保持一直在线并可用的能力,实现这个目标的主要途径就是通过冗余——准备一个备用系统来接管。

    单一故障点

    它是个单一系统,如果它出现了故障,整个系统都会无法工作。一下都是存在单一故障点的系统:
    故障点:负载均衡服务器
    故障点:负载均衡服务器和数据库服务器

    集群化

    是指创建一组用于相同用途的服务器:分担负载,以及在某个集群成员出现故障时,由其余成员来处理该成员的额负载。

    备用模式(Standby Mode)
    * 冷状态
    * 暖状态
    * 热状态

     IPVS故障恢复

    ipvsadm、ldirectord、heartbeat

    # 安装集群软件包
    yum install -y ipvsadm,ldirectord,heartbeat

    云端负载均衡

    云计算

    一个允许用户购买,远程创建,动态扩展,以及管理系统的全自动服务器平台。

    虚拟化

    一种创建运行与真实服务器集群上的虚拟服务器的方法。

    • 虚拟化管理器
      一个在物理服务器上充当资源分配和硬件抽象层的软件。裸机虚拟化管理器;托管虚拟化管理器。

    虚拟化管理器对比图

    如今,市场上两种类型的都有若干种,最致命的如下。
    裸机:
    * VMware
    * HyperV
    托管:
    * VMware Player
    * VirtualBox
    * Xen

    虚拟化资源

    存储、网络带宽、内存、

    管理虚拟资源

    云的弹性

    用云服务器工作

    展开全文
  • 十年间,负载均衡的前沿技术...使用负载均衡的技术架构,能够有效避免后端服务出现单点故障,提升服务的稳定性。一、负载均衡简介负载均衡,英文名称为LoadBalance,其意思就是将负载(工作任务)进行平衡,分摊到
  • 考虑风电的波动性和随机性特征,在长期市场均衡模型的基础上,构建风电有效投资容量的分析模型。在此基础上,根据美国PJM市场的数据,在IEEE 30节点系统中对风电有效投资规模进行模拟计算,对风电的主要影响因素进行...
  • 网络负载均衡

    千次阅读 2014-08-05 13:46:07
    负载均衡是由多台服务器以对称的方式组成一个服务器集合,每台服务器都具有等价的地位,都可以单独对外提供服务而无须其他服务器的辅助。通过某种负载分担技术,将外部发送来的请求均匀分配到对称结构中的某一台...
  • 软件与硬件负载均衡

    千次阅读 2018-02-09 14:12:41
    随着人们对网络的需求...在成本预算的约束下,我们很难去大批地更换硬件基础设备来满足 需求,更多的时候,想到的是使用负载均衡来满足业务增长的需要。负载均衡(Load Balance),其意思就是将负载(工作任务)进...
  • 生产均衡化是精益生产的基础,要在企业有效推行精益生产,做的第一件事就应该是生产均衡化,这是生产控制的首要任务。  【什么是生产均衡化】  均衡化是使生产量和产出组合都能平均化,它以一段时期内总的订单量...
  • 十年间,负载均衡的前沿技术层出不穷,令用户眼花缭乱。...使用负载均衡的技术架构,能够有效避免后端服务出现单点故障,提升服务的稳定性。 一、负载均衡简介 负载均衡,英文名称为LoadBalance,其
  • 均衡状态下,与垄断平台相比,提供商竞争会导致较低的费用和安全投资,但可能存在更大的脆弱性。 我们发现供应商更喜欢整合到一个单一的平台,而客户更喜欢分散的基础设施。 整合供应商的低效率源于当市场较小时...
  • 前言: ...快速增长的访问量和数据流量催生了各式各样的负载均衡产品,很多专业的负载均衡硬件提供了很好的功能,但却价格不菲,这使得负载均衡软件大受欢迎,nginx就是其中的一个。 nginx第一个公开
  • 负载均衡(转自百度)

    千次阅读 2011-08-04 16:05:54
    负载均衡 (Outbound Load Balancing) 负载均衡建立在现有网络结构之上,它提供了一种廉价有效透明的方法扩展网络设备和服务器的带宽、增加吞吐量、加强网络数据处理能力、提高网络的灵活性和可用性。 概述  负载...
  • ,并假定经济中的经济人相互进行商品交易时 ,需要耗费一定量的交易成本 ,因此某些商品的交易市场可能会因为交易成本过高而导致市场关闭 ,这与经典的一般均衡理论中要求市场的完备性形成明显的区别 .文章建立了这样一...
  • Nginx是一个很高效稳定的软负载均衡器,最新的版本可以负载均衡...另外NGINX还可以和Keepalived配合防止均衡器的单点故障,这一点要强于F5,A10这一类的硬件负载均衡设备。 但是F5,A10等硬件负载均衡器虽然价格昂贵
  • 为什么说“纳什均衡”改变了经济学基础理论 一、缅怀纳什 天才纳什的不幸离去给世人留下了无尽的缅怀。早晨无意中看到原光华管理学院院长张维迎的一段话“理解纳什均衡是对纳什最好的怀念”。深有感触,学了这么...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 18,413
精华内容 7,365
关键字:

市场均衡有效