精华内容
下载资源
问答
  • .Net网站架构设计(二)Web服务器集群架构  开通黄钻 .Net网站架构设计(二)Web服务器集群架构 .Net网站架构设计(二)Web服务器集群架构 转载 2016年02月23日 18:11:20 2461 什么是...
    .Net网站架构设计(二)Web服务器集群架构 
    .Net网站架构设计(二)Web服务器集群架构

    .Net网站架构设计(二)Web服务器集群架构

    什么是web负载均衡

    服务器集群(Cluster)使得多个服务器节点能够协同工作,根据目的的不同,服务器集群可以分为:

    • 高性能集群:将单个重负载的请求分散到多个节点进行处理,最后再将处理结果进行汇总
    • 高可用集群:提高冗余单元,避免单点故障
    • 负载均衡集群:将大量的并发请求分担到多个处理节点。由于单个处理节点的故障不影响整个服务,负载均衡集群同时也实现了高可用性。

    一般提到的负载均衡(Load Balance),是指实现负载均衡集群。负载均衡实现了横向扩展(Scale Out),避免纵向的升级(Scale Up)换代。

    本文中的web负载均衡,特指能够分担web请求(http,https等)的负载均衡技术。


    1、先介绍一下Web负载均衡都有哪些方式


    任何的负载均衡技术都要想办法建立某种一对多的映射机制:一个请求的入口映射到多个处理请求的节点,从而实现分而治之(Divide and Conquer)。

    这种映射机制使得多个物理存在对外体现为一个虚拟的整体,对服务的请求者屏蔽了内部的结构。

    采用不同的机制建立映射关系,可以形成不同的负载均衡技术,常见的包括:

    • DNS轮询
    • CDN
    • IP负载均衡
             有关负载均衡详细技术请参考:负载均衡

    2、介绍一下Nginx配置

              2.1首先搭建Web1、Web2、Web3 ....多台IISWeb服务。(可以再不同的机器上建立不同的端口)

               例如

                Web1:192.168.128.101 :10001

                Web2:192.168.128.102 :10002          

                Web3:192.168.128.103 :10003

               ......

              2.2配置Nginx服务器

              Nginx server:192.168.128.100

              将Nginx解压到任意目录。

              进入目录:找到nginx配置

             

           配置如下:

            upstream  pcgroup.com 

             server    192.168.128.101:10001 weight=1;

            server    192.168.128.102:10002  weight=2;

          server    192.168.128.103:10003 weight=1;

            }

          其中:pcgroup.com 是 集群名称

        

          使用cmd命令提示符将目录切换到nginx.exe所在目录。

           启动服务输入start nginx.exe。

            ok,你现在已经成功配置了负载均衡。

            注:改过核心配置文件后需要重新加载配置:nginx -s reload 。停止服务使用:nginx -s stop

    3、IIS集群/.Net共享Session

            我们先看看IIS的几种Session模式

            ASP.NET中Session的状态保持是由web.config文件中的标记下的标记的mode属性来决定的。该属性有四种可能的值:Off、Inproc、StateServer和SQlServer。

            <sessionState mode="InProc" cookieless="false" timeout="20" />

           3.1 Inproc,依赖 aps.net,程序重启,或者bin文件内容变动,session丢失

           3.2 StateServer:<sessionState mode="StateServer"     stateConnectionString="tcpip=myserver:42424"     cookieless="false" timeout="20" />   

                 克服了Inproc的缺点。但是StateServer重启,全部会话丢失。

           3.3 用SQL Server进行会话管理

              采用SQLserver将会话保存起来。

              我们可以采用3.3,3.2来实现session共享。

           3.4除IIS的session机制外,我们还可以利用Cookie ,把用户登录信息放在  缓存服务中,现在交常用的缓存服务有Redis,Memached;

           我强烈建议使用3.4 使用的方法。


    4、Web服务的分布式。

         除以上负载均衡外,还可以将web服务的不同功能实现分开部署。

         一般讲静态文件,JS,Css,和样式图片专门由一台服务器提供服务。

         由文件服务集群专门提供文件资源。

          根据业务将web,分为Web接口服务,web页面服务。等,以缓解不同业务功能需求对服务器造成的压力。 
    展开全文
  • 分布式服务器集群架构方案思考 nginx-reverse-proxy-conf 研究了一套完整的分布式服务器集群架构方案。 0x01.大型网站演化 简单说,分布式是以缩短单个任务的执行时间来提升效率的,而集群则是...

    分布式服务器集群架构方案思考

     

    nginx-reverse-proxy-confnginx-reverse-proxy-conf

     

    研究了一套完整的分布式服务器集群架构方案。

     

     



     

    0x01.大型网站演化

    简单说,分布式是以缩短单个任务的执行时间来提升效率的,而集群则是通过提高单位时间内执行的任务数来提升效率。

    集群主要分为:高可用集群(High Availability Cluster),负载均衡集群(Load Balance Cluster,nginx即可实现),科学计算集群(High Performance Computing Cluster)。

    分布式是指将不同的业务分布在不同的地方;而集群指的是将几台服务器集中在一起,实现同一业务。分布式中的每一个节点,都可以做集群。 而集群并不一定就是分布式的。

    之前在网上看到一篇关于大型网站演化的博客。http://www.cnblogs.com/leefreeman/p/3993449.html

    每个大型网站都会有不同的架构模式,而架构内容也就是在处理均衡负载,缓存,数据库,文件系统等,只是在不同的环境下,不同的条件下,架构的模型不一样,目的旨在提高网站的性能。

    最初的架构只有应用程序,数据库,文件服务。

    应用程序、数据库、文件服务架构应用程序、数据库、文件服务架构

     

    到后来,分布式服务、集群架设。

    分布式服务器集群分布式服务器集群

     



     

    0x02.关于均衡负载方案

    在上一篇,《Nginx反向代理实现均衡负载》讨论过过的nginx现实均衡负载方案,这里选择另一种HAProxy+Keepalived双机高可用均衡负载方案。

    HAProxy是免费、极速且可靠的用于为TCP和基于HTTP应用程序提供高可用、负载均衡和代理服务的解决方案,尤其适用于高负载且需要持久连接或7层处理机制的web站点。

    不论是Haproxy还是Keepalived甚至是上游服务器均提高生产力并增强可用性,也就是如下架构中Haproxy,Keepalived,Httpd服务器任意宕机一台服务还是可以正常运行的。

    HAProxy的优点:

    1、HAProxy是支持虚拟主机的,可以工作在4、7层(支持多网段);

    2、能够补充Nginx的一些缺点比如Session的保持,Cookie的引导等工作;

    3、支持url检测后端的服务器;

    4、本身仅仅就只是一款负载均衡软件;单纯从效率上来讲HAProxy更会比Nginx有更出色的负载均衡速度,在并发处理上也是优于Nginx的;

    5、HAProxy可以对Mysql读进行负载均衡,对后端的MySQL节点进行检测和负载均衡;

    HAProxy+Keepalive 均衡负载方案HAProxy+Keepalive 均衡负载方案

     



     

    0x03.关于Redis缓存方案

    缓存分为服务器缓存和应用程序缓存。

    关于应用程序内缓存,已经在Jue后台框架里面做了模块处理了。

    关于服务器缓存,主要缓存服务器文件,减少服务器和php交互,减少均衡负载服务器和应用程序服务器交互。

    缓存里面有一种典型的memcached,现在用的多的是redis轻量级缓存方案。

    关于memcached与redis,看这篇 《Memcached vs Redis?》

    Redis主要将数据存储在各种格式:列表,数组,集合和排序集,一次能接受多个命令,阻塞读写,等待直到另一个进程将数据写入高速缓存。

    Redis Cache 方案Redis Cache 方案

     

    一篇关于Reids缓存方案。《高可用、开源的Redis缓存集群方案》

     



     

    0x04.关于搜索引擎Sphinx方案

    (第一期不做,后期需求时候考虑)**

    Sphinx是俄罗斯人开发的,号称是很吊啦,千万级数据检索,每秒10MB/s,搭过环境。

    Sphinx和MySQL是基于数据库的全文引擎,创建索引是B+树和hash key-value的方式。

    原理类似于用底层C检索MySQL,然后弄出一个sphinx.conf配置文件,索引与搜索均以这个文件为依据进行,要进行全文检索,首先就要配置好sphinx.conf,告诉sphinx哪些字段需要进行索引,哪些字段需要在where,orderby,groupby中用到。

    Sphinx中文

     



     

    0x05.关于NoSQL快速存储方案

    NoSQL在这里的使用价值是处理一些琐事,比如用户个人网站的一些css值,height,width,color等等的小而繁多的数据,采用NoSQL旨在提升数据库速度,减少对MySQL的SELECT请求。

    关于NoSQL的方案很多了,选一个简单的MongDB好了。

     



     

    0x06.关于分布式MySQL方案

    (做分布式MySQL还没尝试过,初期也不清楚mysql所需要的压力,所以第一期不打算做分布式MySQL)

    《标准MySQL数据库外的5个开源兼容方案》

     



     

    0x07.分布式集群方案

    综合起来,大致就是如下模型,初探分布式架构,还有很多要修改的,待续,时时更新中。。。

    一个网站架构一个网站架构

    转载于:https://www.cnblogs.com/liangxiaofeng/p/5925604.html

    展开全文
  • 阿里云均衡负载服务器集群架构图:云盾、云监控、SLB、ECS集群、主从数据库.zip 1.购买均衡负载 2.购买ECS云主机 3.管理后端服务器
  • 官方安装文档解读SAP S4 HANA架构 SAP HANA原生备份与恢复 自己攒一台SAP S4 HANA服务器硬件配置参考 ...ERP-SAP服务器集群架构技术沿革 IBM小型机厉害的高级功能 AIX下 SYBASE 数据库无法启动...

    官方安装文档解读SAP S4 HANA架构

    SAP HANA原生备份与恢复

    自己攒一台SAP S4 HANA服务器硬件配置参考

    BASIS模块管理

    为什么SAP ECC的系统,数据库总是和SAP的应用安装在一起

    SAP PI服务器,版本731 SYBASE数据库运维故障解决2粒

    ERP-SAP服务器集群架构技术沿革

    IBM小型机厉害的高级功能

    AIX下 SYBASE 数据库无法启动解决一例

    C#连接SAP HANA数据库读取数据

    SAP系统性能测试

    最简单可靠的机房温度电话报警

    我的BasisAgent运维监控工具(一)telnet

    SAP HANA原生备份与恢复

    SAP官方HANA管理员手册之savepoints

    HANA之列存储

    甩不掉的BASIS

    TCPIP 网络科普 (james-lx)

    32位和64位的区别(james-lx)

     

    本文重点讲述企业ERP系统软件的市场领导者SAP,它的ERP服务器集群架构,在多个大型企业的ERP系统中部署与实践;

    从2000年SAP 46C 进入中国的第一批灯塔项目时的架构,到今天500个在中国的S/4 HANA架构,我的历次项目中的调整变革记录:

     

    --------第一套----某大型制造企业ERP生产系统------------
    运维时间:2001-2009

    操作系统:HP-UX

    数据库:ORACLE8.1.7

    SAP系统:46C

    双机软件:HP的MC-SG

    特点:

    1、两台服务器和一台存储构成集群。

    2、CI中心实例和数据库(单机)安装存储上,运行在1号机上。

    3、在2号机上,基于存储上的SAP服务器程序通过文件共享,安装DI对话实例和运行。

    不足:

    1、磁盘柜正被存储代替,而SAP的标准安装手册对数据库还是mount多目录,给后期数据库增加表空间、文件系统带来麻烦。

    2、2号机处理能力空闲严重。

    3、因为NFS文件共享目录,会导致服务器不能自动关机,故障发生时有一定几率无法自动切换。而双机自动切换软件在故障时给管理员恢复系统带来很大的麻烦,每次故障发生70%的时间是在处理双机软件问题。

     

    CI主机文件系统:

    Filesystem          kbytes    used   avail %used Mounted on
    /dev/vg00/lvol3    1024000  823190  188373   81% /
    /dev/vg00/lvol1     600571   51216  489297    9% /stand
    /dev/vg00/lvol8    4612096 2747026 1748585   61% /var
    /dev/vg00/lvol7    3072000  769739 2158380   26% /usr
    /dev/vg00/lvol6     819200  639521  168464   79% /tmp
    /dev/vg00/lvol5    4612096 2221896 2240862   50% /opt
    /dev/vg00/lvol4     516096    2678  481389    1% /home
    /dev/vgdbPRD/lvoracle    512000   30001  451880    6% /oracle
    /dev/vgdbPRD/lvoraprd    204800   75280  121746   38% /oracle/PRD
    /dev/vglogPRD/lvoriglogA 3072000  263339 2633125    9% /oracle/PRD/origlogA
    /dev/vglogPRD/lvoriglogB 3072000  206661 2686262    7% /oracle/PRD/origlogB
    /dev/vglogPRD/lvmirrlogA 3072000  206661 2686262    7% /oracle/PRD/mirrlogA
    /dev/vglogPRD/lvmirrlogB 3072000  206661 2686262    7% /oracle/PRD/mirrlogB
    /dev/vglogPRD/lvsaparch   20480000 9146946 10625384   46% /oracle/PRD/saparch
    /dev/vgsapPRD/lvsapPRD    1024000  822744  188837   81% /usr/sap/PRD
    /dev/vgsapPRD/lvmntPRD    1024000  274638  703438   28% /exports/sapmnt/PRD
    /dev/vgsapPRD/lvtrans    2048000   33651 1893656    2% /exports/usr/sap/trans
    /dev/vgdbPRD/lvstage_817   2048000  961090 1018982   49% /oracle/stage/817_64
    /dev/vgdbPRD/lvoraprd64   2048000 2006078   40644   98% /oracle/PRD/817_64
    /dev/vgdbPRD/lvoracltdb   102400   11587   85174   12% /oracle/805_64
    /dev/vgdbPRD/lvsapreorg   45973504  102488 43004591    0% /oracle/PRD/sapreorg
    /dev/vgdbPRD/lvsapdata1   122880000 109675672 13101336   89% /oracle/PRD/sapdata1
    /dev/vgdbPRD/lvsapdata2   122880000 106582576 16170424   87% /oracle/PRD/sapdata2
    /dev/vgdbPRD/lvsapdata3   122880000 110207320 12573808   90% /oracle/PRD/sapdata3
    /dev/vgdbPRD/lvsapdata4   122880000 83160616 39409680   68% /oracle/PRD/sapdata4
    /dev/vgdbPRD/lvsapdata5   122880000 103108144 19617456   84% /oracle/PRD/sapdata5
    /dev/vgdbPRD/lvsapdata6   122880000 94062680 28592248   77% /oracle/PRD/sapdata6
    /dev/vgdbPRD/lvsapdata7   122880000 109594420 13078956   89% /oracle/PRD/sapdata7
    /dev/vgdbPRD/lv_ob2cm    1048576  775453  256135   75% /omni_shared
    /dev/vgorgPRD/lvorgPRD    563200000 98666728 460905488   18% /sapreorg

    DI主机文件系统:

    Filesystem          kbytes    used   avail %used Mounted on
    /dev/vg00/lvol3    1024000  135101  833359   14% /
    /dev/vg00/lvol1     600571   51216  489297    9% /stand
    /dev/vg00/lvol8    4710400 1961366 2577505   43% /var
    /dev/vg00/lvol7    3072000  762401 2165292   26% /usr
    /dev/vg00/lvol6     819200   49993  721157    6% /tmp
    /dev/vg00/lvol5    4612096 1384046 3026326   31% /opt
    /dev/vg00/lvol4     516096    1511  482486    0% /home
    /dev/vg00/lvol12    106496   11587   89014   12% /oracle/805_64
    /dev/vg00/lvol15    409600   63766  324235   16% /oracle/PRD
    /dev/vg00/lvol14   9216000 1658515 7085158   19% /usr/sap/PRD
    aes04p61:/exports/sapmnt/PRD     1024000  274640  703432   28% /sapmnt/PRD
    aes04p61:/exports/usr/sap/trans   2048000   33656 1893656    2% /usr/sap/trans
     

     

    --------第二套----某大型制造企业ERP生产系统------------

    运维时间:2009-2011

    操作系统:AIX

    数据库:DB2 V9

    SAP系统:ECC6

    双机软件:IBM的HACMP

    特点:

    1、两台服务器和一台存储构成集群。

    2、ASCS安装存储上、PAS中心实例安装在1号机根盘,运行在1号机上。

    3、数据库(单机)安装于存储,APP对话实例安装在2号机根盘,运行在2号机上。

    改进:

    1、基于第一套系统2号机资源严重空闲,这次装机,我把数据库放在了2号机上。

    2、ASCS被放在存储上用来作双机切换,几乎任何故障下(包括服务器直接掉电),都可以切换成功。

    不足:

    1、非SAP标准架构。

    2、当硬件能力大于负载的情况下,数据库放2号机因为要通过网络同1号机通讯,并不能把硬件能力发挥到极致,中国BASIS调优第一人张挺指出:应用和数据库在一台服务器上,省掉网络延迟,才能发挥服务器最大性能,说得很有道理。

    PAS主机文件系统:

    Filesystem    GB blocks      Free %Used    Iused %Iused Mounted on
    /dev/hd4           1.00      0.43   58%    10849    10% /
    /dev/hd2          10.00      7.49   26%    47162     3% /usr
    /dev/hd9var        0.50      0.18   64%     7301    15% /var
    /dev/hd3           2.00      1.36   32%      801     1% /tmp
    /dev/hd1          10.00     10.00    1%       43     1% /home
    /proc                 -         -    -         -     -  /proc
    /dev/hd10opt      10.00      9.64    4%     9892     1% /opt
    /dev/lv_sapcd     20.00      1.59   93%     3224     1% /sapcd
    /dev/lv_sapmnt     10.00      7.83   22%     4503     1% /sapmnt
    /dev/lv_sap       10.00      9.05   10%     2132     1% /usr/sap
    /dev/lv_db2      500.00    187.19   63%      526     1% /db2/PRD
    erpdev:/usr/sap/trans     20.00     17.67   12%     4724     1% /usr/sap/trans

    APP主机文件系统:

    Filesystem    GB blocks      Free %Used    Iused %Iused Mounted on
    /dev/hd4           1.00      0.45   55%     9834     9% /
    /dev/hd2          10.00      7.59   25%    45272     3% /usr
    /dev/hd9var        0.50      0.36   29%     4741     6% /var
    /dev/hd3          10.00      4.71   53%     1124     1% /tmp
    /dev/hd1          10.00     10.00    1%       44     1% /home
    /proc                 -         -    -         -     -  /proc
    /dev/hd10opt      10.00      9.64    4%     9843     1% /opt
    /dev/lv_sapcd     20.00     15.31   24%     1935     1% /sapcd
    /dev/lv_sapmnt     10.00      6.29   38%     5179     1% /sapmnt
    /dev/lv_sap       10.00      8.00   21%     1682     1% /usr/sap
    /dev/lv_ASCS       6.25      6.12    3%      103     1% /usr/sap/PRD/ASCS00
    erpdev:/usr/sap/trans     20.00     17.67   12%     4724     1% /usr/sap/trans
     

     

    --------第三套----某大型制造企业ERP生产系统------------

    运维时间:2014-2017

    操作系统:AIX

    数据库:ORACLE11

    SAP系统:ECC6

    双机软件:无

    特点:

    1、两台服务器和一台存储构成集群。

    2、PAS中心实例和数据库(单机)安装存储上,运行在1号机上。

    3、在2号机上,基于存储上的SAP服务器程序通过文件共享,安装AAS对话实例和运行。

    改进:

    1、这次装机,我把数据库放回了1号机。

    2、没有了HA软件,整个世界都干净了。如果2号机故障,ERP系统仍然可以正常使用。1号机故障,管理员手工敲几个命令只花几分钟就可以把服务在2号机上重启。管理非常简单轻松,让我腾出大量的时间去吃掉ABAP模块,完成BASIS向ABAP转型。

    3、开启物理内存压缩功能,96GB物理内存变为192GB内存。

    4、打开oracle数据压缩,数据库里的数据增长减慢。

    不足:

    ECC版本的完美架构,没有发现不足。

    PAS主机文件系统:

    Filesystem    GB blocks      Free %Used    Iused %Iused Mounted on
    /dev/hd4           2.00      1.75   13%    10331     3% /
    /dev/hd2           5.00      2.12   58%    55556    11% /usr
    /dev/hd9var        1.00      0.61   39%     6370     5% /var
    /dev/hd3          50.00     47.67    5%     4311     1% /tmp
    /dev/hd1           1.00      1.00    1%       89     1% /home
    /dev/hd11admin      1.00      1.00    1%        5     1% /admin
    /proc                 -         -    -         -     -  /proc
    /dev/hd10opt       1.00      0.86   14%     6979     4% /opt
    /dev/livedump      1.00      1.00    1%        5     1% /var/adm/ras/livedump
    /dev/fslv00       50.00     23.72   53%     7405     1% /sapmedia
    /dev/fslv04     1990.00   1077.27   46%    50881     1% /oracle
    /dev/backuplv   9000.00   1697.13   82%     3503     1% /prdbackup
    /dev/fslv01       20.00     17.40   13%    11031     1% /sapmnt
    /dev/fslv02       20.00      9.50   53%    33038     2% /usr/sap
    /dev/fslv03       50.00     48.24    4%    10204     1% /usr/sap/trans

    APP主机文件系统:

    Filesystem    GB blocks      Free %Used    Iused %Iused Mounted on
    /dev/hd4           5.00      4.53   10%    10584     1% /
    /dev/hd2          52.00     19.46   63%    87419     2% /usr
    /dev/hd9var        1.00      0.62   38%     6358     5% /var
    /dev/hd3          50.00     46.53    7%     4927     1% /tmp
    /dev/hd1           1.00      1.00    1%      116     1% /home
    /dev/hd11admin      1.00      1.00    1%        5     1% /admin
    /proc                 -         -    -         -     -  /proc
    /dev/hd10opt       1.00      0.86   14%     6971     4% /opt
    /dev/livedump      1.00      1.00    1%        4     1% /var/adm/ras/livedump
    /dev/fslv00       50.00     23.72   53%     7405     1% /sapmedia
    /aha                  -         -    -        18     1% /aha
    erpprd1:/sapmnt     20.00     17.40   13%    11033     1% /sapmnt
    erpprd1:/usr/sap/trans     50.00     48.24    4%    10204     1% /usr/sap/trans
     

    --------第四套----某大型制造企业ERP生产系统------------

    运维时间:2017-2019

    操作系统:suse

    数据库:HANA 2.0

    SAP系统:S/4 1709

    双机软件:无

    特点:

    1、三台服务器和两台HANA一体机构成集群。

    2、ASCS实例安装在1号机,VMware平台的FT功能保障不停机。ASCS配置通过文件共享方式提供给2、3号机。

    3、PAS中心实例安装、运行在2号机。

    4、AAS实例安装、运行在3号机。

    5、HANA数据库备份恢复极大简化,完成一次恢复只是分分钟的事情。

    不足:

    没有发现不足。

     

    ASCS机:

    Filesystem               Size  Used Avail Use% Mounted on
    devtmpfs                  16G     0   16G   0% /dev
    tmpfs                     48G   80K   48G   1% /dev/shm
    tmpfs                     16G  1.3G   15G   8% /run
    tmpfs                     16G     0   16G   0% /sys/fs/cgroup
    /dev/mapper/system-root  168G   72G   96G  43% /
    /dev/mapper/system-root  168G   72G   96G  43% /var/lib/mysql
    /dev/mapper/system-root  168G   72G   96G  43% /var/tmp
    /dev/mapper/system-root  168G   72G   96G  43% /var/lib/libvirt/images
    /dev/mapper/system-root  168G   72G   96G  43% /var/log
    /dev/mapper/system-root  168G   72G   96G  43% /.snapshots
    /dev/mapper/system-root  168G   72G   96G  43% /tmp
    /dev/mapper/system-root  168G   72G   96G  43% /opt
    /dev/mapper/system-root  168G   72G   96G  43% /var/lib/named
    /dev/mapper/system-root  168G   72G   96G  43% /usr/local
    /dev/mapper/system-root  168G   72G   96G  43% /var/spool
    /dev/mapper/system-root  168G   72G   96G  43% /srv
    /dev/mapper/system-root  168G   72G   96G  43% /var/lib/mariadb
    /dev/mapper/system-root  168G   72G   96G  43% /var/opt
    /dev/mapper/system-root  168G   72G   96G  43% /var/lib/mailman
    /dev/mapper/system-root  168G   72G   96G  43% /home
    /dev/mapper/system-root  168G   72G   96G  43% /var/crash
    /dev/mapper/system-root  168G   72G   96G  43% /boot/grub2/x86_64-efi
    /dev/mapper/system-root  168G   72G   96G  43% /var/cache
    /dev/mapper/system-root  168G   72G   96G  43% /var/lib/machines
    /dev/mapper/system-root  168G   72G   96G  43% /boot/grub2/i386-pc
    /dev/mapper/system-root  168G   72G   96G  43% /var/lib/pgsql
    tmpfs                    3.2G     0  3.2G   0% /run/user/1001
    tmpfs                    3.2G     0  3.2G   0% /run/user/1000
    tmpfs                    3.2G     0  3.2G   0% /run/user/1002
    tmpfs                    3.2G   16K  3.2G   1% /run/user/482
    tmpfs                    3.2G     0  3.2G   0% /run/user/0
     

    PAS:

    Filesystem                 Size  Used Avail Use% Mounted on
    devtmpfs                    63G  8.0K   63G   1% /dev
    tmpfs                      119G   80K  119G   1% /dev/shm
    tmpfs                       63G  163M   63G   1% /run
    tmpfs                       63G     0   63G   0% /sys/fs/cgroup
    /dev/mapper/system-root    168G   42G  125G  25% /
    /dev/mapper/system-root    168G   42G  125G  25% /var/lib/machines
    /dev/mapper/system-root    168G   42G  125G  25% /var/spool
    /dev/mapper/system-root    168G   42G  125G  25% /var/lib/pgsql
    /dev/mapper/system-root    168G   42G  125G  25% /srv
    /dev/mapper/system-root    168G   42G  125G  25% /opt
    /dev/mapper/system-root    168G   42G  125G  25% /tmp
    /dev/mapper/system-root    168G   42G  125G  25% /var/cache
    /dev/mapper/system-root    168G   42G  125G  25% /var/lib/mailman
    /dev/mapper/system-root    168G   42G  125G  25% /var/tmp
    /dev/mapper/system-root    168G   42G  125G  25% /var/lib/libvirt/images
    /dev/mapper/system-root    168G   42G  125G  25% /home
    /dev/mapper/system-root    168G   42G  125G  25% /usr/local
    /dev/mapper/system-root    168G   42G  125G  25% /var/log
    /dev/mapper/system-root    168G   42G  125G  25% /var/crash
    /dev/mapper/system-root    168G   42G  125G  25% /.snapshots
    /dev/mapper/system-root    168G   42G  125G  25% /var/lib/mariadb
    /dev/mapper/system-root    168G   42G  125G  25% /var/lib/named
    /dev/mapper/system-root    168G   42G  125G  25% /boot/grub2/x86_64-efi
    /dev/mapper/system-root    168G   42G  125G  25% /var/lib/mysql
    /dev/mapper/system-root    168G   42G  125G  25% /var/opt
    /dev/mapper/system-root    168G   42G  125G  25% /boot/grub2/i386-pc
    tmpfs                       13G   16K   13G   1% /run/user/482
    tmpfs                       13G     0   13G   0% /run/user/1001
    tmpfs                       13G     0   13G   0% /run/user/1002
    tmpfs                       13G     0   13G   0% /run/user/0
    s4prdascs:/sapmnt/S4P      168G   72G   96G  43% /sapmnt/S4P
    s4prdascs:/usr/sap/trans/  168G   72G   96G  43% /usr/sap/trans
     

    AAS:

    Filesystem                 Size  Used Avail Use% Mounted on
    devtmpfs                    63G  8.0K   63G   1% /dev
    tmpfs                      119G   80K  119G   1% /dev/shm
    tmpfs                       63G  155M   63G   1% /run
    tmpfs                       63G     0   63G   0% /sys/fs/cgroup
    /dev/mapper/system-root    168G   42G  126G  25% /
    /dev/mapper/system-root    168G   42G  126G  25% /var/lib/mariadb
    /dev/mapper/system-root    168G   42G  126G  25% /boot/grub2/i386-pc
    /dev/mapper/system-root    168G   42G  126G  25% /.snapshots
    /dev/mapper/system-root    168G   42G  126G  25% /var/opt
    /dev/mapper/system-root    168G   42G  126G  25% /var/crash
    /dev/mapper/system-root    168G   42G  126G  25% /home
    /dev/mapper/system-root    168G   42G  126G  25% /var/cache
    /dev/mapper/system-root    168G   42G  126G  25% /opt
    /dev/mapper/system-root    168G   42G  126G  25% /var/lib/named
    /dev/mapper/system-root    168G   42G  126G  25% /var/spool
    /dev/mapper/system-root    168G   42G  126G  25% /var/lib/mailman
    /dev/mapper/system-root    168G   42G  126G  25% /boot/grub2/x86_64-efi
    /dev/mapper/system-root    168G   42G  126G  25% /tmp
    /dev/mapper/system-root    168G   42G  126G  25% /var/lib/machines
    /dev/mapper/system-root    168G   42G  126G  25% /var/tmp
    /dev/mapper/system-root    168G   42G  126G  25% /var/lib/pgsql
    /dev/mapper/system-root    168G   42G  126G  25% /usr/local
    /dev/mapper/system-root    168G   42G  126G  25% /var/lib/libvirt/images
    /dev/mapper/system-root    168G   42G  126G  25% /var/lib/mysql
    /dev/mapper/system-root    168G   42G  126G  25% /srv
    /dev/mapper/system-root    168G   42G  126G  25% /var/log
    tmpfs                       13G   16K   13G   1% /run/user/482
    tmpfs                       13G     0   13G   0% /run/user/1001
    tmpfs                       13G     0   13G   0% /run/user/1002
    tmpfs                       13G     0   13G   0% /run/user/0
    s4prdascs:/sapmnt/S4P/     168G   72G   96G  43% /sapmnt/S4P
    s4prdascs:/usr/sap/trans/  168G   72G   96G  43% /usr/sap/trans
     

    展开全文
  • 一个分布式服务器集群架构方案原文:https://segmentfault.com/a/11900000024187090x01.大型网站演化简单说,分布式是以缩短单个任务的执行时间来提升效率的,而集群则是通过提高单位时间内执行的任务数来提升效率。...

    一个分布式服务器集群架构方案

    原文:https://segmentfault.com/a/1190000002418709



    0x01.大型网站演化

    简单说,分布式是以缩短单个任务的执行时间来提升效率的,而集群则是通过提高单位时间内执行的任务数来提升效率。

    集群主要分为:高可用集群(High Availability Cluster),负载均衡集群(Load Balance Cluster,nginx即可实现),科学计算集群(High Performance Computing Cluster)。

    分布式是指将不同的业务分布在不同的地方;而集群指的是将几台服务器集中在一起,实现同一业务。分布式中的每一个节点,都可以做集群。 而集群并不一定就是分布式的。

    之前在网上看到一篇关于大型网站演化的博客。http://www.cnblogs.com/leefreeman/p/3993449.html

    每个大型网站都会有不同的架构模式,而架构内容也就是在处理均衡负载,缓存,数据库,文件系统等,只是在不同的环境下,不同的条件下,架构的模型不一样,目的旨在提高网站的性能。

    最初的架构只有应用程序,数据库,文件服务。


    到后来,分布式服务、集群架设。




    0x02.关于均衡负载方案

    在上一篇,《Nginx反向代理实现均衡负载》讨论过过的nginx现实均衡负载方案,这里选择另一种HAProxy+Keepalived双机高可用均衡负载方案。

    HAProxy是免费、极速且可靠的用于为TCP和基于HTTP应用程序提供高可用、负载均衡和代理服务的解决方案,尤其适用于高负载且需要持久连接或7层处理机制的web站点。

    不论是Haproxy还是Keepalived甚至是上游服务器均提高生产力并增强可用性,也就是如下架构中Haproxy,Keepalived,Httpd服务器任意宕机一台服务还是可以正常运行的。

    HAProxy的优点:

    1、HAProxy是支持虚拟主机的,可以工作在4、7层(支持多网段);

    2、能够补充Nginx的一些缺点比如Session的保持,Cookie的引导等工作;

    3、支持url检测后端的服务器;

    4、本身仅仅就只是一款负载均衡软件;单纯从效率上来讲HAProxy更会比Nginx有更出色的负载均衡速度,在并发处理上也是优于Nginx的;

    5、HAProxy可以对Mysql读进行负载均衡,对后端的MySQL节点进行检测和负载均衡;




    0x03.关于Redis缓存方案

    缓存分为服务器缓存和应用程序缓存。

    关于应用程序内缓存,已经在Jue后台框架里面做了模块处理了。

    关于服务器缓存,主要缓存服务器文件,减少服务器和php交互,减少均衡负载服务器和应用程序服务器交互。

    缓存里面有一种典型的memcached,现在用的多的是redis轻量级缓存方案。

    关于memcached与redis,看这篇 《Memcached vs Redis?》

    Redis主要将数据存储在各种格式:列表,数组,集合和排序集,一次能接受多个命令,阻塞读写,等待直到另一个进程将数据写入高速缓存。


    一篇关于Reids缓存方案。《高可用、开源的Redis缓存集群方案》




    0x04.关于搜索引擎Sphinx方案

    (第一期不做,后期需求时候考虑)

    Sphinx是俄罗斯人开发的,号称是很吊啦,千万级数据检索,每秒10MB/s,搭过环境。

    Sphinx和MySQL是基于数据库的全文引擎,创建索引是B+树和hash key-value的方式。

    原理类似于用底层C检索MySQL,然后弄出一个sphinx.conf配置文件,索引与搜索均以这个文件为依据进行,要进行全文检索,首先就要配置好sphinx.conf,告诉sphinx哪些字段需要进行索引,哪些字段需要在where,orderby,groupby中用到。

    Sphinx中文




    0x05.关于NoSQL快速存储方案

    NoSQL在这里的使用价值是处理一些琐事,比如用户个人网站的一些css值,height,width,color等等的小而繁多的数据,采用NoSQL旨在提升数据库速度,减少对MySQL的SELECT请求。

    关于NoSQL的方案很多了,选一个简单的MongDB好了。




    0x06.关于分布式MySQL方案

    (做分布式MySQL还没尝试过,初期也不清楚mysql所需要的压力,所以第一期不打算做分布式MySQL)

    《标准MySQL数据库外的5个开源兼容方案》




    0x07.分布式集群方案

    综合起来,大致就是如下模型,初探分布式架构,很多模块将就形势做调整,时时更新中,待续。。。




    本文出自 夏日小草,转载请注明出处:http://homeway.me/2014/12/10/think-about-distributed-clusters/


    -by小草

    2014-12-10 23:27:01


    展开全文
  • 记录分布式服务器集群架构变化简单思路 2016-06-12 20:56 91人阅读 评论(0) 收藏 举报  分类: 软件架构(7)  目录(?)[+] 01.大型网站演化(APP) 简单说,分布式是以...
  • 集群主要分为:高可用集群(High Availability Cluster),负载均衡集群(Load Balance Cluster,nginx即可实现),科学计算集群(High Performance Computing Cluster)。分布式是指将不同的业务分布在...
  • 本篇概要:1....LVS 是 Linux Virtual Server 的简写,意思就是 Linux 虚拟服务器,是一个虚拟的服务器集群系统 本项目在 1998 年 5 月由章文嵩博士成立,是中国国内最早出现的自由软件项目之一 目...
  • 深圳市添越智创科技有限公司店铺链接:shop114963t53p883.1688.com移动互联应用的...方案简介集群服务器解决方案,以多块核心板的组合方式,提供标准的软硬件接口,支持分布式AI运算,可用于机器学习、人工智能和...
  • 十台服务器集群架构

    千次阅读 2017-02-15 23:32:00
    架构图体现了动态网站的速度、稳定、冗余、安全等。 在速度方面,咱们做了nginx协助tomcat负载均衡,实现多用户访问同时处理,加快处理速度。在速度方面,咱们还做了tomcat和nginx的动静分离,众所周知...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 8,836
精华内容 3,534
关键字:

服务器集群架构