精华内容
下载资源
问答
  • 相信很多小伙伴接下来都要认真研读《五块钱如何花三天》这本书了,刚刚过去的双十一,你为2684亿这个项目贡献了多少呢?话说回来,今年双十一每秒54.4万笔!全球最猛交易洪峰...

    640?wx_fmt=png


    相信很多小伙伴接下来都要认真研读《五块钱如何花三天》这本书了,刚刚过去的双十一,你为2684亿这个项目贡献了多少呢smiley_51.png? 话说回来, 今年双十一 每秒54.4万笔 ! 全球最猛交易洪峰背后的数据库硬核科技,你又了解多少呢?

    很多小伙伴说我现在又遇不到规模这么大的量,而且公司当前的业务规模决定了技术上不需要分布式技 术,很多同学就不会去深入思考了,日复一日,导致很多同学就以为这就是技术的全部,同时在重复的体力劳动中也丧失了对技术细节的深入探讨。

    更重要的是很多人在技术生涯最初几年都会沉浸在业务开发中,忽视了对系统知识的梳理和技术视野的扩展。

    那你有没有想过如果规模大了之后,如何利用分布式技术解决该问题。 这些问题归根结底都是行业开发经验不足、基础薄弱所致。

    在这里向大家免费赠送【整套Java架构师系列视频】,现在扫码即可获得

    十年Java大牛的设计模式经验

    整套Java架构师系统视频【框架+源码+原理+实战】

    Java资料福利包(10G含最新面试资料,电子书,技术文档资料等)

    Java架构技术路线图高清完整版

    添加下方二维码

    直播+资料+技术图谱

    四重福利免费领取

    640?wx_fmt=jpeg

    1、Java架构技术路线图

    640?wx_fmt=png


    2、Java架构师系列视频资料

    640?wx_fmt=png

    3、Java架构师直播课程,每晚8点

    1、【原理】11月7日 20:00

    互联网面试必问—线程池原理与API精析

    2、【实战】11月8日 20:00

    十年程序员分享他的设计模式经验

    3、【实战】11月9日 20:00

    分库分表技术分享

    4、【框架】11月10日 20:00

    SpringBoot核心篇第一堂课

    5、【框架】11月11日 20:00

    教你写SpringMVC框架

    6、【实战】11月12日 20:00

    搜索引擎技术揭秘

    7、【原理】11月13日 20:00

    Dubbo-RPC核心原理剖析

    4、网易专属Java进阶资料

    640?wx_fmt=png

    添加下方二维码

    多重福利免费领取

    640?wx_fmt=jpeg

    免费直播,先到先得~2_06.png

    展开全文
  • 本文以淘宝作为例子,介绍从一百个并发到千万级并发情况下服务端的架构的演进过程,同时列举出每个演进阶段会遇到的相关技术,让大家对架构的演进有一个整体的认知,文章最后汇总了一些架构设计的原则。 2、基本概念...

    作者:huashiou
    链接:https://segmentfault.com/a/1190000018626163

    1、概述

    本文以淘宝作为例子,介绍从一百个并发到千万级并发情况下服务端的架构的演进过程,同时列举出每个演进阶段会遇到的相关技术,让大家对架构的演进有一个整体的认知,文章最后汇总了一些架构设计的原则。

    2、基本概念

    在介绍架构之前,为了避免部分读者对架构设计中的一些概念不了解,下面对几个最基础的概念进行介绍。

    1)什么是分布式?

    系统中的多个模块在不同服务器上部署,即可称为分布式系统,如Tomcat和数据库分别部署在不同的服务器上,或两个相同功能的Tomcat分别部署在不同服务器上。

    2)什么是高可用?

    系统中部分节点失效时,其他节点能够接替它继续提供服务,则可认为系统具有高可用性。

    3)什么是集群?

    一个特定领域的软件部署在多台服务器上并作为一个整体提供一类服务,这个整体称为集群。
    如Zookeeper中的Master和Slave分别部署在多台服务器上,共同组成一个整体提供集中配置服务。
    在常见的集群中,客户端往往能够连接任意一个节点获得服务,并且当集群中一个节点掉线时,其他节点往往能够自动的接替它继续提供服务,这时候说明集群具有高可用性。

    4)什么是负载均衡?

    请求发送到系统时,通过某些方式把请求均匀分发到多个节点上,使系统中每个节点能够均匀的处理请求负载,则可认为系统是负载均衡的。

    5)什么是正向代理和反向代理?

    系统内部要访问外部网络时,统一通过一个代理服务器把请求转发出去,在外部网络看来就是代理服务器发起的访问,此时代理服务器实现的是正向代理;
    当外部请求进入系统时,代理服务器把该请求转发到系统中的某台服务器上,对外部请求来说,与之交互的只有代理服务器,此时代理服务器实现的是反向代理。
    简单来说,正向代理是代理服务器代替系统内部来访问外部网络的过程,反向代理是外部请求访问系统时通过代理服务器转发到内部服务器的过程。

    3、架构演进

    3.1 单机架构

    在这里插入图片描述
    以淘宝作为例子:在网站最初时,应用数量与用户数都较少,可以把Tomcat和数据库部署在同一台服务器上。

    浏览器往www.taobao.com发起请求时,首先经过DNS服务器(域名系统)把域名转换为实际IP地址10.102.4.1,浏览器转而访问该IP对应的Tomcat。

    随着用户数的增长,Tomcat和数据库之间竞争资源,单机性能不足以支撑业务

    3.2 第一次演进:Tomcat与数据库分开部署

    在这里插入图片描述
    Tomcat和数据库分别独占服务器资源,显著提高两者各自性能。

    随着用户数的增长,并发读写数据库成为瓶颈

    3.3 第二次演进:引入本地缓存和分布式缓存

    在这里插入图片描述
    在Tomcat同服务器上或同JVM中增加本地缓存,并在外部增加分布式缓存,缓存热门商品信息或热门商品的html页面等。通过缓存能把绝大多数请求在读写数据库前拦截掉,大大降低数据库压力。其中涉及的技术包括:使用memcached作为本地缓存,使用Redis作为分布式缓存,还会涉及缓存一致性、缓存穿透/击穿、缓存雪崩、热点数据集中失效等问题。

    缓存抗住了大部分的访问请求,随着用户数的增长,并发压力主要落在单机的Tomcat上,响应逐渐变慢

    3.4 第三次演进:引入反向代理实现负载均衡

    在这里插入图片描述
    在多台服务器上分别部署Tomcat,使用反向代理软件(Nginx)把请求均匀分发到每个Tomcat中。此处假设Tomcat最多支持100个并发,Nginx最多支持50000个并发,那么理论上Nginx把请求分发到500个Tomcat上,就能抗住50000个并发。其中涉及的技术包括:Nginx、HAProxy,两者都是工作在网络第七层的反向代理软件,主要支持http协议,还会涉及session共享、文件上传下载的问题。

    反向代理使应用服务器可支持的并发量大大增加,但并发量的增长也意味着更多请求穿透到数据库,单机的数据库最终成为瓶颈

    3.5 第四次演进:数据库读写分离

    在这里插入图片描述
    把数据库划分为读库和写库,读库可以有多个,通过同步机制把写库的数据同步到读库,对于需要查询最新写入数据场景,可通过在缓存中多写一份,通过缓存获得最新数据。其中涉及的技术包括:Mycat,它是数据库中间件,可通过它来组织数据库的分离读写和分库分表,客户端通过它来访问下层数据库,还会涉及数据同步,数据一致性的问题。

    业务逐渐变多,不同业务之间的访问量差距较大,不同业务直接竞争数据库,相互影响性能

    3.6 第五次演进:数据库按业务分库

    在这里插入图片描述
    把不同业务的数据保存到不同的数据库中,使业务之间的资源竞争降低,对于访问量大的业务,可以部署更多的服务器来支撑。这样同时导致跨业务的表无法直接做关联分析,需要通过其他途径来解决,但这不是本文讨论的重点,有兴趣的可以自行搜索解决方案。

    随着用户数的增长,单机的写库会逐渐会达到性能瓶颈

    3.7 第六次演进:把大表拆分为小表

    在这里插入图片描述
    比如针对评论数据,可按照商品ID进行hash,路由到对应的表中存储;针对支付记录,可按照小时创建表,每个小时表继续拆分为小表,使用用户ID或记录编号来路由数据。只要实时操作的表数据量足够小,请求能够足够均匀的分发到多台服务器上的小表,那数据库就能通过水平扩展的方式来提高性能。其中前面提到的Mycat也支持在大表拆分为小表情况下的访问控制。

    这种做法显著的增加了数据库运维的难度,对DBA的要求较高。数据库设计到这种结构时,已经可以称为分布式数据库,但是这只是一个逻辑的数据库整体,数据库里不同的组成部分是由不同的组件单独来实现的,如分库分表的管理和请求分发,由Mycat实现,SQL的解析由单机的数据库实现,读写分离可能由网关和消息队列来实现,查询结果的汇总可能由数据库接口层来实现等等,这种架构其实是MPP(大规模并行处理)架构的一类实现。

    目前开源和商用都已经有不少MPP数据库,开源中比较流行的有Greenplum、TiDB、Postgresql XC、HAWQ等,商用的如南大通用的GBase、睿帆科技的雪球DB、华为的LibrA等等,不同的MPP数据库的侧重点也不一样,如TiDB更侧重于分布式OLTP场景,Greenplum更侧重于分布式OLAP场景,这些MPP数据库基本都提供了类似Postgresql、Oracle、MySQL那样的SQL标准支持能力,能把一个查询解析为分布式的执行计划分发到每台机器上并行执行,最终由数据库本身汇总数据进行返回,也提供了诸如权限管理、分库分表、事务、数据副本等能力,并且大多能够支持100个节点以上的集群,大大降低了数据库运维的成本,并且使数据库也能够实现水平扩展。

    数据库和Tomcat都能够水平扩展,可支撑的并发大幅提高,随着用户数的增长,最终单机的Nginx会成为瓶颈

    3.8 第七次演进:使用LVS或F5来使多个Nginx负载均衡

    在这里插入图片描述
    由于瓶颈在Nginx,因此无法通过两层的Nginx来实现多个Nginx的负载均衡。图中的LVS和F5是工作在网络第四层的负载均衡解决方案,其中LVS是软件,运行在操作系统内核态,可对TCP请求或更高层级的网络协议进行转发,因此支持的协议更丰富,并且性能也远高于Nginx,可假设单机的LVS可支持几十万个并发的请求转发;F5是一种负载均衡硬件,与LVS提供的能力类似,性能比LVS更高,但价格昂贵。由于LVS是单机版的软件,若LVS所在服务器宕机则会导致整个后端系统都无法访问,因此需要有备用节点。可使用keepalived软件模拟出虚拟IP,然后把虚拟IP绑定到多台LVS服务器上,浏览器访问虚拟IP时,会被路由器重定向到真实的LVS服务器,当主LVS服务器宕机时,keepalived软件会自动更新路由器中的路由表,把虚拟IP重定向到另外一台正常的LVS服务器,从而达到LVS服务器高可用的效果。

    此处需要注意的是,上图中从Nginx层到Tomcat层这样画并不代表全部Nginx都转发请求到全部的Tomcat,在实际使用时,可能会是几个Nginx下面接一部分的Tomcat,这些Nginx之间通过keepalived实现高可用,其他的Nginx接另外的Tomcat,这样可接入的Tomcat数量就能成倍的增加。

    由于LVS也是单机的,随着并发数增长到几十万时,LVS服务器最终会达到瓶颈,此时用户数达到千万甚至上亿级别,用户分布在不同的地区,与服务器机房距离不同,导致了访问的延迟会明显不同

    3.9 第八次演进:通过DNS轮询实现机房间的负载均衡

    在这里插入图片描述
    在DNS服务器中可配置一个域名对应多个IP地址,每个IP地址对应到不同的机房里的虚拟IP。当用户访问www.taobao.com时,DNS服务器会使用轮询策略或其他策略,来选择某个IP供用户访问。此方式能实现机房间的负载均衡,至此,系统可做到机房级别的水平扩展,千万级到亿级的并发量都可通过增加机房来解决,系统入口处的请求并发量不再是问题。

    随着数据的丰富程度和业务的发展,检索、分析等需求越来越丰富,单单依靠数据库无法解决如此丰富的需求

    3.10 第九次演进:引入NoSQL数据库和搜索引擎等技术

    在这里插入图片描述
    当数据库中的数据多到一定规模时,数据库就不适用于复杂的查询了,往往只能满足普通查询的场景。对于统计报表场景,在数据量大时不一定能跑出结果,而且在跑复杂查询时会导致其他查询变慢,对于全文检索、可变数据结构等场景,数据库天生不适用。因此需要针对特定的场景,引入合适的解决方案。如对于海量文件存储,可通过分布式文件系统HDFS解决,对于key value类型的数据,可通过HBase和Redis等方案解决,对于全文检索场景,可通过搜索引擎如ElasticSearch解决,对于多维分析场景,可通过Kylin或Druid等方案解决。

    当然,引入更多组件同时会提高系统的复杂度,不同的组件保存的数据需要同步,需要考虑一致性的问题,需要有更多的运维手段来管理这些组件等。

    引入更多组件解决了丰富的需求,业务维度能够极大扩充,随之而来的是一个应用中包含了太多的业务代码,业务的升级迭代变得困难

    3.11 第十次演进:大应用拆分为小应用

    在这里插入图片描述
    按照业务板块来划分应用代码,使单个应用的职责更清晰,相互之间可以做到独立升级迭代。这时候应用之间可能会涉及到一些公共配置,可以通过分布式配置中心Zookeeper来解决。

    不同应用之间存在共用的模块,由应用单独管理会导致相同代码存在多份,导致公共功能升级时全部应用代码都要跟着升级

    3.12 第十一次演进:复用的功能抽离成微服务

    在这里插入图片描述
    如用户管理、订单、支付、鉴权等功能在多个应用中都存在,那么可以把这些功能的代码单独抽取出来形成一个单独的服务来管理,这样的服务就是所谓的微服务,应用和服务之间通过HTTP、TCP或RPC请求等多种方式来访问公共服务,每个单独的服务都可以由单独的团队来管理。此外,可以通过Dubbo、SpringCloud等框架实现服务治理、限流、熔断、降级等功能,提高服务的稳定性和可用性。

    不同服务的接口访问方式不同,应用代码需要适配多种访问方式才能使用服务,此外,应用访问服务,服务之间也可能相互访问,调用链将会变得非常复杂,逻辑变得混乱

    3.13 第十二次演进:引入企业服务总线ESB屏蔽服务接口的访问差异

    在这里插入图片描述
    通过ESB统一进行访问协议转换,应用统一通过ESB来访问后端服务,服务与服务之间也通过ESB来相互调用,以此降低系统的耦合程度。这种单个应用拆分为多个应用,公共服务单独抽取出来来管理,并使用企业消息总线来解除服务之间耦合问题的架构,就是所谓的SOA(面向服务)架构,这种架构与微服务架构容易混淆,因为表现形式十分相似。个人理解,微服务架构更多是指把系统里的公共服务抽取出来单独运维管理的思想,而SOA架构则是指一种拆分服务并使服务接口访问变得统一的架构思想,SOA架构中包含了微服务的思想。

    业务不断发展,应用和服务都会不断变多,应用和服务的部署变得复杂,同一台服务器上部署多个服务还要解决运行环境冲突的问题,此外,对于如大促这类需要动态扩缩容的场景,需要水平扩展服务的性能,就需要在新增的服务上准备运行环境,部署服务等,运维将变得十分困难

    3.14 第十三次演进:引入容器化技术实现运行环境隔离与动态服务管理

    在这里插入图片描述
    目前最流行的容器化技术是Docker,最流行的容器管理服务是Kubernetes(K8S),应用/服务可以打包为Docker镜像,通过K8S来动态分发和部署镜像。Docker镜像可理解为一个能运行你的应用/服务的最小的操作系统,里面放着应用/服务的运行代码,运行环境根据实际的需要设置好。把整个“操作系统”打包为一个镜像后,就可以分发到需要部署相关服务的机器上,直接启动Docker镜像就可以把服务起起来,使服务的部署和运维变得简单。

    在大促的之前,可以在现有的机器集群上划分出服务器来启动Docker镜像,增强服务的性能,大促过后就可以关闭镜像,对机器上的其他服务不造成影响(在3.14节之前,服务运行在新增机器上需要修改系统配置来适配服务,这会导致机器上其他服务需要的运行环境被破坏)。

    使用容器化技术后服务动态扩缩容问题得以解决,但是机器还是需要公司自身来管理,在非大促的时候,还是需要闲置着大量的机器资源来应对大促,机器自身成本和运维成本都极高,资源利用率低

    3.15 第十四次演进:以云平台承载系统

    在这里插入图片描述
    系统可部署到公有云上,利用公有云的海量机器资源,解决动态硬件资源的问题,在大促的时间段里,在云平台中临时申请更多的资源,结合Docker和K8S来快速部署服务,在大促结束后释放资源,真正做到按需付费,资源利用率大大提高,同时大大降低了运维成本。

    所谓的云平台,就是把海量机器资源,通过统一的资源管理,抽象为一个资源整体,在之上可按需动态申请硬件资源(如CPU、内存、网络等),并且之上提供通用的操作系统,提供常用的技术组件(如Hadoop技术栈,MPP数据库等)供用户使用,甚至提供开发好的应用,用户不需要关系应用内部使用了什么技术,就能够解决需求(如音视频转码服务、邮件服务、个人博客等)。在云平台中会涉及如下几个概念:

    IaaS:基础设施即服务。对应于上面所说的机器资源统一为资源整体,可动态申请硬件资源的层面;
    PaaS:平台即服务。对应于上面所说的提供常用的技术组件方便系统的开发和维护;
    SaaS:软件即服务。对应于上面所说的提供开发好的应用或服务,按功能或性能要求付费。
    至此,以上所提到的从高并发访问问题,到服务的架构和系统实施的层面都有了各自的解决方案,但同时也应该意识到,在上面的介绍中,其实是有意忽略了诸如跨机房数据同步、分布式事务实现等等的实际问题,这些问题以后有机会再拿出来单独讨论

    4. 架构设计总结

    1)架构的调整是否必须按照上述演变路径进行?

    不是的,以上所说的架构演变顺序只是针对某个侧面进行单独的改进,在实际场景中,可能同一时间会有几个问题需要解决,或者可能先达到瓶颈的是另外的方面,这时候就应该按照实际问题实际解决。如在政府类的并发量可能不大,但业务可能很丰富的场景,高并发就不是重点解决的问题,此时优先需要的可能会是丰富需求的解决方案。

    2)对于将要实施的系统,架构应该设计到什么程度?

    对于单次实施并且性能指标明确的系统,架构设计到能够支持系统的性能指标要求就足够了,但要留有扩展架构的接口以便不备之需。对于不断发展的系统,如电商平台,应设计到能满足下一阶段用户量和性能指标要求的程度,并根据业务的增长不断的迭代升级架构,以支持更高的并发和更丰富的业务。

    3)服务端架构和大数据架构有什么区别?

    所谓的“大数据”其实是海量数据采集清洗转换、数据存储、数据分析、数据服务等场景解决方案的一个统称,在每一个场景都包含了多种可选的技术,如数据采集有Flume、Sqoop、Kettle等,数据存储有分布式文件系统HDFS、FastDFS,NoSQL数据库HBase、MongoDB等,数据分析有Spark技术栈、机器学习算法等。总的来说大数据架构就是根据业务的需求,整合各种大数据组件组合而成的架构,一般会提供分布式存储、分布式计算、多维分析、数据仓库、机器学习算法等能力。而服务端架构更多指的是应用组织层面的架构,底层能力往往是由大数据架构来提供。

    4)有没有一些架构设计的原则?

    N+1设计。系统中的每个组件都应做到没有单点故障;
    回滚设计。确保系统可以向前兼容,在系统升级时应能有办法回滚版本;
    禁用设计。应该提供控制具体功能是否可用的配置,在系统出现故障时能够快速下线功能;
    监控设计。在设计阶段就要考虑监控的手段;
    多活数据中心设计。若系统需要极高的高可用,应考虑在多地实施数据中心进行多活,至少在一个机房断电的情况下系统依然可用;
    采用成熟的技术。刚开发的或开源的技术往往存在很多隐藏的bug,出了问题没有商业支持可能会是一个灾难;
    资源隔离设计。应避免单一业务占用全部资源;
    架构应能水平扩展。系统只有做到能水平扩展,才能有效避免瓶颈问题;
    非核心则购买。非核心功能若需要占用大量的研发资源才能解决,则考虑购买成熟的产品;
    使用商用硬件。商用硬件能有效降低硬件故障的机率;
    快速迭代。系统应该快速开发小功能模块,尽快上线进行验证,早日发现问题大大降低系统交付的风险;
    无状态设计。服务接口应该做成无状态的,当前接口的访问不依赖于接口上次访问的状态。

    展开全文
  • 阿里双十一的四种应用场景 MDB 典型应用场景 用于缓存,降低对后端数据库的访问压力。 临时数据存储,部分数据丢失不会对业务产生较大影响。 读多写少,读qps达到万级别以上。 FastDump 典型应用场景 周期性地...

    每年双11,天猫成交额都会一次一次地刷新世界纪录,阿里巴巴核心系统100%上云,撑住了双11的世界级流量洪峰。在这一流量战场上,阿里可谓是华山论剑的最大赢家。今天我把阿里针对淘宝双十一万亿级流量下的分布式缓存文档共享出来,全面解析阿里双11的武功秘籍。

    阿里双十一的四种应用场景

    MDB 典型应用场景

    1. 用于缓存,降低对后端数据库的访问压力。
    2. 临时数据存储,部分数据丢失不会对业务产生较大影响。
    3. 读多写少,读qps达到万级别以上。

    FastDump 典型应用场景

    1. 周期性地将离线数据快速地导入到Tair集群中,快速使用到新的数据。
    2. 读取低延迟,不能有毛刺。

    LDB 典型应用场景

    1. 通用kv存储,交易快照,安全风控等。
    2. 存储黑白单数据,读qps很高。
    3. 计数器功能,更新非常频繁,且数据不可丢失。

    RDB 典型应用场景

    1. 复杂的数据结构的缓存与存储。
    2. 如播放列表,直播间等。

     

    双十一技术挑战

    • 访问峰值增速:Tair峰值 > 交易峰值 > 总GMV
    • 多地域多单元
    • 体验与成本
    • 稳定性,高可用

     

    性能与成本

    内存数据结构

    1. cache meta
    2. slab_mabager
    3. hashmap
    4. pages

     

    锁的影响

    • 细粒度锁(fine-grained locks)
    • 无锁数据结构(lock-free data structures)
    • CPU本地数据结构(per-CPU data structures)
    • 读拷贝更新(RCU)

     

    用户态协议栈+内存合并

     

    客户端优化

    • 网络框架替换,适配协程mina =netty吞吐量提升40%+
    • 序列化优化集成kryo和hessian吞吐量提升16%+

     

    内存网格

    • 业务场景读写量超大大量本地计算提供高性能计算快速IO能 力
    • 特性数据本地性读穿透Write Through / Write Behind/merge多单元replication
    • 效果读取降至27.68%写入降至55.75%

     

    缓存难题——热点

    缓存击穿

    • 突发流量热门商品,店铺时事新闻各类压测
    • 缓存被击穿限流
    • 结局全系统崩溃
    • 根源访问热点

     

    热点散列

    • 热点类型频率热点流量热点

     

    热点散列效果

    • 热点QPS数
    • 热点流量
    • 热点集群散列效果对比

     

    写热点

    • 热点合并实时识别合并写引擎

     

    阿里巴巴的这个双十一万亿流量分布式缓存,完整呈现如何设计响应亿级请求。

    教你如何构建高并发、大流量系统方能经受起亿级线上用户流量的真实考验。

    由于头条发文图片质量可能会受到影响(图片会被压缩导致清晰度下降),完整版的阿里双十一万亿流量分布式缓存设计,我在这里做一个开源式的分享,用以帮助到更多想从大厂技术层面彻底提升自身硬实力的互联网从业者。

     

    展开全文
  • 双十一”高并发应对解决之道

    千次阅读 2016-10-11 18:57:32
    作者简介 丛磊 白山云科技合伙人兼工程副总裁 2016年加入白山,负责云链体系的...不知从何时起,“双十一”成为了“购物节”,这种全民狂欢式购物对金融行业是一个巨大挑战,短时间的高并发会给数据接口带来巨...

    图片描述

    作者简介
    丛磊 白山云科技合伙人兼工程副总裁
    2016年加入白山,负责云链体系的设计与构建等工作;2006年至2015年,就职于新浪,带领团队从事云相关领域技术研发工作。国内最大公有云PaaS平台——SAE创始人;工信部可信云服务认证评委。

    图片描述

    1 “双十一”压力
    不知从何时起,“双十一”成为了“购物节”,这种全民狂欢式购物对金融行业是一个巨大挑战,短时间的高并发会给数据接口带来巨大压力。据悉,2015年天猫峰值交易量达到14万次/秒,而2009年仅为400次/秒。

    用户每一笔交易背后都包含了多项操作:首先,用户浏览多个商品才触发一次购物行为;再次,实际交易前,需要确保库存、配送、商家优惠政策等信息;生成订单后,执行支付接口,要求高度一致性和可靠性;支付完成后需要回调多个逻辑,包括积分计算、折扣返点、物流配送等。

    可见14万/秒的交易峰值,不仅对于金融机构,即便是具备丰富应对高并发经验的互联网公司,都不是一件容易的事。更为紧迫的是,随着IOT设备进一步普及,“双十一”带来的压力将越来越大,据某电商平台预测,2016年“双十一”峰值压力将再翻5倍。在可预见的未来,交易完全有可能达到100万次/秒!

    2 应对之道
    本人曾参与研发交易量10万/秒级别的系统,这里对如何应对超高并发提出一些建议。其实,无论是“秒杀”还是“双十一”,都没有灵丹妙药,一个真正能抗超高并发的金融系统,必然由系统中每个组件优化而成。让每个组件发挥最大威力,并对系统充分解耦,才能做出可靠的平台。

    应对超高并发,最重要两个技术:“缓存-Cache”和”异步化-队列”。

    3 缓存- Cache
    这里的Cache不是传统意义上的Redis/Memcache等系统Cache组件,而是从用户端到最后数据层所有环节的Cache。
    对于高并发场景,第一条准则就是为用户行为所有环节加上合理的Cache。

    业务层次图如下:
    图片描述
    如图所示,用户访问/交易行为的起点是浏览器。首先对浏览器端进行合理的Cache设置,即对其中页面设置合理的过期规则,配合CDN端,让部分元素响应直接在浏览器Cache端返回,有效降低业务访问压力;其次,虚线内展示的是业务端,主要由两部分构成,一个是计算资源,运行业务代码;另一个是数据库,负责存储业务数据。

    业务层输出的内容分为两部分:动态+静态。对于动态居多的电商金融业务,以静态内容为主的CDN加速没有特别效果,而应该对数据接口进行接口加速(ADN,API Delivery Network)。接口加速需要注意的是,不能因给接口加Cache而影响业务本身。我们建议对所有读类型数据接口加Cache,并将Cache时间设定为毫秒级,针对不同接口指定不同Cache策略,有效提高Cache命中率。

    根据实测,通过加ADN Cache,可提高60%访问速度,同时降低2-3倍后端实际负载。

    4 异步化-队列
    异步化-队列是通过队列将请求/事务放入后台运行,从同步阻塞模式变为异步非阻塞模式。例如,抢购发生时,用户同时调用支付接口,同步阻塞模式下,用户数量即支付接口的并发度,用户过多时,支付数据库压力过大,严重时可能会导致数据库服务宕机。采用异步模式后,抢购时,用户请求进入队列处理,队列并发度与数据库并发能力相匹配,用户请求按序进行,可有效保护数据后端。

    队列不只可以保护后端数据库。在秒杀场景,很多用户抢购一个商品,可以先将抢购请求放入队列,再进入后台筛选处理(比如排重、按优先级排序等),最后调用实际下单接口。队列可以根据产品需求选用两种不同模式:一种是全异步模式,即进入队列后立即返回成功,通过回调通知调用者结果;另一种是半异步,即进入队列后,调用者挂起,实际执行结束后,再返回成功或者失败结果。

    5 总结
    应对“双十一”高并发,主要采用缓存+队列异步化,缓存的重点是每个环节,尤其是对于传统易忽略的数据接口,都要进行合理的Cache。

    对于高并发请求,要进行异步化非阻塞处理,防止“洪水”现象,保证业务稳定有序进行。

    展开全文
  • 支付宝双十一.pdf 大流量并发稳定性建设
  • 11 即将来临,本文以设计淘宝网的后台架构为例,介绍从一百个并发到千万级并发情况下服务端的架构的演进过程 同时列举出每个演进阶段会遇到的相关技术,让大家对架构的演进有一个整体的认知。 文章最后汇总了...
  • 什么是秒杀 秒杀场景一般会在电商网站举行一些活动或者节假日在12306网站上抢票时遇到。...秒杀时大量用户会在同一时间同时进行抢购,网站瞬时访问流量激增。 秒杀一般是访问请求数量远远大于库存数量,只有少部分...
  • 经过八年多的实践,从淘宝的收藏夹业务走到今天支撑支付宝所有核心业务,并且在每年的“双十一”持续地创造交易数据库峰值处理能力的世界纪录。在去年“双十一”大促中支撑了支付宝全部的核心业务(含交易、支付、...
  • 操作系统并发支持 进程管理 内存管理 文件系统 IO 系统 进程间通信 网络通信 阻塞队列 数组有界队列 链表无界队列 优先级有限无界队列 延时无界队列 同步...
  • 好文章!!转载自:[https://blog.csdn.net/u014714618/article/details/102559493]... Sentinel 承接了阿里巴巴近 10 年的双十一大促流量的核心场景本文介绍阿里开源限流熔断方案 Sentinel 功能、原理、架构、...
  • Sentinel 承接了阿里巴巴近 10 年的双十一大促流量的核心场景本文介绍阿里开源限流熔断方案 Sentinel 功能、原理、架构、快速入门以及相关框架比较基本介绍1 名词解释服务限流 :当系统资源不够,不足以应对大量请求...
  • 本文以淘宝作为例子,介绍从一百个并发到千万级并发情况下服务端的架构的演进过程,同时列举出每个演进阶段会遇到的相关技术,让大家对架构的演进有一个整体的认知,文章最后汇总了一些架构设计的原则。 2、基本...
  • 在真实的高并发系统架构下,揭秘SpringCloud Alibaba如何应对双十一! 话不多说,先看资料笔记 SpringCloud Alibaba淘宝微服务技术架构 资料和笔记 亿级流量并发多级缓存架构理论 笔记部分 好了,到这里! 先领...
  • 来源:石杉的架构笔记目录1、页缓存技术 + 磁盘顺序写2、零拷贝技术3、最后的总结“这篇文章来聊一下Kafka的一些架构设计原理,这也是...那么Kafka到底是如何做到这么高的吞吐和性能的呢?这篇文章我们来一点...
  • 11 即将来临,本文以设计淘宝网的后台架构为例,介绍从一百个并发到千万级并发情况下服务端的架构的演进过程 同时列举出每个演进阶段会遇到的相关技术,让大家对架构的演进有一个整体的认知。 文章最后汇总了...
  • 双十一就要来了,全世界都为其疯狂,但是在双十一抢购中经常会出现几万人抢一个红包或者很多人共同购买一个商品的情况,这就引发了一个数据库比较担心的场景----高并发。作为历届双十一重要保障之一的云数据库RDS...
  • 十一亿级并发下秒杀框架及功能实现 1.秒杀电商微服务架构 2.要解决的问题 大并发情况下秒杀活动要解决的核心问题无外乎以下这几个 要解决这些问题,需要先清楚秒杀流程。 用户下单 --》 执行扣减库存业务逻辑 --...
  • Sentinel 承接了阿里巴巴近 10 年的双十一大促流量的核心场景本文介绍阿里开源限流熔断方案 Sentinel 功能、原理、架构、快速入门以及相关框架比较基本介绍1 名词解释服务限流 :当系统资源不够,不足以应对大量请求...
  • 众所周知,在Java的知识体系中,并发编程是非常重要的一环,也是面试的必问题,一个好的Java程序员是必须对并发编程这块有所了解的。 然而不论是哪个国家,什么背景的 Java 开发者,都对自己写的并发程序相当自信,...
  • 6、双十一大促如何将分布式锁性能提升100倍 7、利用Redis缓存集群架构抗住12306和双11流量洪峰 8、从CAP角度剖析Redis&Zookeeper锁架构异同 9、Redis缓存与数据库双写不一致终极解决 10、Redis缓存雪崩&穿透&失效...
  • 【北京】 IT技术人员面对面试、跳槽、升职等问题,如何快速成长,获得大厂... 11 即将来临,本文以设计淘宝网的后台架构为例,介绍从一百个并发到千万级并发情况下服务端的架构的演进过程 同时列举出每个演进阶...
  • 2684亿!双十一背后的技术

    千次阅读 2019-11-11 20:52:47
    2019年阿里巴巴双十一交易额:2684亿 作为技术行业者的你,是否对这数据背后的技术更感兴趣? 这千亿级的交易,业务平台是如何支撑的呢?!作为技术小白的我,按个人的经验和所了解的一些技术,对双十一的技术栈...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 14,049
精华内容 5,619
关键字:

双十一并发量