精华内容
下载资源
问答
  • 二十年前,现象级美剧《欲望都市》讲述了美国纽约曼哈顿四个单身女人的故事,在对年轻人的代际影响力上,鲜有能与《欲望都市》相媲美的。但日本电视剧《东京爱情故事》...“双十一”的底层逻辑常规用户对于“双十一...

    二十年前,现象级美剧《欲望都市》讲述了美国纽约曼哈顿四个单身女人的故事,在对年轻人的代际影响力上,鲜有能与《欲望都市》相媲美的。但日本电视剧《东京爱情故事》和中国的“双十一”是两个例外。《欲望都市》和《东京爱情故事》之所以经典,在于二者的底层逻辑相似,都有两条主线:一条是勾魂摄魄的欲望和时尚,一条是多年以后才能品味的爱与成长。那“双十一”的底层逻辑又是什么?

    “双十一”的底层逻辑

    常规用户对于“双十一”的认知是全球最大的购物交易日、全球最大的品牌公关日、全球最大的包裹寄送日以及全球最大的购物狂欢节。但在我看来,“双十一”的关键词只有一个:全球最大单一购物场景。

    从大类上看,互联网商业可分为两种:一种是节省时间的消费,另一种是消磨时间的消费。与之相对应的,前者为工具型电商(交易型电商),后者为社交型电商(内容型电商)。作为工具型电商集大成者,“双十一”具有以下九个底层逻辑:

    1、注意力集群。大多数人都知道产业集群,它是生产商主权时代的产物,供应链成本得以大大降低。而注意力集群是渠道商主权的产物,流量成本会大大降低。比如四大天王并不是香港唱歌最好的4个歌手,但这个集合品牌对流量的吸引能力非常强。

    2、高欲望消费。生产商主权与渠道商主权有一个共同点就是理性假设,假设消费者知道自己的消费需求,选品策略基于历史的可观察可衡量的关键消费因素,通过刺激欲望程度可以形成增量消费。反过来说,“双十一”的天花板也在于此。“双十一”解决不了高欲望消费的缺点,即购物场景之外的消费触发能力极弱。这也不难理解,为何“双十一”要举办盛大的娱乐晚会,其底层逻辑是在购物场景中强化情绪触发型决策,弱化高欲望消费占比。

    3、比价消费。因为理性假设,关键消费因素是存在的。只要低成本吸引大流量,在供给端提供海量的客户利益决策点,大流量的销售转化率就成为必然。而最大的客户单一利益决策点就是比价消费(价格战促销)。这也是“双十一”的成功之处,也是被部分商家诟病的地方:“双十一”拉动了销售收入,但没有拉动利润。

    4、流量补刀。消费者平时关注一些商品,也放进了购物车,但并没有达到消费决策的阈值。“双十一”给商家提供二次决策触发的促销机会。这部分消费是传统线下门店无法捕捉和触发的增量消费。

    5、透支消费。当大量价格敏感型用户流量被引入后,在低价促销的刺激下,部分消费者提前透支未来1-3个月的消费,但作为减量消费,销量越大商家死亡率越高。

    6、品牌公关。正如阿里所说,“双十一”是“全球品牌的奥运会”,拿到销量金牌是一次非常大的公关事件,有可能影响在消费者心目中的行业地位。阿里与京东最大的区别就在于,阿里不是电商销售平台,而是中国最大的广告及公关平台。

    7、新生代品牌。以三只松鼠为代表的纯互联网电商品牌,通过“双十一”获得极大的品牌曝光机会。这部分往往是年轻人消费品牌,作为消费者代际更替形成的增量消费,这部分商家是“双十一”取之不竭的活力源泉。

    8、长周期物流。“双十一”促成中国第一代互联网电商与传统产业融合的大红利,即“电商物流化、物流电商化”。现在正进入第二代红利,即“餐饮零售化、零售餐饮化”。第一代是可以次日送达的长周期物流,第二代是30分钟生活圈的短周期物流。近期,阿里整合口碑与饿了么,成立本地生活服务平台,就是要抓住这个时代红利的窗口期。

    9、流量商业。阿里系擅长2B商家运营,不擅长2C用户运营。流量是粗放的,场景是近场的,消费是高欲望的。除了购物场景,消费者还有社交、娱乐、休闲、文化等远场场景。除了掏钱,消费者在社会化传播、消费口碑形成、体验式消费、创新式设计等诸多领域的商业价值还没有被“双十一”充分挖掘出来。

    后“双十一”时代

    交易额增速逐年放缓,不是“双十一”的顶峰到了,而是互联网流量的峰值到了。整个电商的用户增长、欲望驱动型消费都达到了天花板。

    互联网商业逻辑正在发生深刻变化:从流量商业到用户商业、从市场份额到场景份额、从大众经济到窄众经济、从渠道商主权到消费者主权、从工具型电商到内容型电商、从高欲望消费到低欲望消费、从信息不对称到认知不对称、从长周期物流到短周期物流等……

    那何为流量商业,何为用户商业?

    流量商业是渠道商主权,关注流量运营和单次流量下的成交金额GMV。而用户商业是消费者主权,关注用户运营和客户生命周期的分批次变现。

    以大众点评为例,表面上看大众点评是一个餐饮服务软件,但其底层逻辑是中国最大本地餐饮消费口碑库,且具备完整的关系链、信任度、认知流。

    用户选择附近餐饮时习惯性打开大众点为评,这是基于LBS(Lo-cationBasedService)本地生活关系链。大众必吃榜不是高欲望消费,而是由“商家公关+客户口碑”触发的消费理由。在浏览点评意见、菜品和人均消费等相关内容后,尽管用户没走到商家店铺的消费场景,可能已经决定去这家店铺消费。在购物场景外触发消费决策,用户决策成本非常低。此外,大众点评上的商家内容95%由用户生产,在消费价值之外又挖掘出消费者的生产价值和点评价值。

    在本地生活服务领域,美团点评是阿里的竞争对手。

    2018年6月,阿里又投资了小红书。作为中国最大境外商品消费口碑库,小红书也具备完整的关系链、信任度、认知流。在用户运营的专度与深度上,小红书给大众点评带来不小压力。小红书本质上是内容型电商,与“双十一”工具型电商恰为互补。

    (作者系灰度认知社创始人)

    展开全文
  • 又快到一年一次的双十一“剁手节”了,小伙伴们的钱包是不是在瑟瑟发抖啊?其实,在每年的双十一,胆战心惊、如履薄冰的岂止是钱包啊?数不清的运维人估计现在都在机房里祈祷呢!不可否认。。。咱们运维人平常的工作...

    又快到一年一次的双十一“剁手节”了,小伙伴们的钱包是不是在瑟瑟发抖啊?

    其实,在每年的双十一,胆战心惊、如履薄冰的岂止是钱包啊?数不清的运维人估计现在都在机房里祈祷呢!

    09ac1c44eac7c90f82dd472546435553.png

    不可否认。。。咱们运维人平常的工作压力已经够更大了,除了需要应对各种突发故障,防止交易中断,还要查日志、做巡检。但是那些潜在的问题隐患,怎么可能自己跳出来呢?每找到一个,就像在海里找绣花针,这难倒了多少运维“好汉”?通常情况是,每天忙的跟热锅上的蚂蚁一般,但只要出了事,还得乖乖背锅。

    所以,今天的话题,聊的就是怎么能帮咱们运维人“脱离苦海”。

    大家都知道,双十一最吸引人的地方,就在于秒杀带来的优惠。

    但秒杀这事,爽在买家们的手上,痛在运维人的心上。

    为什么?因为秒杀背后的机制。

    首先,经过电商平台前期广告的狂轰滥炸,基本上流量来源是稳了,所以只要考虑如何保障峰值期间不出事。

    但当下的电商流量峰值,已经不是纯粹的一个点,而是一段峰值线。

    平台鼓励买家秒杀,还给了确定的时间,于是从抢各种优惠券、倒计时,再到开秒下单,以及抵扣付款,整个峰值是持续下来的。

    其次,是多峰值频现。

    简单来说,买家在双十一这天,通常是参加完这个秒杀,然后马上又到那个秒杀。于是一个个峰值接踵而至,并且不可能是排好了队的,而是“一波未平一波又起”。

    最后,因为多峰值并行,却不是简单的平行,如果巧了都聚到一块,那就像放大镜烤蚂蚁了。

    那么,又该怎样应对呢?

    这里给你送上五个“招”。

    第一招,峰值吃的是资源,所以首先需要做到资源的快速伸缩,这是解决问题的根本办法。

    第二招,思想上得有境界,这说的是理念层面。因为传统的运维人只注重技术,但要应对当下电商新业务模式,技术并不够,还要注重管理。

    第三招,战前动员工作得做到位,比如活动开始前,巡检工作要比日常更仔细,应急预案也要把该想到的都想到。

    第四招,那就是需要提前选型好一个优质的IT服务平台,引入有力外援。

    尤其是平台的选择上,可以选择类似贤牛这样的平台,他们不但拥有海量的、优质的工程师资源,也有价格适中、货源充足的备件。这样,就能在IT服务交付和服务体验上有了保证。

    最后,想对所有运维小伙伴们说一声,希望大家都能在今年双十一轻松过关。也要感谢你们的辛苦奋战,才换来亿万剁手党的幸福生活。正所谓,“双十一的军功章,有剁手党的一半!也有你的一半!”

    展开全文
  • 作者|阿里资源管理技术专家杨仪刚刚过去的 2018 年天猫“双11”,创下了全天 2135 亿 GMV 的数字奇迹,零点交易峰值比往年提升 50%,各项指标均创下历史新高。2018 年是“双11”的第十年,也是阿里系统软件事业部...

    作者|阿里资源管理技术专家杨仪

    刚刚过去的 2018 年天猫“双11”,创下了全天 2135 亿 GMV 的数字奇迹,零点交易峰值比往年提升 50%,各项指标均创下历史新高。

    2018 年是“双11”的第十年,也是阿里系统软件事业部参与的第二个“双11”,系统软件是介于业务应用和 IDC、网络、服务器之间的核心关键层,为阿里巴巴集团在线业务提供基础的操作系统、资源调度、SRE、JVM 等领域重要的基础设施。

    经过两年“双11”的精心淬炼,系统软件事业部与其他兄弟 BU 并肩作战,逐步提升了阿里巴巴在基础软件领域的技术深度。阿里系统软件是如何应对“双11”流量峰值的呢?以下为大家一一揭晓。

    “双11”面临的挑战

    双11的核心是稳定压倒一切,如何确保各个系统在峰值流量下的稳定性成为重中之重,系统软件作为阿里巴巴的基础设施底盘,今年主要面临如下挑战:

    在去年双11的完美表现的基础上,今年双11的稳定性不容有失,从内核到业务层保障,所有基础设施必须保障绝对稳定;

    大量新技术如规模化混部演进给集团带来技术进步的同时,给系统和业务带来不确定的技术风险;

    如何在保障业务稳定性的同时,确保成本最低,是业务给系统软件提出的更高要求;

    系统软件双11备战回顾

    双11备战之资源交付

    面向终态的站点交付

    众所周知,阿里巴巴的交易系统采用了异地多活的灾容架构,当大促来临前,需要在多个地域快速交付多个站点,通过全链路压测平台进行站点能力验证。借助于阿里巴巴资源快速弹性的能力,从交付使用到站点压测,需要在短短10多天时间内完成多个站点的快速交付,无疑是一个巨大的挑战。

    为了提升整体建站的效率,确保站点高质量交付,系统软件建站团队对建站链路进行了全面的方案优化和升级如下:

    全生命周期业务集群管控

    包括 0->1(建站)、1->N/N->1(弹性伸缩/快上快下)、1->0(站点下线);弹性伸缩范围包括接入层、中间件、Tair 及应用全链路。

    无缝对接容量模型

    单元化应用分组自动识别,应用弹性结合预算产出容量模型,对接中间件等容量模型,交易笔数->建站范围及资源需求。

    规模化资源编排

    基于 Sigma 的规模化场景资源编排,最小化资源碎片,节省资源,通过实际验证,资源分配率达到 98%。

    自动化业务回归

    各 BU 自动化业务回归,例如基于天启/doom、全链路压测、军刀等。

    资源运营降低大促成本

    根据准确测算,2018年大促每万笔交易成本比去年下降20%;这里面除了混部技术的大规模运用、云化等因素外,还需要在资源运营层面进行一系列优化,其中的重点就是打造一套资源全生命周期管理的资源运营平台,实现资源快速交付和资源最大化利用。

    资源交付体系建设

    在资源交付链路上,资源运营团队对额度系统进行重构升级,将面向时间的额度系统升级为面向当前账户的额度体系,应用负责人可以自由地在应用之间进行额度转移,极大地提升了资源交付效率;此外,我们基于一系列的容量规划和算法预测,实现了大量业务的分时复用,将大量不参与大促的业务的资源提前释放,用于支撑大促需求。

    基于系统化的资源运营方式,集团资源运营的效率和利用率大幅提升,有效地防止了资源泄露和资源闲置,真正实现了大促成本不增加,为阿里集团节省了亿级别采购成本。

    双11备战之调度备战

    大规模混部技术应用

    2017年双11,阿里巴巴的混部技术在大促零点成功得到验证,今年双11混部的量级扩大到去年的3倍;在这个大目标下,混部团队对现有架构进行了升级,在离线调度器伏羲和在线调度器sigma之上演化出一个总体的资源协调者0层,主要承载离线和在线资源记账、区分优先级的资源分配和总体协调的作用,可以把它形象的看成是一个大的账本,上面的每一条记录便是某台机器上cpu/mem/io资源如何划分给在线和离线业务,从而解决混部环境在线和离混资源的资源分配问题。

    在混部业务稳定性保障方面,通过对两类资源(CPU和MEM)按优先级划分的策略进行使用,其中以CPU资源为例划分为三个级别,分别为金牌,CPU采用绑核模式具有最高优调度抢占优先级;银牌,在线和离线高优先级任务使用,离线银牌资源不会被在线任务驱赶,保障调度优先级和稳定性;铜牌,离线大部分worker申请铜牌资源使用。在线S10和S20需要使用CPU时可以驱赶离线铜牌对CPU核的占用,实现资源充足时离线成分用满,资源紧张时在线能及时抢占的效果。

    得益于前文所述的新混部调度框架,0层和1层调度间的资源配合有了一个明显提升,去年的混部方案中,0层只保留静态的集群或单机资源配比,并且比例生效都是通过外部人为设置,而今年0层精细化单机账本之后,每台单机的配比则交给fuxi和sigma自动调整,按照容器所需资源比例进行设置。借助于资源配比的按需调整功能,快上快下也实现了完全自动化的流程驱动。

    混部快上快下是指在大促过程中,离线快速地资源释放给在线或在线快速给归还资源给离线的过程;自动化流程完美的实现了规模化混部目标,通过完整链路优化,最终实现了快上2小时,快下1小时的时间目标,也正是如此快速的资源伸缩操作保障了离线业务在资源相对紧缺的情况下安全顺滑支持规模性压测及双11大促的完整支持。

    今年双11,有超过50%的流量运行在混部集群;其中离在线混部(即离线提供资源给在线交易使用)支撑了40%的交易流量;在离线混部(即在线出让部分资源用于离线任务运行)一共部署约了数千台机器资源,为离线业务团队减少数千台机器采购。

    Sigma调度能力升级

    sigma是阿里巴巴自研的资源调度器,调度引擎是Sigma调度的核心,调度引擎的优劣,直接决定了其调度的业务的稳定性。今年调度能力升级主要做了以下几方面工作:

    业务运行时保障

    今年调度引擎团队首次提出了资源确定性的SLO目标,将业务方关心的资源争抢、超卖、CPU核重叠等容器运行时的稳定作为第一优先级任务解决,在确保核心应用CPU逻辑核不堆叠的前提下,满足了同应用不同容器和同容器对端核争抢的需求,从而提升了资源稳定性。

    引擎升级

    新版Sigma 调度器在原有基础上进行了重新设计和架构升级,兼容开源kubernetes框架,在数万笔交易容量集群上得到了大规模验证。

    Pouch容器

    今年双11,超过10%的物理机上线了pouch开源回迁版本,为探索阿里内外使用同一个容器打下基础。同时,容器团队还在Containerd-1.0 方面做了大量的性能优化/锁优化/定时任务CPU优化,确保容器运行时稳定。

    CpuShare精细化资源分配

    CpuShare是一种基于linux cgroup对应用的cpu和内存进行精细化的控制和使用的技术,双11前在线资源池整体share容器数占比10%,其中核⼼应⽤5%,次核⼼应⽤10%,非核⼼应⽤20%+。

    大促云化

    大促云化是指大促时通过短时间使用阿里云的计算能力,大促峰值过后将资源释放归还给公共云继续售卖的一种资源使用方式。

    大促云化的本质是资源的云化,包括计算资源、网络、IDC、服务器全部基于阿里云的底层技术,从2014年提出大促云化后,大促云化方案经过了多次升级改进,通过vpc网络打通云上云下互访,实现大促过后直接释放资源即可直接售卖,从而减少资源占用时长和改造成本。

    全量使用公共云方案,网络层通过VPC方案实现公共云环境与弹内环境互通;通过使用阿里云的ECS buffer,减少交易的资源采购;

    计算存储分离,使用阿里云的盘古做为远程盘存储,大大减小物理机本盘,降低了大促资源成本;

    此外,在应用、中间件、数据库层面大规模部署神龙云服务器,总体效果良好。

    大规模计算存储分离

    2018年是计算存储分离破局之年,基于盘古远程盘,部署了数千台在线宿主机,超过50%的集群使用了存储计算分离技术,这项技术有望大幅减少未来阿里集团在服务器SSD盘的硬件成本投入。

    双11备战之内核备战

    内核是系统运行的基础,今年内核团队的备战主要集中在以下两个方面:

    4.9 版本内核部署

    Linus Torvalds在2016年12月11日发布了Linux内核4.9的正式版本,由于4.9新内核修复了大量老内核已知bug,4.9版本的操作系统比目前版本相比稳定性更高,宕机率也有明显下降;目前装机量达到数十万台级别,双11交易集群约90%的交易部署在4.9内核环境,未来将继续扩大新内核的升级。

    混部环境内核调优

    离线和在线混部的集群中,由于宿主机整体资源有限,如何避免离线任务的运行对在线任务造成影响,成为业界难题;今年混部实施以来,发现混部任务调度到在线宿主机后在线业务频繁反馈容器及宿主机load高或CPU sys高的情况;经过内核团队介入排查,发布宿主机内存文件缓存过大,申请新内存时触发整机内存直接回收,导致系统开销大;优化思路:调整整机内存后台回收值(调整内存水线,提高内存Normal Zone的LOW/HIGH水线),提前回收文件缓存页面,避免内核进入直接回收流程。

    补丁前:MIN=8G, LOW=10G, HIGH=12G,LOW与MIN之间只有2G,当应用分配大量内存时,kswap还没来得及后台回收,系统内存就低于8G,这时应用只能进入direct reclaim,直接去回收。

    补丁后:MIN=8G,LOW=25G,HIGH=27G

    双11备战之JVM备战

    JVM协程(wisp)

    JVM协程今年部署范围交易核心应用扩大到导购,大促期间整体某导购核心应用水位从去年30%提升到今年的60%,业务没有新增机器。

    ZenGC

    TenureAlloc

    部分核心应用默认开启ZenGC,GC暂停改善50%;

    GCIH2.0

    核心应用部署GCIH2.0,在安全性和性能上进行了改进,GC暂停时间最多改进20+%。

    ElasticHeap动态堆内存

    双十一0点之前低流量时降低Java进程内存20%+,双十一0点迅速恢复Java堆全量使用,峰值过后,继续缩小Java堆,减少进程内存20%+,99%和最大暂停大幅好于CMS,CMS为G1的150%~5X。

    EarlyOldScavenge

    在Lindorm Velocity证,大幅减少Concurrent GC从1天30+次,减少为1天1次,推算堆增长率减少95%以上。

    展开全文
  • 18秒过亿,1分12秒过十亿,12分28秒过百亿……据阿里巴巴集团透露,今年的天猫"双11"全球狂欢节,无论是交易额、交易创建峰值还是支付峰值均一路飙升。11日当天系统交易创建峰值达到每秒钟14万笔,支付峰值达到每...

    18秒过亿,1分12秒过十亿,12分28秒过百亿……据阿里巴巴集团透露,今年的天猫"双11"全球狂欢节,无论是交易额、交易创建峰值还是支付峰值均一路飙升。11日当天系统交易创建峰值达到每秒钟14万笔,支付峰值达到每秒钟8.59万笔。相比2009年首届"双11购物节",订单创建峰值增长了350倍,支付峰值增长了430倍。

    为了支撑"双11"天量的高并发交易,力保全球"剁手党"顺畅购物,阿里今年使用了多项创新技术:全球最大规模的混合云架构;全球首个应用在金融业务的分布式关系数据库;超大数据背后的超强计算引擎ODPS……不难看出为全面应战"双11", 阿里可谓是使出了浑身解数,并创造了一个个全球技术奇迹,然而在这峰值背后,技术创新背后,是数据中心在强有力的支撑着。

    阿里目前在国内北京、上海、杭州、深圳等地均建有数据中心,全球范围内,在美国、新加坡、迪拜等也有数据中心布局。为迎接"双11"的到来,阿里选用了杭州、上海和深圳三地的数据中心,共同分担"双11"的流量,保证了整个系统的平稳运转。

    众所周知,数据中心是互联网服务的基础,对行业的发展起着重要的支撑作用。近年来随着互联网、云计算的快速发展,市场对数据中心的需求日益倍增,尤其今年在"互联网+"浪潮的推动下,国内数据中心行业即将迎来新的春天。2015年联通、移动、电信三大运营纷纷加大了对数据中心的建设投资,除运营商这三大主力外,以阿里、腾讯为代表的互联网企业也争先恐后的投入其中,同时一些设备厂商及传统IDC企业也加入到数据中心建设队伍中来,呈现百花齐放的壮观景象。

    但就在数据中心行业不断壮大的同时,诸多挑战也随之而来。当下各行业逐渐步入云时代,数据中心无论是在建设或是管理层面均面临着诸多新需求,包括运营成本的降低、扩容及收缩的灵活性、软件定义数据中心的管理新需求以及数据中心业务模式的的转变。尤其是数据中心的扩容及收缩的灵活性,在面对类似阿里"双11"的高峰值时,你准备好了吗?

    为直面数据中心大考, 2016年1月5-7日,第十届中国IDC产业年度大典(IDCC2015)将在北京国家会议中心盛大召开,除1月6日的全体会议之外,组委会在1月7日还设置了"云计算"、"大数据"、"运维与安全"、"数据中心建设"、"模块化数据中心"等多个极具针对性的专题分论坛。届时众多技术大咖、业界精英均会亲临现场,聚焦互联网+所带来的产业变革,为业界提供诸多数据中心建设及运维干货,共同推动中国IDC产业的健康发展。

    展开全文
  • 2019年全球狂欢的“双十一”购物盛典离我们越来越近,激动的心,颤抖的手,小编已经做好剁手的准备,不知道卖家们有没有备好货呢?为了迎接“双十一”,全球跨境电商平台纷纷推出各种促销活动,今天亿恩网给大家揭秘...
  • 11月11日零点零分26秒,天猫双11迎来流量洪峰,订单创建峰值达58.3万笔/秒,再创新纪录。消费者体验如丝般顺滑。今年天猫双11首次实现阿里巴巴全面云原生化,自研云操作系统的阿里云,成功扛住全球最大规模的流量...
  • 11 月 11 日零点刚过 26 秒,天猫双十一订单峰值达到58.3万笔/秒(如丝般顺滑),30分钟后双十一成交额破 3723 亿,实时成交额超过 1 亿元的品牌超过 300 个。另外一个电商巨头,京东官方数据显示,从11 月 1 日 0...
  • 峰值业务稳定性:通过全链路压测对类似于阿里双11的峰值业务稳定性进行考验,保障峰值业务不受损; 站点容量规划:通过全链路压测技术对成本进行优化,对站点进行精细化的容量规划; 性能瓶颈探测:全链路压测还...
  • 在整个交易的链路上,账单业务是一个重要的环节,尤其对商家系统来说,需要定期对账,账单子系统出现一点点问题都会影响商家的运营,2018的双十一,承载账单的消息系统把全网卖家账单系统60%的流量托付给了阿里...
  • 回顾去年天猫“双十一”,当天日活跃用户到达峰值3.56亿,交易创建峰值32.5万笔/秒、支付峰值25.6万笔/秒。在这样的购物狂欢下,你的网站是否已经做好了应对“双十一”、“双十二”的流量高峰呢? 1、提高服务器...
  • 天猫双十一销量再创新高,网上有人批评淘宝刷单,也有人说双十一的价格比平时还贵。爱智求真的PMCAFF小伙伴...2)技术层面:双十一最初几分钟会有大量的并发交易,预售可以分散下单时间,降低系统的峰值压力。3)供应链
  • 今天,特别邀请到 ApsaraDB 团队的大牛级人物玄惭和大家分享,结合历年双十一活动中云数据库保障经验,从弹性扩容、访问链路、架构设计、高可用配置、参数优化等五个方面详解讲解云数据库大流量峰值保障的最佳实践。...
  • 在9月20日-21日举办的大流量高并发互联网应用实践在线峰会上,阿里云数据库专家罗龙九(花名:玄惭)分享的主题是《云数据库大流量峰值保障最佳实践》,他结合历年双十一活动中云数据库保障经验,从弹性扩容、访问...
  • 在刚结束的2017年双11中,阿里巴巴再一次更新了记录:每秒32.5w笔的交易创建峰值、25.6w笔的支付峰值。就是这样一个由上千个不同业务系统和技术组件构建的业务站点,在如此巨大的洪峰流量冲击之下,依旧稳如磐石,...
  • 双11对阿里云大数据平台的技术挑战主要...而在超大规模的离线数据处理方面,双11期间,阿里云MaxCompute抗下了单天数据处理峰值上百PB,以及百万级的调度作业,这对于作业调度、计算性能、系统稳定性等都是极大的考验。
  • 1 背景自 2008 年 11 以来,在每年 11 超大规模流量的冲击上,蚂蚁金服都会不断突破现有技术的极限。2010 年 11 的支付峰值为 2 万笔/分钟,到 2017 年...
  • 例如阿里巴巴或者京东,每年的双十一峰值,其实就是下一年的常态,双十一各项技术指标,已经作为这些电商公司的年度技术指标指引。如果你的系统,秒杀都能承受的了,一般,在应对高峰流量的时候就不会出太大问题。...

空空如也

空空如也

1 2 3 4 5 ... 7
收藏数 133
精华内容 53
关键字:

双十一峰值流量