精华内容
下载资源
问答
  • 服务器可用性

    2019-02-16 23:21:27
    可用性指系统在面对异常时可以提供正常服务的能力,异常包括手写代码带入的bug、硬件故障、天灾人祸等, 正常服务要跟生存系统业务的概念有所区分。 正常业务 VS 生存系统业务 可用性并不等于易用性,易用性更...
        
    • 可用性概念
    • 服务器可用性
    • 进程容错
    • 进程容灾
    • 系统容灾
    • 数据容灾

    可用性概念

    什么是可用性

    可用性指系统在面对异常时可以提供正常服务的能力,异常包括手写代码带入的bug、硬件故障、天灾人祸等, 正常服务要跟生存系统业务的概念有所区分。

    4933701-49e3b2ff5097ddd3.png
    正常业务 VS 生存系统业务

    可用性并不等于易用性,易用性更多指代的是用户UI、用户习惯上的设计 。可用性指的是你所用的服务在你想用的时候它是不是照样可用。

    可用性度量

    计算机系统的可靠性用平均无故障时间(MTFF)来度量,也就是说计算机平均能够正常运行多长时间,才发生一次故障。系统的可靠性越高,平均无故障时间越长。

    可维护性可以用平均维修时间(MTTR)来度量,即系统发生故障后维修和重新恢复正常运行平均花费的时间。系统的可维护性越好,平均修复时间越短。

    计算机系统的可用性定义可以定义为

    MTTF / (MTTF + MTTR) * 100%
    

    互联网服务的服务定义为

    服务总时长 / (服务总时长 + 服务总中断时长) * 100%  
    

    可用性级别

    4933701-c780a3c194c0ab1e.png
    可用性级别

    可用性的重要性

    经济损失、运营风险、信任建立

    服务器可用性

    游戏服务器需要什么样的可用性目标呢?你在玩一款新推出的网游,忽然中断了1分钟,第一直觉会认为“刚才网络把我卡掉线了”...

    • 中断1分钟:“刚才网络把我卡掉了”
    • 中断5分钟:“刚才服务器卡了,我多试几次又好了”
    • 中断30分钟:“刚才游戏里恰好是xxx活动,我错过了,要求补偿。”
    • 中断数小时:玩家愤怒,打爆客服电话,全服公告补偿,影响收入。

    影响业务可用性的因素

    4933701-cffff7b7a455c959.png
    影响业务可用性的因素

    灾难问题一般由运维人员关注,但需要软件开发人员提供解决方案。

    典型错误类型和影响范围

    4933701-3ed1f745280cbe4b.png
    典型错误类型和影响范围

    功能异常通过几轮测试还是蛮容易发现的,但服务器宕机一般都是非常边界的问题引起的,比如空指针的访问、数组的越界、内存的OOM、死循环...

    OOM指Out Of Memory,Linux系统自己在发现内存不足的时候,会挑选一些内存占用比较高的进程给杀掉。系统里跑太多耗内存的进程的时候,会产生的一个现象。

    软件开发人员为什么要关注硬件错误呢?

    硬件故障率

    4933701-48dded3848bf4afe.png
    硬件故障率

    单台机器的小概率事件随着规模的扩大变成必然事件,要把机器故障当作软件容灾设计中的常规问题。

    可用性建设

    错误监控、错误容忍、错误恢复

    4933701-ca76ce54d155e097.png
    可用性建设

    容灾容错

    容灾容错分级

    • 进程容错:关注进程内部功能运行的稳定性,主要机制包括功能屏蔽和错误隔离等。
    • 进程容灾:关注单个进程或服务整体运行的稳定性,主要机制包括重启、resume、冷热备等。
    • 系统容灾:关注多个进程不可用情况下的可用性,主要机制包括冷热备、去单点设计等。
    • 数据容灾:关注数据的安全性和可用性,主要机制包括备份、流水日志等。

    进程容错

    进程容错思路

    4933701-0c5251c9404a8ae6.png
    错误隔离

    在系统拓扑图中,绿点表示一个功能模块或一个进程, 它在不同层级其实概念上是一样的。此时,如果其中的一个进程出现了故障 (红点)。简单的解决思路就是能不能把它先给屏蔽掉先不提供服务,让别的模块提供正常的服务。

    错误隔离原理

    # server 主循环
    server_proc()
    {
      while(1)
      {
        # 处理外界发来的各种请求
        while(have_request(request))
          hanle_request(request);
        # 服务器上的定时器
        while(have_timer(timer))
          handle_timer(timer);
      }
    }
    

    服务器的两类驱动源:请求和定时器,对逻辑错误的隔离可转化为对引起的错误的请求和定时器的隔离。

    错误隔离系统设计

    • 逻辑错误:基于动态开关框架对模块添加的动态开关,可随时关闭开启相关逻辑。
    • 数据错误:由于游戏服务器大多将对象数据保存于共享内存中,可见导致一场的驱动源实例或者内存对象通过接口进行隔离。

    错误隔离框架

    4933701-b6afbf77a52dbd33.png
    错误隔离框架

    错误隔离实现示例

    # 对用户请求的隔离
    int OnPlayerRequest(int player_id, Request &request)
    {
      if(!request_allowed(request.op_type))
        return ERR_OPERATION_NOT_ALLOWED;
      else
        return request_handler(player_id, request.data);
    }
    # 对定时器的隔离
    void OnTimeout(Timer &timer)
    {
      if(!timer_allowed(timer.type))
        return;
      else
        timer_handler(timer);
    }
    # 内存池的访问接口
    void *object_get(Object_Handler *handler)
    {
      if(!object_allowed(handle))
        return NULL;
      return _obj_get_impl(hanle);
    }
    

    记录列表

    OP List:
    - OP_TYPE_TRADE (item_id)
    - OP_TYPE_AUCTION
    Timer List:
    - TIMER_TYPE_A
    - TIMER_TYPE_B
    Object List:
    - object_handler_1
    - object_handler_2
    

    进程容灾

    引起进程宕机的原因

    • 代码bug:空指针、越界...
    • 系统限制:堆栈溢出、内存溢出...
    • 人为因素:运维误操作、死循环强杀...

    是否杀掉进程后,将进程重启下就OK呢?这个就涉及到进程的有状态和无状态。

    例如:有一个叫做GET_SEQ_SRV的服务器,它的作用就是每次调用GET_SEQ_REQ请求的时候返回SEQ_NUMBER,然后这个SEQ_NUMBER不断加一。另外一个服务器叫做ADD_ONE_SVR,它的功能就是给它一个数字COUNT然后返回N+1的结果。这两类服务器的区别在哪里呢?区别在于GET_SEQ_SRV服务器上的SEQ_NUMBER是要始终保持在服务器端的。如果服务器挂掉了,这个SEQ_NUMBER就没有了。而ADD_ONE_SVR服务器,它所有计算的上下文信息都是客户端自己带来的,服务器只是起到了一个计算的作用并吐回一个结果,它是不需要保存 任何的上下文。

    4933701-7157109da846ac7f.png
    有状态和无状态的服务器
    • 有状态的服务器:是需要服务器保存请求处理的上下文信息的
    • 无状态的服务器:是请求自己携带处理所需的上下文信息

    那么,游戏服务器适合用那种模型呢?其实两类都有。

    一种朴素的状态维护方式

    4933701-92480aa422ee885d.png
    一种朴素的状态维护方式

    手游使用较多,它的数据完全是放在可靠存储里面,服务器相当于每次收到客户端请求的时候,它先去可靠存储中把数据读出来,计算完毕返回结果,然后再把数据给存回去。

    其优点是健壮性、维护和扩容更加容易。因为把可靠性完全托管给后边的存储模块,服务器自己也就没有所谓的可靠或不可靠了。

    其缺点是所有操作需要和存储进行异步交互,编码复杂访 问存储需要额外通信时间,降低了响应速度设计多个数据对象时需要加锁,影响吞吐。

    此种方式不适合应用在强交互类的游戏上,只适用于简单的手游上。交互类的游戏不适合这种把可靠性完全往后端存储下沉的方案。

    使用共享内存维护状态

    共享内存技术是利用Linux的共享内存,Linux系统中有一个叫做shmget的系统调用,它会在kernal内核中分配一块共享内存。然后通过shmat接口可以把这块内存映射到进程的内存空间里。如果有多个进程的话,它是可以同时采取这块内存,也就是说,它的物理存在只是在kernal中有一份,但它在多个进程的地址空间中会各有一份。 更多的情况下,它是拿来做进程间通信用的。

    4933701-1ea422e3157a5e87.png
    Linux共享内存技术

    如果不调用shmdt,进程退出后shm仍然保存在内核中。进程重新启动后重新shmat这块内存的技术我们称之为resume。

    4933701-dc78e3dc8be3fe23.png
    Linux共享内存技术

    共享内存数据的组织形式

    • 游戏服务器内常见的状态数据:角色信息、队伍信息、帮盟信息、活动信息...
    • 数据特点:大小固定、数量固定

    共享内存内部数据能怎么组织呢?是使用内存池还是对象池呢?内存池相当于Linux里面的一个堆的管理 ,因为事先不知道所需内存块的大小。要去管理不同大小的内存块的分配,还要去管理分配过程中产生的碎片。对象池的概念事先已经有了大小固定的对象,数量也是固定的,一开始其实就可以分配好。

    4933701-a1f0d3f0bc1b825f.png
    对象池实现示例

    Mempool就是整个共享内存块的一个映射,它里面会根据内存块的类型会分成不同的池子unitpool,每个unitpool里面会记录一些内存块的信息,包括未分配的空闲列表、unit使用数量、单个unit的size...,剩下的空闲内存块以链表的形式,以freelistnode链表的形式给串联起来。

    是不是已经万无一失呢?如果resume失败?如果进程所在硬件故障呢?如果进程还是单点呢?

    系统容灾

    单点

    单点是指系统中只存在唯一实例的节点,是获取或维护某些值(决议)的权威方,单点可分为关键路径单点和非关键路径单点。关键路径单点是说少了这个节点的话,整个业务就无法正常地运行了。非关键路径单点是 说少了这个节点无所谓,大不了这部分功能不用了。

    4933701-5fe8054d517394da.png
    哪些是单点哪些是关键路径单点呢

    单点是只存在唯一实例的节点,世界之上的都是属于单点。 世界属于关键路径节点,是必不可少的节点。

    针对单点问题的应对策略

    • 硬件策略:可用性层级分类、同级部署、冗余部署...
    • 软件策略:服务失效(隔离)、主从或冷热备...
    4933701-45770c5b2070049c.png
    硬件分类
    展开全文
  • 线上服务可用性骤降追查

    千次阅读 2018-11-21 22:55:21
    下午五点多收到某线上服务可用性骤降的报警:499比例超阈值。查看监控发现服务可用性在各个idc均有下降;服务500错误码比例飙升。 问题追查 登上(刚开始还可以远程登录)单台机器查看PHP的Fatal日志:某脚本执行...

    背景

    下午五点多收到某线上服务可用性骤降的报警:499比例超阈值。查看监控发现服务可用性在各个idc均有下降;服务500错误码比例飙升。

    问题追查

    1. 登上(刚开始还可以远程登录)单台机器查看PHP的Fatal日志:某脚本执行时间超过php-cgi最大执行时长(30s)。查看该脚本发现该脚本在特殊场景下会触发死循环,造成php-cgi进程一直在执行,直到达到设置的最大执行时长。
    2. 服务的上游有超时(1.5s)限制,超时之后会主动断开连接,最终在服务的access日志中记录499的状态码!
    3. 每个机器上开启了128个php-cgi进程,30s内如果有超过128个请求的话就会造成后续过来的请求没有相应的php-cgi进程进行处理,造成502!
    4. 查看机器的CPU,发现机器CPU负载在95%以上。
    5. 下午五点PM通过某平台进行了配置文件上线操作

    快速止损

    1. 修改脚本文件,通过某平台重新上线配置文件,然而一直上线失败,机器亦无法远程登录,应该是机器CPU负载打满,机器宕机。此路不同。
    2. 发机器重启上线单,重启成功。可以重新登录,半分钟之后,机器再次宕机。此路不同。
    3. 联系OP,缩容机器,丢弃部分流量,并由OP重启机器。重启之后再次上线配置,上线成功,之后再由OP进行扩容,恢复流量,服务最终可用。

    服务不可用时长达到1小时,造成全年服务可用性低于4个9。

    总结

    1. 完善既有服务配置文件上线机制
    2. 加强代码上线前的code review
    3. 梳理服务应急预案

    一次难忘的线上事故。

    展开全文
  • 谈到高并发和高可用往往引起很多人的兴趣,有时候成为框架选择的噱头。实际上,它们往往和框架关系不大,而是跟架构息息相关。在很多时候,老码农会直面一个问题:“系统的服务可用性是多少?是怎么得...

    谈到高并发和高可用往往引起很多人的兴趣,有时候成为框架选择的噱头。实际上,它们往往和框架关系不大,而是跟架构息息相关。在很多时候,老码农会直面一个问题:

    “系统的服务可用性是多少?是怎么得来?”

    但在思考这个问题之前,先要澄清一个概念,那就是——

    什么是服务可用性

    可用性就是一个系统处在可工作状态的时间的比例,这通常被描述为任务可行率。数学上来讲,相当于1减去不可用性。——wiki 百科

    相应的,我们的软件系统处于可工作的时间比例,就是服务的可用性,也就是说,服务可用性可以描述为一个百分比的数值。我们经常用这个SLO(service-level objective ,服务级目标)来代表服务可用性,至于SLO,SLA,SLI 等概念之间的差异,这里暂不做深入讨论。

    SLO用数字来定义可用性对于特定服务的意义,来表示服务几乎总是活着,总是处于可以快速运行的状态。制定SLO是根据如下:

    绝大多数软件服务和系统的目标应该是近乎完美的可用性,而不是完美的可用性。服务可用性一般是99.999% 或99.99% ,而不是100%,因为用户无法区分服务是100% 可用和不“完美”可用之间的区别。在用户和服务之间还有许多其他的系统,例如笔记本电脑、家庭 WiFi、互联网等等 ,这些系统的可用性远远低于100% 。因此,99.99% 和100% 之间的边际差异在其他不可用性的噪音中丢失了,并且,即使为增加最后一部分可用性付出了巨大努力,用户也可能没有从中获得任何好处。 

    很多云服务的目标是向用户提供99.99% 的可用性(就是我们常说的“四个9”)。一些服务在外部承诺较低的数字,但在内部可能设定了99.99% 的目标。作为SLA,这个严格的目标描述了用户在违反合同之前对服务性能不满意的情况,因为软件服务的首要目标是让用户满意。对于许多服务,99.99% 的内部目标代表了平衡成本、复杂性和可用性的最佳位置。 

    服务可用性解读

    服务可用性是中断频率和持续时间的函数。它是通过以下方式衡量的: * 停机频率,或者是它的倒数: MTTF (平均停机时间)。* 持续时间,使用 MTTR (平均修复时间)。持续时间根据用户的经历定义: 从故障开始持续到正常行为恢复。

    因此,可用性在数学上定义为使用适当单位的 MTTF / (MTTF + MTTR)。

    四个9的服务可用性可能是很多软件系统的目标,如何达到这一目标呢?需要先明确一下导致服务不可用的来源。服务不可用有两个主要来源: 服务本身的问题和服务的关键依赖的问题。关键依赖是指如果出现故障,就会导致服务相应故障的依赖项。

    关键依赖

    服务的可用性不能超过其所有关键依赖关系的交集。如果服务的目标是提供99.99% 的可用性,那么所有的关键依赖项必须远远超过99.99% 的可用性。据说在谷歌内部,使用这样一个经验法则: 因为任何服务都有几个关键依赖项,以及自身的特殊问题,关键依赖必须提供一个与服务相关的额外9% 的可用性(这里为99.999%) 。

    如果有一个关键依赖,一个相对常见的挑战是没有提供足够的可用性,就必须采取措施来增加依赖项的有效可用性(例如,通过缓存、限流、优雅降级等等)。

    降低期望

    从数学上看,服务的可用性不能超过其事件频率乘以其检测和恢复时间。例如,每年有4次完全宕机,每次持续15分钟,结果总共是60分钟。即使该服务在这一年中剩下的时间里都运行良好,99.99% 的可用性(每年停机时间不超过53分钟)也是没有达的。

    如果服务被依赖于无法提供相应水平的可用性级别,那么就应该努力纠正这种情况,可以通过增加自身服务的可用性等级,或者如前所述的增加缓解措施。降低期望值(即公布的可用性)也是一种选择,而且往往是正确的选择: 向相关服务明确表示,它应该重新设计系统以弥补我们服务可用性,或者降低自己的目标。如果不纠正或解决这种差异,可用性将无法达到要求。

    服务可用性的计算

    考虑一个目标可用性为99.99% 的示例服务,并处理依赖项和停机响应的需求。

    一个例子

    假设这个99.99% 的可用服务具有以下特征:

    • 每年一次大停机和三次小停机。这些数字听起来很高,但是99.99% 的可用性目标确实意味着每年有20到30分钟的大范围停机和几次短暂的部分停机。这里的假设是: 单个分片的失败并不被认为是整个系统的失败,总体可用性是根据分片可用性的加权和来计算的。

    • 有五个独立关键依赖, 服务可用性为99.999%。

    • 这五个相互独立的碎片,不能相互转移。

    • 所有变更逐个进行,每次一个分片。

    那么,本年度服务中断的总预算为每年525,600分钟的的0.01%或53分钟(以每年365天为基础)。分配给关键依赖的服务中断预算是5个525,600分钟的0.001%,即525,600分钟的0.005% 或26分钟。考虑到关键依赖的服务中断,该服务的中断时间预算为53-26=27分钟。

    进一步,预计停机次数为4次(1次完全停机,3次停机仅影响一个分片), 预期服务中断的总影响: (1 x 100%) + (3 x 20%)= 1.6。那么,可用于检测和从中断恢复的时间为27 / 1.6 = 17分钟。如果监控和告警的时间是2分钟,值班人员调查警报的时间为5分钟的话,则有效解决问题的剩余时间是 10分钟。

    提高可用性的方向

    仔细研究这些数字,有三个主要的因素可以使服务更可靠。

    • 透过流程、测试、设计review等手段,减少宕机的次数。

    • 通过分片、地理隔离、优雅降级或客户隔离,缩小停机范围。

    • 缩短恢复时间ーー透过监控、一键式回滚等。

    可以在这三个方向之间进行权衡,以便实现更加容易。例如,如果17分钟的 MTTR 很难实现,那么应该将精力集中在减少平均停用的范围上。 

    服务可用性之依赖嵌套

    一个不经意的推断,依赖链中的每个额外链接都需要增加额外的可用性等级么?例如,二级依赖需要两个额外的9,三级依赖需要三个额外的9,以此类推。

    这种推论是不正确的,它基于依赖关系层次结构,即在每个级别上具有常量扇出的树 具有许多独立关键依赖的高可用性服务系统显然是不现实的。

    无论在依赖项树中出现在哪里,关键依赖项本身都可能导致整个服务(或服务分片)失败。因此,如果给定的组件A表现为几个服务的依赖项,那么 A应该只计算一次,因为无论有多少中间的服务受到影响,A的故障终将导致服务的故障。

    正确的依赖计算可能是这样的:

    • 如果一个服务具有N个唯一的关键依赖项,那么每个依赖对服务导致的不可用性贡献1 / N,而不管它在层次结构中的深度如何。

    • 即使它在依赖项层次结构中出现多次,每个依赖也只计算一次。

    例如,假设服务b 的故障预算为0.01% 。服务拥有者愿意花一半的预算在他们自己的 bug 和损失上,另一半花在关键依赖上。如果服务有 N个这样的依赖项,每个依赖项接收剩余故障预算的1 / N。典型的服务通常有5到10个关键依赖项,因此每个服务的失败率只有服务b 的十分之一或二十分之一。因此,根据一般经验,服务的关键依赖项必须增加额外的可用性。

    服务可用性之故障预算

    一般地,使用故障预算来平衡可用性和创新速度。这个预算定义了在一段时间内(通常是一个月)服务可接受的故障水平。故障预算只是1减去服务的 SLO,因此,99.99% 可用的服务是故障为0.01% 的“预算”。只要服务没有花费当月的故障预算,开发团队就可以在合理范围内自由地发布新特性、更新等等。

    如果使用了故障预算,除了紧急安全修复和解决最初导致违规的更改之外,服务可能将冻结变更。直到服务在预算中赢得了空间,或者时间重置。使用 SLOs 滑动窗口,因此故障预算逐渐增加。对于 SLO 大于99.99% 的成熟服务,每季度重置预算是适当的,因为允许的停机时间很小。

    故障预算提供了一个共同的、数据驱动的机制来评估发布风险,从而消除了可能在运维团队和产品开发团队之间产生的结构性紧张。故障预算还提供了一个共同的目标,在不“超出预算”的情况下实现更快的创新和更多的发布。

    提高服务可用性:减少关键依赖

    现在,可以重点讨论服务的依赖关系,如何进行设计以减少并最小化关键依赖。

    关于关键依赖

    一般的,任何关键部件的可用性必须是整个系统目标的10倍。因此,在一个理想的世界中,目标是使尽可能多的组件成为非依赖的。这样做意味着组件可以坚持较低的可靠性标准,获得创新和承担风险的自由。

    减少关键依赖性的最基本和最明显的策略是尽可能消除 SPOFs (单点故障)。较大的系统应该能够在没有任何非关键依赖项或 SPOF 的给定组件的情况下可以可接受地运行。

    实际上,您可能无法摆脱所有关键的依赖关系,但是您可以遵循一些围绕系统设计的最佳实践来优化可靠性。虽然这样做并不总是可行的,但是如果你在设计和规划阶段计划可靠性,而不是在系统运行并影响实际用户之后,那么实现系统可靠性就会更容易和更有效。

    当考虑一个新的系统或服务时,当重构或改进一个现有系统或服务时,一个架构/设计评审可以识别出内部与外部的依赖。如果服务使用的是共享基础设施(例如,多个用户可见产品使用的基础数据库服务) ,要考虑该基础设施是否得到正确使用。明确地将共享基础结构的所有者确定为附加的利益相关者。另外,要注意不要让依赖关系超载,小心地与这些依赖关系的所有者协调工作。

    有时,产品或服务取决于公司无法控制的因素,例如,代码库、第三方提供的服务或数据,要识别这些因素可以减少它们带来的不可预测性。

    冗余和隔离

    通过将依赖设计为具有多个独立实例来减轻对关键依赖的依赖。例如,如果在一个实例中存储的数据提供了该数据99.9% 的可用性,那么在三个分布的实例中存储三个副本提供了9个9的理论可用性级别。

    在现实世界中,相关性永远不会为零,因此实际可用性不会接近9个9,而是远远高于3个9。如果一个系统或服务是“广泛分布的” ,地理上的分离并不总是不相关的。在邻近地点使用多个系统,可能比在较远地点使用同一个系统更好。

    类似地,向一个集群中的一个服务器池发送 RPC可以提供99.9% 的可用性,但是向三个不同的服务器池发送三个并发 RPC 并接受到达的第一个响应,这样有助于将可用性提高到远远超过三个9的级别。如果服务器池与 RPC 发送方的距离大致相等,那么这种策略还可以减少延迟。 

    故障切换与回滚

    一个的基本经验是,当必须人工在线引发故障切换时,可能已经超出了故障预算。最好进行故障的安全切换,如果出现问题,这些软件可以自动隔离。在无法实现的情况下,可以执行自动脚本。同样,如果问题依赖于某一个人来检查,那么满足SLO 的机会会很小。

    将人引入缓解计划大大增加了 SLO 的风险,需要构建方便、快速而可靠回滚的系统。随着系统逐渐成熟,并且对检测问题的监视获得了信心,就可以通过设计系统自动触发安全回滚来降低 MTTR。

    在可能的情况下,将依赖项设计为异步的,而不是同步的,这样它们就不会意外地变得非常重要。如果服务等待来自其非关键依赖项之一的 RPC 响应,并且该依赖项的延迟会大大增加,那么这种延迟将不必要地影响父服务的延迟。通过将 RPC 调用设置为非关键的异步依赖项,可以将父服务的延迟与依赖项的延迟解耦。虽然异步性可能会使代码和基础结构复杂化,但这种权衡可能是值得的。

    检查所有可能的失效模式

    检查每个组件和依赖项,并确定其故障的影响。以下问题可能是一些方向:

    • 如果其中一个依赖项失败,服务能否继续以降级模式提供服务?换句话说,为优雅的降级而设计。

    • 如何处理在不同情况下依赖项不可用的问题?在服务启动时?在运行期间?

    设计和实现一个健壮的测试环境,确保每个依赖项都有自己的测试覆盖率,并且使用专门针对环境的用例进行测试。以下是一些推荐的测试策略:

    • 使用集成测试执行故障注入ーー验证系统能否在任何依赖关系发生故障时幸存下来。

    • 进行灾难测试以识别弱点或隐藏的依赖关系。记录后续行动,以纠正发现的bug。

    • 故意让系统过载,看看它是如何退化的。无论如何,系统对负载的响应都将被测试; 最好是自己执行这些测试,而不是将负载测试留给用户。

    容量规划

    确保每个依赖项都得到了正确的供给,如果成本可以接受,就过度供给。如果可能,将依赖项的配置标准化,以限制子系统之间的不一致性,并避免一次性的故障模式。

    检测、故障排除和诊断问题要尽可能简单,有效的监测是能够及时发现问题的关键组成部分。诊断具有严重依赖关系的系统是困难的,但总是有一个不需要操作员就可以减轻故障的方案。

    期待随着规模而来的变化,当在一台机器上以二进制文件开始的服务在更大的规模上部署时,可能会有许多明显或不明显的依赖关系。每一个规模的数量级都会暴露出新的瓶颈, 不仅仅是自己服务,还有所依赖的服务。考虑一下,如果依赖项不能像所需要的那样快速扩展,将会发生什么。

    还要注意,系统依赖关系会随着时间的推移而发展,并且依赖关系的列表可能会随着时间的推移而增长。在基础设施方面,一个典型的设计是建立一个不需要重大变更就可以扩展到初始目标负载10倍的系统。

    结束语

    服务的用性并不高深莫测,它只是一个百分比的数字。服务可用性的指标(例如99.99%)往往令人不安,但并非不可实现。提供超过四个9的服务可用性,不是通过超出常人的智慧,而是通过不断地完善规则形成最佳实践,并且全面应用。

    关联阅读

    展开全文
  • ReadinessProbe探针:用于判断容器服务是否可用(Ready状态),达到Ready状态的Pod才会加入到Endpoint列表中,如果运行状态中Ready状态变为False,那么就会从Endpoint列表删除掉。 LivenessProbe和R

    探针分为两类:

    LivenessProbe探针:用于判断容器是否存活(running状态),如果探测到容器不健康,则kubelet将会杀掉该容器,然后根据重启策略进行重启。如果没有定义LivenessProbe探针,那么kubelet认为该容器永远正常。

    ReadinessProbe探针:用于判断容器服务是否可用(Ready状态),达到Ready状态的Pod才会加入到Endpoint列表中,如果运行状态中Ready状态变为False,那么就会从Endpoint列表删除掉。



    LivenessProbe和ReadinessProbe探针都可以配置以下三种方式:
    • ExecAction:在容器内执行一个命令,如果该命令的返回码为0,则表明容器健康。
    • TCPSocketAction:通过容器的IP地址和端口号执行TCP检查,如果能够建立TCP连接,则表明容器健康。
    • HTTPGetAction:通过容器的IP地址、端口号及路径调用HTTPGet方法,如果响应码大于200且小于400,则认为容器健康。


    注意:initialDelaySeconds首次探测的时间很重要,时间过长(ExecAction案例)、过短(服务还没启动完成)都会导致容器一直重启无法提供服务,所以参数的值需要结合实际情况设置。


    案例:

    ExecAction案例
    在容器中执行cat /tmp/health命令来判断一个容器运行是否正常:

    apiVersion: v1
    kind: Pod
    metadata:
      labels:
        test: liveness
      name: liveness-exec
    spec:
      containers:
      - name: liveness
        image: gcr.io/google_containers/busybox
        args:
        - /bin/sh
        - -c
        - echo ok > /tmp/health; sleep 10; rm -rf /tmp/health; sleep 600	#pod创建运行后,文件10s后删除导致首次健康检查的时候没有探测到,容器会被杀掉并重启,如此往复。
        livenessProbe:
          exec:
            command:
            - cat
            - /tmp/health
          initialDelaySeconds: 15	#启动容器后进行首次健康检查的等待时间,单位为s。
          timeoutSeconds: 1	#健康检查发送请求后等待响应的超时时间,单位为s。如果超时则kubelet会重启容器。
    


    TCPSocketAction案例
    与容器内的localhost:80建立TCP连接进行监控检查:

    apiVersion: v1
    kind: Pod
    metadata:
      name: pod-with-healthcheck
    spec:
      containers:
      - name: nginx
        image: nginx
        ports:
        - containerPort: 80
        livenessProbe:
          tcpSocket:
            port: 80
          initialDelaySeconds: 30	#启动容器后进行首次健康检查的等待时间,单位为s。
          timeoutSeconds: 1	#健康检查发送请求后等待响应的超时时间,单位为s。如果超时则kubelet会重启容器。
    


    HTTPGetAction案例
    kubelet定时发送HTTP请求到localhost:80/_status/healthz来进行容器应用的健康检查:

    apiVersion: v1
    kind: Pod
    metadata:
      name: pod-with-healthcheck
    spec:
      containers:
      - name: nginx
        image: nginx
        ports:
        - containerPort: 80
        livenessProbe:
          httpGet:
            path: /_status/healthz
            port: 80
          initialDelaySeconds: 30	#启动容器后进行首次健康检查的等待时间,单位为s。
          timeoutSeconds: 1	#健康检查发送请求后等待响应的超时时间,单位为s。如果超时则kubelet会重启容器。
    
    展开全文
  • K8S 设计本身就考虑到了各种故障的可能性,并提供了一些自愈机制以提高系统的容错性,但有些情况还是可能导致较长时间不可用,拉低服务可用性的指标。本文将结合生产实践经验,为大家提供一些最佳实践来最大化的提高...
  • 如何保证服务可用性

    千次阅读 2016-10-31 21:12:41
    从目前的实战经验来谈谈为了保证服务可用性应该考虑哪些方面(对于简单服务): 一:服务架构层面 (1)根据服务对象地区,考虑节点分布 (2)避免服务单点,至少双机 (3)防止代码之间干扰,避免稳定代码和...
  • 监控XX服务可用性 3.1 问题 本例要求学会在zabbix监控平台上添加对网站、数据库等应用服务的监控,完成下列任务: 1)准备一台运行了网站、数据库服务的被控机(比如zbx.123.cn本机,设置好zabbix-agent允许主机...
  • 文章来源于公众号:架构之路 SLA:服务等级协议(简称:SLA,全称:service level agreement)。是在一定开销下为保障服务的性能和可用性,服务提供商与用户...首先,SLA的概念,对互联网公司来说就是网站服务可用性.
  • 如何提高线上服务可用性

    千次阅读 2018-11-22 21:59:31
    上一篇文章中我简单介绍了一次线上服务可用性下降追查过程,今天我们接着上次的内容来学习如何保证服务的高可用性。 具体分为开发阶段、测试阶段、上线阶段、监控阶段等几大项。这些内容就像是一套组合拳,练好了...
  • 云服务器服务可用性(SLA)4个9到底多稳定背景阿里云3月2日晚出现大规模故障情况,华北相当多互联网公司都无法正常工作,一众 APP 和网站均出现卡顿或瘫痪。后来,阿里云对此作出回应称:华北 2 地域可用区 C 部分 ECS...
  • 然而,传统的商业数据库必须依赖高可靠的硬件才能实现数据可靠性和服务可用性。OceanBase作为一款成熟的企业级分布式数据库,基于普通PC服务器,就能够做到传统高端硬件环境下的数据可靠性和服务可用性,而且还能做...
  • 如何保证服务的高可用性 HA(High Availability)? 高可用HA(High Availability)是分布式系统架构设计中必须考虑的因素之一,它通常是指,通过设计减少系统不能提供服务的时间。方法论上,高可用是通过冗余+自动...
  • LDAP 认证服务可用性监测

    千次阅读 2015-10-25 21:35:02
    LDAP作为一种普遍使用的认证服务,可以通过模拟登录的方式来监测服务可用性。今天写了一个服务来轮询模拟LDAP登录,下面是主要的代码。 LDAP的原理是先用一个admin用户去认证,认证通过后,使用应登录的用户的...
  • zabbix监控服务可用性

    2019-11-13 10:33:19
    https://www.cnblogs.com/The-day-of-the-wind/p/11077494.html
  • 最近看到有很多人都在咨询千寻cors账号差分播放服务的相关问题,那么今天cors账号网给大家收集整理了一个关于差分播发服务可用性连接测试的教程。注:实际的使用效果受到多种因素影响,如终端设备的天线和解算算法,...
  • 上一篇文章我们围绕如何合理利用资源的主题做了一些最佳实践的分享,这一次我们就如何提高服务可用性的主题来展开探讨。 怎样提高我们部署服务的可用性呢?K8S 设计本身就考虑到了各种故障的可能性,并提供了一些自...
  • Windows下检测NTP服务器可用性

    万次阅读 2015-03-05 15:04:23
    在windows的cmd命令行界面使用下面的命令可以检测NTP服务器是否可用: w32tm /stripchart /computer:ntp_server_address 示例1: //NTP服务器不可用 C:\Documents and Settings\xws>w32tm /stripchart /computer:...
  • 是在一定开销下为保障服务的性能和可用性服务提供商与用户间定义的一种双方认可的协定。通常这个开销是驱动提供服务质量的主要因素。 全年拿365天做计算,看看几个9要停机多久时间做能才能达到! 1年 = 365天...
  • #!/bin/bash i=1 while (( i <= 200 ))  do  nc -w 1 -z www.baidu.com 443  if [ $? -ne 0 ]  then  echo timeout  fi  let i++  done >> 1.txt ...
  • 多视角看云平台中的服务可用性

    千次阅读 2016-05-12 16:46:21
    ,在选择公有云平台来支撑自己的业务应用时,最常用的比较方式就是对比云厂商提供的服务等级协议SLA, 通常SLA中会对各种类型的服务可用性进行承诺,如“XX服务的可用性至少达到99.9%“。承诺中的99.9%就是我们常说...
  • 在这两种模式下,它们运行相同的应用、具备同样的数据,能够提供跨中心业务负载均衡运行,具备持续的应用可用性和灾难备份能力。 02 异地灾备建设历程 v1.0 个推的灾备建设始于2015年。其最初原因是业务壮大后导致...
  • 设计初衷当然是用php curl bind不一个sokcet5去访问一个随机页面(公网)这个页面的功能就是通过一个md5来验证sokcet5服务器是否真的可用 A服务器通过 socket5发出http://xxxx/a.php?t=randkey B服务器,echo md5...
  • 提交信息跳转到的公测页面,最左侧的文案是多重安全防护、99.99%服务可用性和7X24什么?

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 29,568
精华内容 11,827
关键字:

服务可用性