精华内容
下载资源
问答
  • 首先讨论了软交换中QOS管理机制的要求及软交换中QoS管理的内容,然后着重研究了3种IP QOS模型:综合业务(InterServ)/ RSVP,差分业务(DiffServ)模型和多协议标记交换(MPLS),并对这3种QOS模型的优缺点进行了讨论.
  • 提出了IP-DiffServ 定量QoS 实现机制, 它通过在网络层实施业务量工程实现了业务类选择路由的优化, 通过在业务层实施业务计划实现了用户业务选择业务类的优化。它不但可以在DiffServ 机制下给用户业务应用提供定量QoS...
  • 探讨了UMTS的业务质量(QoS)要求,描述了UMTS承载业务所使用的QoS参数及其管理功能,提出了UMTS的QoS方面需要进一步研究的问题。
  • 流媒体服务是Internet上...本文提出了一种基于网格的流媒体服务QoS管理框架,为由异构的系统构成的流媒体服务提供集成的、平台无关的QoS管理机制。在谈框架的基础上,我们设计了一个基于网格的流媒体服务QoS管理系统。
  • QOS实现机制

    2008-08-07 12:38:40
    流分类、流量监管(Policing)、流量×××(Shaping)、队列管理、队列调度(Scheduling)等,完整实现了标准中定义的EF、AF1-AF4、BE等六组PHB及业务。 内部处理流程如下图所示: l 流分类 总的来说,允许根据...
    流分类、流量监管(Policing)、流量×××(Shaping)、队列管理、队列调度(Scheduling)等,完整实现了标准中定义的EFAF1-AF4BE等六组PHB及业务。

    内部处理流程如下图所示:

    l         流分类

    总的来说,允许根据报文头中的最多192比特的控制域信息进行流分类,具体可以包括下面描述的报文234层的控制信息域。

    首先输入端口号可以作为重要的分类依据,它可以单独使用,也可以结合报文的其他信息对流分类。

    二层的重要控制域就是源MAC地址。允许通过配置将报文的源MAC汇聚为MAC地址组,最大允许64MAC地址组,源MAC地址组可以单独或同其他域组合对用户流进行分类。此外VLAN ID也是参与流分类的重要属性,只不过是以子接口的形式隐式参与。

    三层可以参与分类的控制域包括:源和目的IP地址、TOS/DSCP字节、Protocol(协议ID)、分段标志、ICMP报文类型。

    四层的源和目的端口号、TCP SYN标志也是允许参与流分类的重要信息域。

    l         流量监管

    流量监管也就是我们通常所说的CAR,是流分类之后的动作之一。 通过CAR,运营商可以限制从网络边沿进入的各类业务的最大流量,控制网络整体资源的使用,从而保证网络整体的QoS。运营商合用之间都签有服务水平协议(SLA ,其中包含每种业务流的承诺速率、峰值速率、承诺突发流量、峰值突发流量等流量参数,对超出SLA约定的流量报文可指定给予pass(通过)、drop(直接丢弃)或markdown(降级)等处理,此处降级是指提高丢弃的可能性(标记为丢弃优先级降低),降级报文在网络拥塞时将被优先丢弃,从而保证在SLA约定范围之内的报文享受到SLA预定的服务。

    RFC定义了四种标准流量监管算法(Color aware single rate three color Color aware two  rate three colorColor blind single rate three color Color blind two  rate three color)。

    l         DSCP标记/重标记

    标记/重标记是是流分类之后的动作之一。所谓标记就是根据SLA以及流分类的结果对业务流打上类别标记。目前RFC定义了六类标准业务即:EFAF1-AF4BE,并且通过定义各类业务的PHB Per-hop Behavior)明确了这六类业务的服务实现要求,即设备处理各类业务的具体实现要求。从业务的外在表现看,基本上可认为EF流要求低时延、低抖动、低丢包率,对应于实际应用中的Video、语音、会议电视等实时业务;AF流要求较低的延迟、 低丢包率、 高可靠性,对应于数据可靠性要求高的业务如电子商务、企业×××等;对BE流则不保证最低信息速率和时延,对应于传统Internet业务。

    在某些情况下需要重标记DSCP。例如在Ingress点业务流量进入以前已经有了DSCP标记(如上游域是DSCP域的情形,或者用户自己进行了DSCP的标记),但是根据SLA,又需要对DSCP进行重新标记。

    完全支持RFC定义的标准的DSCP DS CODE,还支持现在有些网上可能使用的COSCOS是以TOS的前三比特作为业务区分点,总共可分8个业务等级,对每一种业务等级均有特定的定义。

    l         队列管理

    队列管理的主要目的就是通过合理控制Buffer的使用,对可能出现的拥塞进行控制。其常用的方法是采用RED/WRED算法,在Buffer的使用率超过一定门限后对部分级别较低的报文进行早期丢弃,以避免在拥塞时直接进行末尾丢弃引起著名的TCP全局同步问题,同时保护级别较高的业务不受拥塞的影响。

    WRED算法可支持多达8个优先级4种丢弃级别的业务流类别,对每种优先级的WRED曲线均可单独配置。在算法精度上,不仅能及时感知网络的拥塞状况,同时可避免网络的振荡,由此对各种业务流以及同一业务流内部不同的丢弃级别报文进行不同统计概率的丢弃,可及时有效的避免和控制网络拥塞。

    WRED算法由于仅仅根据当前队列长度计算报文的丢弃率,会导致不适当的丢弃从而引起网络流量的剧烈波动。由于WRED算法的这一局限,在突发度较高的网络中,仅仅使用WRED算法进行的流量控制的效果会不太理想,为此核心主干路由器同时实现了先进的SARED算法来弥补这一缺陷。SARED算法基于稳定性理论,在考虑平均队列长度的基础之上,将流的包到达速率作为一个控制因素进行流控,可以在网络严重过载时,有效吸收传统的WRED带来的网络振荡,使得业务吞吐量更加平滑理想。

    l         队列调度和流量×××

    对于时延要求严格的实时业务等,可以利用内部特有的低时延调度算法满足业务要求;对于带宽要求的业务,带宽保证算法可以实现严格的带宽保证。应用时用户不必关心内部抽象的调度算法,只需要描述业务的流量特征,比如保证多少兆的带宽、峰值最多多少兆的带宽、要占剩余带宽的比例权重等。需要根据配置的流量参数选用不同的调度算法来严格保证要求的服务质量。

    队列调度的构架是一个两级调度模式,第一级是PQPreference Queueing)模型,严格按优先级进行调度,实时业务作为高优先级可以在处理时通过绝对优先调度而时延极低;第二级采用基于时间片的调度模型,带宽保证的要求能够严格地满足。

    队列管理包括FIFOPQCQWFQCBWFQLLQ等队列技术。

    针对江苏省公安二级主干网络的具体需求,如实时业务需要严格保证,建议在所有广域网链路采用CBWFQ/LLQ的队列调度算法。

    LLQ介绍:LLQ技术实际上是在CBWFQ的基础上增加了PQ队列,可以对关键业务实现严格的优先队列,而其它业务通过CBWFQ调度。


     

    如图所示,LLQ首先根据报文进入网络设备的接口、报文的协议,报文是否匹配访问控制列表(Access Control ListACL)来对报文进行分类。然后让不同类别的报文进入不同的队列。对于不匹配任何类别的报文,报文被送入默认队列,按WFQ进行处理,即按照流的方式进行处理。

    图中所示0号队列是优先队列(一个或多个类的报文可以被设定进入优先队列),不同类别的报文可设定占用不同的带宽。 在调度出队的时候,若优先队列中有报文,则调度器总是优先发送优先队列中的报文,直到优先队列中没有报文时,才调度发送其他队列中的报文。 每个队列被分配了一定的带宽,调度器会按照每个队列分配到的带宽进行报文出队发送。

    进入优先队列的报文在接口没有发生拥塞的时候(此时所有队列中都没有报文),所有属于优先队列的报文都可以被发送。在接口发生拥塞的时候(队列中有报文时),进入优先队列的报文被限速,超出规定流量的报文将被丢弃。这样,在接口不发生拥塞的情况下,可以使属于优先队列的报文能获得空闲的带宽,在接口拥塞的情况下,又可以保证属于优先队列的报文不会占用超出规定的带宽,保护了其他报文的应得带宽。另外,由于只要优先队列中有报文,调度器就会发送优先队列中的报文,所以优先队列中的报文被发送的延迟最多是接口发送一个最大长度报文的时间,无论是延迟还是延迟抖动,优先队列都可以将之降低为最低限度。这为对延迟敏感的应用如VoIP业务提供了良好的服务质量保证。

    图中1N1的队列为各类报文的队列。每类报文占一个队列。在调度器调度报文出队的时候,按用户为各类报文设定的带宽将报文出队发送。属于1N1号队列的报文可以被确保得到用户设定的带宽。当接口中某些类别的报文没有时,属于1N1号队列的报文还可以公平地得到空闲的带宽,和时分复用系统相比,大大提高了线路的利用率。同时,在接口拥塞的时候,仍然能保证各类报文得到用户设定的最小带宽。

    当报文不匹配用户设定的所有类别时,报文被送入默认队列。默认队列在逻辑上可看作是一个队列,但实际上是个WFQ队列,所有进入默认队列的报文再按流进行分类。

    LLQ/CBWFQ最多允许将报文分为64类(其中包括默认类)。所以N1的最大值为63。默认队列的个数N2可以由用户设定。

    对于默认队列和1N1的队列,用户可以设定队列的最大长度。当队列的长度达到队列的最大长度时,默认采用尾丢弃的策略。但用户还可以选择用加权随机早期检测(Weighted Random Early Detection, WRED)的丢弃策略。加权随机早期检测的丢弃策略请参见后面加权随机早期检测WRED的描述。

    对于优先队列,由于在接口拥塞的时候流量限制开始起作用,所以用户不必设置队列的长度(也就没有了尾丢弃)。

    转载于:https://blog.51cto.com/31216/91530

    展开全文
  • QOS-基本拥塞管理机制(PQ CQ WFQ RTPQ) 2018年7月7日 20:29 拥塞:是指当前供给资源相对于正常转发处理需要资源的不足,从而导致服务质量下降的一种现象 拥塞管理概述: 需要发送的数据流量大于...

    QOS-基本拥塞管理机制(PQ CQ WFQ RTPQ)

    2018年7月7日    20:29

     

    拥塞:是指当前供给资源相对于正常转发处理需要资源的不足,从而导致服务质量下降的一种现象

     

    拥塞管理概述:

     

      • 需要发送的数据流量大于设备发送接口的发送能力时,会产生拥塞。
      • 拥塞管理是指在网络发生拥塞时,进行管理和控制,合理分配资源。通常采用队列技术实现
      • 报文按一定的策略缓存到队列中,然后按一定的调度策略把报文从队列中取出,在接口上发送出去

              

    路由器拥塞管理:

     

     

      • 接口不拥塞,报文直接入发送队列
      • 接口拥塞,报文按规则入软件队列
      • 路由器软件队列包括:系统队列和 用户队列
      • 系统队列包括:紧急队列(PPP协议等)和协议队列(OSPF  hello报文等),不会修改
      • 系统队列优先于用户队列调度

     

    交换机拥塞管理:

     

      • 报文在入端口,根据映射表入本地队列
      • 报文在出端口,进行队列调度后发送
      • 常用的队列:SPQ、WRR

     

     

    FIFO队列 原理:(IP网络中默认的队列)

     

     

      • 所有报文按转发到达出接口的先后顺序入队
      • 队列满后,进行尾丢弃
      • 按进入 队列的先后顺序出队列,先入先出

     

     

    FIFO队列配置命令:

     

     

    增加FIFO队列的长度可以减少丢包,但同时也可以增加延迟

     

    PQ队列原理:(优先队列)是针对关键业务设计的,Top(高优先队列)、Middle(中优先队列)、Normal(正常优先队列)和boottom(低优先队列)

      • 按类别入队,队列满后尾丢弃
      • 优先级高的队列先调度
      • 加入top队列一直是满的,会导致优先级低的队列,一直得不到调度(Normal为默认队列)

     

     

     

    PQ队列调度:

     

     

      • 高优先级业务的带宽和时延得到最大限度的保证
      • 如果高优先级业务持续占据带宽,会导致低优先级业务一直得不到调度

     

    PQ队列配置任务:

      • 配置PQL(优先队列列表)
        • 配置默认情况下,流量进入的队列
        • 配置PQ队列的分类规则(acl)
        • 配置PQL各队列的长度
        • 默认队列配置
      • 将PQL应用到接口

     

    配置无对应规则的报文所入的缺省队列:(默认队列为PQ的4个队列之一,是普通队列)

     

     

     

    配置PQ队列长度:

     

    配置基于接口的分类规则:

     

    配置基于协议的分类规则:

     

    同一个PQL内可以配置多个分类规则,各规则可以使用不同的分类方式。报文入队的时候,按规则的配置顺序进行匹配,如果发现报文与某个规则匹配,则入该规则对应的队列。

     

     

    在接口上应用PQL:

     

     

    dis qos pql 5                //显示PQL配置信息

     

    dis  qos pq int e9/0                   //显示PQ统计信息

     

     

    CQ队列原理:(定制队列)提供了16个 队列

    CQ允许根据 报文的特征建立匹配规则,将报文分为16类,没类报文对应CQ中的一个队列。接口拥塞时,报文按匹配规则被送入对应队列;如果报文不匹配任何规则,则被送入默认队列。默认队列默认为CQ的队列1,可以修改。

      • 按类别入队,队列满后尾丢弃
      • 各队列轮询调度
      • 其实有17个队列,0是给系统队列使用的,用户不能修改。
      • 默认每个队列传1500个队列(阈值)

     

     

    CQ队列调度:

     

     

    由于CQ不能对数据包进行分片,之前有个数据包1499Byte,不到1500,当有个1500个字节的数据包过来,它还会传这1500Byte,所以有可能一次最多转发1500+1499个字节,所以每个队列传数据包可能为1500---2999Byte。大于1500Byte才会发。

     

    CQ队列配置任务:

      • 配置CQL(定制队列 列表)。系统预定义了16个CQL,用户可以选择其中的一个来配置自己需要的定制队列。
        • CQ中各队列的匹配规则
        • CQ中各队列的长度与发送额度
        • 默认队列
      • CQ队列应用到接口。应用配置好的CQL,在接口应用CQ队列。

     

     

      • 配置无对应分类报文所入的缺省队列

     

      • 配置CQ队列长度:

     

      • 配置CQ队列份额(修改队列缓存的大小)连续发送字节数(默认1500)

     

      • 配置基于接口的分类

     

      • 配置基于协议的分类规则

     

      • 接口上应用CQL

     

     dis  qos cql  1                            //显示CQL配置信息

    dis   qos  cq  int   e9/0            //显示CQ统计信息

     

     

     

    WFQ队列原理:(加权公平队列)对报文按流特征进行分类。

    在IP报文中,根据源IP地址、目的IP地址、源端口号,目的端口号、协议号、优先级等特征,采用Hash算法,尽量将不同特征的流分入不同的队列类别中,这个过程称为散列。

      • 流量五元组散列入队,加权公平出队,丢弃策略为尾丢弃或WRED丢弃
      • 出队时,WFQ按队列优先级的比例来分配各个队列应占有的出口带宽

     

    WFQ入队机制:

      • 先按五元组哈希成组,组内优先级(IP或DSCP)相同的报文被分配到相同的队列
      • 受资源限制,五元组不同的报文可以哈希到相同的组

     

    WFQ队列调度:

     

     

      • WFQ队列调度时,系统队列优先调度;当系统队列空时,才调度WFQ队列
      • WFA队列间的调度方式也是轮询调度,同一个队列内部出队方式时FIFO队列

     

    WFQ队列特点:

      • 优点:
        • 配置简单,各个流都可以获得公平的服务
        • 有利于小包转发,降低交互式操作的响应时间
        • 可以与WRED丢弃策略组合应用
      • 缺陷
        • 不能对流的分类进行手工干预
        • 不适合时延敏感的应用

     

    WFQ配置:

    WFQ队列长度的配置范围为1~1024,默认为64,最大队列数为16~4096,默认为256.

     

      • 配置WFQ的权重类型、队列长度、队列总数

     

     

    权重类型:对于使用IP precedence的IP报文,当配置WFQ队列数为16时,WFQ对报文根据五元组特征Hash时最大能分成2个组,每个组里包含8个队列。如果使用DSCP优先级作为权重,则WFQ队列数最小要配置成64,此时所有报文都属于一个组。

     

    dis  qos  wfq  int  e0/0            //wfq队列显示

     

    RTPQ队列原理:即RTP(实时传输协议)优先对列,是一种保证实时业务(包括语音与视频业务)服务质量的队列急速。(应用层)UDP

      • 原理:将承载语音或视频的RTP报文送入高优先级队列,使其得到优先发送,保证延迟和抖动降为最低限度
      • 匹配的实时业务入RTPQ队列,其他业务入其他数据队列处理
      • 实时业务入队前按配置的带宽进行限速处理
      • RTPQ队列满后进行丢弃
      • RTPQ将RTP报文定义为端口在一定范围内并且为偶数的UDP报文,并以此归类依据。
      • RTP队列可以通FIFO、PQ、CQ和WFQ结合使用,而它的优先级最高

     

     

      • 为了防止RTPQ队列报文占据全部带宽,导致其他队列“饿死”,RTPQ在报文入队前先进行流量监管处理,超过RTPQ预留带宽的流量直接丢弃,在预留带宽以内的流量才能入队。

     

    RTPQ队列调度:

     

     

    RTPQ队列的优先级仅次于紧急队列,等同于协议队列,高于其他的数据队列。队列调度时,先检查紧急队列是否为空,如果不空,调度紧急队列报文发送,否则轮询调度RTPQ和协议队列。RTPQ队列内部采用FIFO的出队方式。RTPQ队列每一个报文出队转发后,将调度全交给紧急队列,如果紧急队列不空,发送紧急队列报文,否则发送协议队列的调度。协议队列调度完成后,开始下一轮的调度。如果RTPQ和协议队列都为空,开始调度其他数据队列,其他数据队列为空,或者一次调度完成后,开始下一轮的队列调度。

     

    RTPQ的配置与显示:

      • 配置RTPQ队列:

     

      • RTPQ队列显示:

     

    可以与CQ、PQ、WFQ共用,但是不能与CBQ共用,因为CBQ里面有EF队列

     

     

    转载于:https://www.cnblogs.com/good-study/p/9929737.html

    展开全文
  • 针对无线多媒体传感器网络(WMSNs)的QoS管理问题,提出了一种基于被动模式测量的QoS路由机制。首先通 过分布式的测量感知端到端QoS指标,其次通过断层分析获得逐跳链路的QoS状态;然后将上述测量结果反馈到网络层的QoS...
  • 基于注册机制QoS属性管理模型,邹祥云,宋全旺,Web 服务是目前研究界广泛关注的一种技术。随着Web 服务的广泛部署应用,用户在其功能需求得到满足的同时,对非功能性需求逐渐增加�
  • 高医疗QoS WHMN中的功率感知拓扑管理和拥塞控制机制
  • QOS队列调度机制简介

    千次阅读 2017-07-26 14:04:17
    1 简介队列调度机制QoS技术体系中属于拥塞管理的范畴。虽然企业和运营商想尽一切办法去扩展自己的链路带宽,但是现实网络上各种应用对带宽的消耗速度远远超出企业和运营商带宽扩充能力,也就是说网络的拥塞是无法...

    1 简介

    队列调度机制在QoS技术体系中属于拥塞管理的范畴。虽然企业和运营商想尽一切办法

    去扩展自己的链路带宽,但是现实网络上各种应用对带宽的消耗速度远远超出企业和运营商带宽扩充能力,也就是说网络的拥塞是无法避免的,这也决定了拥塞管理这一技术的重要性。拥塞管理是指网络发生拥塞时,如何进行管理和控制,处理的方法是使用合适的队列技术来确保关键业务的优先保障。在出接口发生拥塞时,通过适当的队列调度机制,可以优先保证某种类型的报文的QoS参数,例如带宽、时延、抖动等。我们这里所说的队列是指出队列,其实就是指向指定缓存的一系列指针,其作用是在接口有能力发送报文之前先将报文在缓存中保留下来,直到接口可以继续发送报文,所以队列调度机制都是在出端口发生拥塞情况下产生作用,另外一个主要作用就是将报文重新排序(FIFO除外)。

    队列是一个比较容易理解的概念,我们在日常生活中也用到类似技术。例如我们去电影院买票的时候,大家排成几队顺序买票,排在前面的先拿到票(FIFO);有时突然冲出一个人跑到队伍的最前面拿出VIP证件马上就拿到了票(PQ),这类人属于特权阶级需要优先处理,后面的人只能等这类人买完票才能继续排队买票。

    FIFO

    FIFO是队列机制中最简单的,每个接口上只有一个FIFO队列,表面上看FIFO队列并没有提供什么QoS保证,甚至很多人认为FIFO严格意义上不算做一种队列技术,实则不然,FIFO是其它队列的基础,FIFO也会影响到衡量QoS的关键指标:报文的丢弃、延时、抖动。既然只有一个队列,自然不需要考虑如何对报文进行复杂的流量分类,也不用考虑下一个报文怎么拿、拿多少的问题,即FIFO无需流分类、调度机制,而且因为按顺序取报文,FIFO无需对报文重新排序。简化了这些实现其实也就提高了对报文时延的保证。

    FIFO关心的就是队列长度问题,队列长度会影响到时延、抖动、丢包率。因为队列长度是有限的,有可能被填满,这就涉及到该机制的丢弃原则,FIFO使用Tail Drop机制。如果定义了较长的队列长度,那么队列不容易填满,被丢弃的报文也就少了,但是队列长度太长了会出现时延的问题,一般情况下时延的增加会导致抖动也增加;如果定义了较短的队列,时延的问题可以得到解决,但是发生Tail Drop的报文就变多了。类似的问题其它排队方法也存在。

    Tail Drop机制简单的说就是如果该队列如果已经满了,那么后续进入的报文被丢弃,而没有什么机制来保证后续的报文可以挤掉已经在队列内的报文。

    20110422_1184937_p_w_picpath001_713019_97665_0

    图1 FIFO流程图

    3 Priority Queuing

    阶级社会将不同的人划入到不同的阶层,不同的阶层享受的关照度不同,如果把FIFO比作原始社会的话,那么PQ就进入了封建社会了。

    在报文到达接口后,首先对报文进行分类,然后按照报文所属类别让报文进入所属队列尾部,在报文发送时,按照优先级,总是在所有优先级较高队列中报文发送完毕后,再发送低优先级队列中报文,这样,在每次发送报文时,总是将优先级高的报文先发出去,保证了属于较高优先级队列报文有较低时延,所以PQ的优缺点是很明显的:优点是可以保证高优先级队列的报文可以得到较大带宽、较低的时延、较小的抖动;缺点是低优先级队列的报文不能得到及时的调度,甚至得不到调度,即会出现“饿死”现象。

    PQ具有如下特征:

    (1) 报文丢弃策略采用Tail Drop机制;

    (2) 每个队列内部使用FIFO逻辑;

    (3) 当从队列调度报文时,先从高优先级的队列调度报文

    从上面可以看出,PQ一般的应用场合是保证某类流量尽可能得到最好的服务,而不管其它流量的“死活”。

    20110422_1184938_p_w_picpath002_713019_97665_0

    图2 PQ流程图

    4 Custom Queuing

    CQ可以说是对PQ的一种改进,解决了PQ“饿死”的重大缺点,能够确保使所有的队列都得到服务。CQ可以把报文分类,然后按照类别将报文分配到CQ的一个队列中去,而对于每个队列,也可以规定队列中报文所占接口的带宽比例,这样,可以让不同业务的报文获得合理的带宽,从而既保证关键业务能获得较多的带宽,又不至于使非关键业务得不到带宽。

    CQ有0-16个队列,其中0队列是优先级队列,只有0队列的报文处理完才会去处理1-16队列,所以0队列一般用做系统队列。

    CQ采用Round Robin调度方式,从队列1开始,从每个队列取出指定数目的报文,直到

    报文数目满足或者超出设置的范围,当从该队列取出了足够的报文或者队列中没有报文的话,开始对下一个队列进行类似的操作。CQ不会配置确切的链路带宽比例,而是配置字节数目,可以根据配置的每个队列应取得的字节数目计算出每个队列占用的链路带宽,公式为:该队列应取得的字节数目/所有队列应取得的字节数目=该队列占用的链路带宽。如果一段时间内某个队列为空,剩余的队列按照比例分配该空队列所占用的带宽。举个例子来说:现在配置了5个队列,每次取的字节数分别为5000、5000、10000、10000、20000,如果5个队列都有充足的报文需要发送,那么每个队列分配的带宽比例为10%、10%、20%、20%、40%;假设队列4有一段时间内没有报文发送,即队列为空,那么剩余的4个队列把这20%的带宽按照1:1:2:4的比例进行分配,所以在这段时间内这四个队列实际分配的带宽为12.5%、12.5%、25%、50%。

    CQ不能将报文进行分片,例如要从队列1拿出1500字节的报文,可能会出现如下情况:

    前面拿了1499bytes,还需要拿1byte,但是紧接着的一个报文大小是1500bytes,那么实际上从该队列拿出了1499+1500=2999bytes了,所以从局部来看的话,调度的比例和预期设置的结果有出入。

    CQ有如下特点:

    (1) Tail Drop是唯一的丢弃机制;

    (2) 最大16个队列(因为0队列用做系统队列,这里不计算在内);

    (3) 队列内部使用FIFO逻辑;

    (4) 在对各队列进行调度时,使用Round-Robin对各队列按字节数调度。


    CQ可以应用在对抖动要求不严格同时能够根据需要对不同分类的流量保留指定链路带宽的情况。CQ没有像PQ一样对某类流量提供低时延的服务,但是它可以保证在发生拥塞时1-16队列能够分配到指定额度的带宽。

    20110422_1184939_p_w_picpath003_713019_97665_0

    图3 CQ流程图

    20110422_1184940_p_w_picpath004_713019_97665_0

    图4 CQ的RR调度流程图

    5 Weight Fair Queuing

    WFQ是根据流对报文进行动态分类,对于IP网络,五元组(源IP地址、目的IP地址、源端口号、目的端口号、协议号)和IP优先级或者DSCP相同的报文属于同一个流。在接入层的网络中,通常使用IP优先级和五元组配合进行流分类;在汇聚层网络中通常使用DSCP值和五元组配合进行流分类,具有相同特性的报文属于同一个流,使用Hash算法映射到不同的队列中;另外的一个区别就是如果使用WFQ,那么low-volume(字节数小的报文)、higher-precedence(优先级高的报文)的流会比large-volume、lower-precedence的流更先处理。因为WFQ是基于流的,每个流使用不同的队列,这就要求WFQ能够支持很大数目的队列――WFQ最大可以在每个接口支持到4096个队列。

    WFQ与CQ主要区别如下:

    (1) CQ可以自定义ACL规则来对报文进行分类,而WFQ只能根据元组对报文进行动态分类

    (2) WFQ和CQ的队列调度方式不一样,CQ的调度方式是RR,而WFQ的调度机制是WFQ调度机制

    (3) WFQ和CQ的报文丢弃机制不一样:CQ使用Tail Drop机制,WFQ使用WFQ丢弃机制,该机制是对Tail Drop的一种改进


    要想理解WFQ,必须了解这个机制出现的目的是什么,即使用WFQ是为了达到什么目

    的?WFQ调度主要是为了两个主要的目的,一个是在各个流之间提供公平的调度即WFQ名字中的F(fairness)的含义,另外一个就是保证高IP precedence的流能够得到更多带宽即WFQ名字中的W(weighted)的含义。

    为了提供各个流之间的公平调度,WFQ给每个流分配的带宽是相同的。例如一个接口

    有10条流,该接口带宽为128Kbps,那么每个流得到的带宽为128/10=12.8Kbps。从某种意义上讲,有些类似于时分复用机制(TDM)。WFQ允许其它流使用某条流的剩余带宽,例如接口带宽为128kbps,共10条流,则每条流分配的带宽为12.8kbps,可能实际上某条流例如流1只有5kbps,而流2有20kbps,那么其它的流就可以分配流1所剩余下的12.8-5=7.8kbps的带宽。

    WFQ的加权是根据流中的IP precedence进行的,保证高IP precedence的流分配到更

    多的带宽。算法为(IP precedence+1)/Sum(IP precedence+1),例如有四个流,其IP precedence分别为1、2、3、4,那么每个流占用的带宽分别为2/14、3/14、4/14、5/14。

    20110422_1184941_p_w_picpath005_713019_97665_0

    图5 WFQ流程图

    要想理解WFQ的报文丢弃机制和队列调度机制,需要理解WFQ中的一个重要概念:序列号SN(不同的文档可能采用不同的参数,不管使用什么参数都应该达到小字节、高IP优先级的流被优先调度),报文在经过流分类后,在决定该报文是入队列还是丢弃之前,都要赋予一个SN。SN的计算公式为SN=Previous_SN+weight*new_packet_length,WFQ进行报文调度时都是先调度SN小的报文,为了保证IP Precedence大的能够获得更多的带宽,从SN的计算公式就可以看出Weight应与Precedence成反比。

    其中Previous_SN分为两种情况:

    (1) 如果报文进入的队列为非空,使用该队列中最近进入队列报文的SN作为Previous_SN;

    (2) 如果报文进入的队列为空,使用发送队列最近发送的报文的SN作为Previous_SN。

    20110422_1184942_p_w_picpath006_713019_97665_0

    图6 Previous_SN的选择

    WFQ在进行报文丢弃和入队列时也是根据SN的大小来进行的:

    20110422_1184943_p_w_picpath007_713019_97665_0

    图7 报文丢弃原理

    HQL(Hold-queue-Limit):限制了所有队列中能够存放的报文总数目;

    CDT(Congestive Discard threshold):限制了每个队列中能够存放的报文数目。


    20110422_1184944_p_w_picpath008_713019_97665_0

    图8 SN的选择

    上图中:有四条流,每条流的precedence相同都为0,只是报文的大小不同,Flow1到Flow4的报文长度从大到小,按照SN的计算公式,报文长度小的SN小,所以Flow4中的报文应该被优先调度出去,当然最终的决定因素还是SN的大小,对于SN相同的报文实行顺序调度,如本例所示:Packet5和Packet10的SN相同、Packet1和Packet11的SN相同,按照顺序调度规则,应该是Packet5在Packet10前,Packet1在Packet11前。最终的调度的结果是:13,14,15,16,9,5,10,1,11,6,12,2,7,8,3,4。

    WFQ使用WFQ丢弃机制,该机制是对tail drop的一种改进,其中的一个决定因素也是SN,另外WFQ还使用HQL和CDT来决定如何对报文进行丢弃。如果一个新的报文达到时HQL已经到达最大值,该报文直接被丢弃;如果此时HQL没有到达最大值,WFQ将该报文根据WFQ的分类原则进行分类决定进入到哪个队列并计算出SN,剩下的丢弃机制还会由CDT决定,CDT是每个队列自己的丢弃阀值,如果此时CDT没有到达最大值报文直接进入该队列,如果CDT已经达到阀值,则判断其它队列是否有SN比新进入的报文SN大,如果没有直接丢弃新进入的报文,如果其他队列有SN大于当前入队列的报文,WFQ会选择丢弃SN大最大的报文。简单的说就是当某个队列的报文数目已经超过该队列CDT,WFQ可以选择丢弃其它队列中SN最大的报文!其流程图可以参见上面的图8。

    将WFQ的特点可以总结为如下特点:

    (1) 基于元组对报文进行流分类,不支持用户自定义的分类

    (2) WFQ丢弃机制,是对Tail Drop的改进

    (3) 队列内部使用FIFO

    (4) WFQ调度:优先服务低SN的报文

    6 Class-Based WFQ

    CBWFQ从名字来看像是CQ和WFQ的混合体。和CQ类似的,CBWFQ可以为每个队列保留最小带宽,使用和CQ类似的报文分类,但是与CQ不同的是,用户可以配置CBWFQ实际占有的流量百分比,而不是字节数;和WFQ相比,CBWFQ可以在一个特定的队列里面使用WFQ机制:CBWFQ有一个特殊的队列,即缺省队列,只有该特殊队列可以采用WFQ机制。

    CBWFQ支持两种丢弃机制:Tail Drop和WRED。可以配置任何一个队列的丢弃机制为WRED,但是并不是所有的队列配置WRED丢弃机制都是有益的,WRED可以用在对丢包不是很敏感的数据队列;如果该队列是存放语音、视频报文,这类业务报文对丢包比较敏感就不适合采用WRED了。

    CBWFQ有0-64队列,0队列是缺省队列,该队列是自动配置、不可人工干预。可以使用流分类将不同类型的报文映射到1-64队列,可以设置每个队列所占用的带宽比例;如果进入的报文不能匹配任何流分类,进入缺省队列,缺省队列可以使用FIFO或者WFQ机制,而1-64只能使用FIFO机制。为什么只有缺省队列0可以采用WFQ机制?这样有什么好处呢?前面已经提到CBWFQ可以根据分类将报文放入到指定队列,通过配置该队列的带宽比例获取相应的服务,如果在一段时间某个队列不需要该带宽,由其它队列共享;对于那些无法进行分类的报文统统放入到队列0,通过在0队列使用WFQ机制可以使该队列中的所有报文能够得到公平的调度。

    CBWFQ的有一个严重的缺点就是没有一个队列可以满足那些对时延有特殊要求的报文,例如语音、视频流,也就是缺乏类似于PQ之类的严格优先级队列。

    7 Low Latency Queuing

    从名字我们就可以大致知道这个队列的作用,就是为了保证某类报文的低时延,目前的实现方式都是通过严格优先级队列来保证该类报文被优先处理,从而对时延加以保证。实际上LLQ严格意义上并不是一个独立的队列机制,可以认为它是CBWFQ队列机制的一个变种。通过在在CBWFQ队列中加入了一个或者几个优先级队列来实现,以保证这些队列的优先处理,从而保证进入该分类的报文较低的时延;而通过设置带宽阀值,又能防止出现“饿死”现象。

    LLQ在调度时一直首先检查低时延队列,从该队列取报文,如果该队列没有报文时才转向其它非低时延队列。LLQ可以设置多个低延时队列,多个低延时队列之间的关系是平等的,采用的FIFO逻辑,用户可以根据需要将不同的业务放入到不同的低延时队列,例如语音流放到一个低延时队列,视频流放到另外一个低延时队列,可以更好的保证两种业务能够同时得到相应的服务。低延时队列和非低延时队列之间的关系类似PQ,既然类似PQ就不可避免的出现“饿死”现象。LLQ通过设置低时延队列的带宽值来防止“饿死”现象出现。

    20110422_1184945_p_w_picpath009_713019_97665_0

    图9 LLQ原理图

    从上图中可以看出,为了保护其它非LLQ队列得到调度,LLQ采用丢弃LLQ队列超

    过指定带宽的报文的方式来实现该目的,这样的负面影响也是很明显的:语音、视频流量需要进入LLQ队列来保证低时延、低抖动,它们同样对报文丢弃很敏感,这样反而失去了LLQ的本来意义,有点矛盾,唯一的办法就是合理安排好LLQ队列所占用的带宽比例,尽可能的保证该队列的报文不出现丢包。

    8 IP RTP Prioritization

    IP RTP和LLQ类似,但又有一些不同点。它通过在WFQ或者CBWFQ队列中加入严格优先级队列来实现的,它通过区分UDP报文的目的端口号来对VOIP报文进行分类,从中选择出UDP目的端口号在一定范围之内且为偶数的流量。因为IP RTP是严格优先级队列,所以会被最先处理,并且通过一定的策略防止这个严格优先级队列占用太多的带宽,也就是说该严格优先级队列占用的带宽是有额度的,超过限制的流量被丢弃。

    通过RTP的实现可以看出,RTP具有如下特点:

    (1) 在CBWFQ中增加了一个低时延队列,保证VOIP报文的及时处理;

    (2) 限制了优先级队列带宽大小,防止出现“饿死”现象;

    (3) 流分类手段贫乏。

    20110422_1184946_p_w_picpath010_713019_97665_0

    图10 RTP流程图

    9 总结

    对于队列机制而言,它的最重要的两个特性就是调度方式和丢弃机制,在学习队列机制时要从这两个特性去考察、对比不同队列机制之间的共同点和不同点,明白不同队列机制不同的应用场合。


    队列调度机制

    调度方式

    丢弃机制

    FIFO

    顺序调度

    尾丢弃

    PQ

    首先调度高优先级队列

    尾丢弃

    CQ

    从每个队列取指定字节的报文,队列之间采用RR机制

    尾丢弃

    WFQ

    先调度SN小的报文

    改进的尾丢弃

    CBWFQ

    保证每个队列的设定带宽

    尾丢弃或WRED

    LLQ

    首先服务低时延队列,但是低时延队列有阀值

    尾丢弃或WRED

    IP RTP priority

    首先服务低时延队列,但是低时延队列有阀值

    尾丢弃

    图11 各队列的对比图


    转载于:https://blog.51cto.com/huchina/1951109

    展开全文
  • IPv6是用于建立可靠的、可管理的、安全和高效的IP网络的一个长期解决方案,文章介绍了通过IPv6流标记 和优先级两个字段来更好地进行网络服务质量QoS控制,并探讨了QoS机制和控制策略。
  • 5G QoS管理及与DRB映射关系

    千次阅读 2021-05-19 09:39:58
    前言 无线网络是一个等级森严的... 为了对不同业务提供不同的服务质量,无线网络提供了QoS(Quality of Service),QoS管理是无线网络满足不同业务质量要求的控制机制,它是一个端到端的过程,需要业务在发起者...

    前言

           无线网络是一个等级森严的体系,一直以来,无线资源都是紧张的,因而无线网络上的各种业务所享受的服务也无法平等。网络需要优先保障重要的业务。比如

    • 相比普通上网的数据业务,音视频数据业务的优先级会更高;
    • 相比音视频数据业务,语音通话的优先级会更高;
    • 相比语音通话,空口信令的优先级会更高。

           为了对不同业务提供不同的服务质量,无线网络提供了QoS(Quality of Service),QoS管理是无线网络满足不同业务质量要求的控制机制,它是一个端到端的过程,需要业务在发起者到响应者之间所经历的网络各节点共同协作,以保障服务质量。空口QoS管理特性针对各种业务和用户的不同需求,提供不同的端到端服务质量。NSA(Non-Standalone)组网和SA(Standalone)组网下均支持QoS管理。

           5G协议里用5QI(5G QoS Identifier)来标识不同的业务优先级。5QI类似于LTE的QCI,SA组网下,各标准5QI对应的QoS属性根据资源类型的不同,分为GBR、Non-GBR及Delay Critical GBR。

    可见,VONR语音承载的5QI=1,VINR视频承载的5QI=2,VONR的sip信令承载的5QI=5。

     

    QoS Flow

            在SA网络,gNodeB与UE之间仍然存在承载,但gNodeB与核心网之间不再采用承载的概念, 由NSA组网中的EPS Bearer变成了QoS Flow。QoS Flow是5G核心网到终端的QoS控制的最细粒度。每一个QoS Flow用一个QoS Flow ID (QFI)来标识。在一个PDU会话内,每个QoS Flow的QFI都是唯一的。核心网会通知gNodeB每个QoS Flow对应的5QI(5G QoS Identifier),用于指定此QoS Flow的QoS属性。

    gNodeB会将QoS Flow映射到承载上,QoS Flow与空口Radio Bearer可以是多对一的映射关系,也可以是一对一的映射关系。

    SA组网下的QoS架构

            当UE发起业务请求时,gNodeB读取N2接口INITIAL CONTEXT SETUP REQUEST消息或PDU SESSION RESOURCE SETUP REQUEST消息中各QoS Flow的QoS属性值,根据参数配置,将不同的QoS Flow(不同的5QI)映射到对应的承载上,为业务配置合适的无线承载参数、传输资源配置参数。

    QoS Flow的5QI指派

    QoS Flow的5QI可以是核心网动态指派的5QI(Dynamic 5QI),也可以是非动态指派的5QI(Non Dynamic 5QI),

    如果是动态指派的5QI,其对应QoS属性参数一定会由核心网下发给gNodeB。

    如果是非动态指派的5QI,其对应的QoS属性参数是核心网下发给gNodeB的可选参数。

    • 若核心网下发了QoS属性参数,则以核心网配置的参数值为准。
    • 若核心网未下发QoS属性参数,则先通过无线网管查询5QI对应的QCI值。
    • 若QCI已在MO gNBQciBearer中配置,则使用配置值。
    • 若QCI未在MO gNBQciBearer中配置,则按照gNB5qiConfig.Qci取值为9对应的配置生效。

    QoS Flow到DRB的映射

    SDAP(Service Data Adaptation Protocol)是5G新增的协议层。

    SDAP协议层有两个功能:

    • 在数据包中添加QoS Flow的标识,即QFI (QoS Flow ID)值,接收端从数据包的SDAP头中读取该值。
    • 将一个或多个QoS Flow映射到一个DRB 上。

    针对下行数据与上行数据,QoS Flow映射到DRB的原理描述如下。

    下行数据

    gNodeB侧需要将QoS Flow映射到相应的DRB上,以便下行数据可以通过对应的承载发送给UE。针对下行数据,QoS Flow经过SDAP层时,SDAP层根据Nr的5qi的网管配置值与QCI映射关系,将各QoS Flow映射到相应DRB上,DRB的QoS等级用QCI来索引。

    • 标准5QI与QCI的对应关系是一对一映射的,这类规则在最小化配置中存在且不能修改。例如5QI1映射到QCI1,5QI9映射到QCI9。
    • 其它5QI与QCI的对应关系可自由配置,当出现大于或等于2个QoS Flow映射到相同QCI时,QoS Flow映射到QCI的原则如下:
      • GBR类型,或5QI值为5或69的Qos Flow,将会各自单独映射到DRB(这些DRB的QoS等级是相同的,但DRB ID不同)。
      • Non-GBR类型,或5QI值不为5且不为69的QoS Flow,gNodeB会将多个QoS Flow映射到同一个DRB上。

    QoS Flow映射到DRB的示意图

    当核心网新增了一个5QI值时,gNodeB判断该5QI是否已在基站的QCI中配置。

    • 如果未配置,则默认按照5QI为9时对应的配置参数生效。
    • 如果已配置,判断该5QI使用的QCI是否已在小区QCI承载和DU小区QCI承载中配置。
      • 如果未配置,则默认按照QCI取值为9时对应的配置参数生效。
      • 如果已配置,则按照该5QI使用的QCI对应的配置参数生效。

    上行数据

    UE为了将数据发送给gNodeB,需要先找到相应的DRB承载,UE找到相应的DRB有两种方式,隐式和显式。

    · reflecting mapping方式

    此方式下当N2接口上收到QoS Flows Add Request或者QoS Flows Modify Request消息时,如果当前存在符合QoS Flow要求的DRB承载,则不发送(包含QoS Flow与承载的映射关系)RRCReconfiguration消息。

    而UE端,它会监听每一个DRB中下行数据包标记的QFI值,并在UE内部通过reflection生成QFI与DRB的对应关系列表。当上行数据包发送时,UE在对应关系列表中找到上行数据包的QFI值对应的DRB。

    · explicit reconfiguration方式

    此方式下gNodeB通过RRCReconfiguration消息把QoS Flow与DRB的映射关系发送给UE。

    业务建立后

    业务建立后,QCI、5QI修改会重建PDCP和RLC从而导致业务出现中断,影响用户体验,因此无线侧不支持QCI、5QI在线修改。当用户重新接入网络时,使用新的QCI、5QI进行业务。

     

    QoS保障的原理

            在下行调度QoS保障中,gNodeB可以获得下行各承载业务的数据量,并根据输入的QoS参数、信道质量、历史速率等因素综合确定承载的调度优先级和选定需要调度的承载。下行调度QoS保障可由gNodeB独立完成。与下行调度QoS保障不同,在上行调度QoS保障中,gNodeB无法准确获得UE上行各承载上需要发送业务的数据量,因此上行调度QoS保障需要UE和gNodeB共同完成。

    UE侧QoS保障

    gNodeB通过综合考虑信道质量,历史传输速率以及业务的QCI级别计算出UE的调度优先级。UE获得到上行调度机会后,被调度的UE根据以下信息进行二次调度,从而控制UE各承载的差异化。

    · 逻辑信道保障速率

    1. GBR承载的“逻辑信道保障速率”根据核心网配置的GBR速率确定,将核心网配置的GBR速率向下取值到最近一个枚举值,作为GBR承载的“逻辑信道保障速率”。
    2. Non-GBR承载的“逻辑信道保障速率”固定下发8Kbps。各逻辑信道保障速率的满足度,是影响UE计算各逻辑信道的调度优先级的一个重要因素。

    · 逻辑信道优先级

    逻辑信道优先级用于UE管理各逻辑信道的调度优先级,在各承载对应的逻辑信道优先级参数中配置。

    · 逻辑信道的Packet Delay Budget

    用于衡量对应承载的数据包等待调度时延信息,Packet Delay Budget是影响UE计算各逻辑信道的调度优先级的一个重要因素。

    Packet Delay Budget与下行调度一样,可以通过参数进行配置。

    1. NSA组网下,标准QCI的Packet Delay Budget默认取值与上表中Packet Delay Budget列对应的取值相同;
    2. SA组网下,标准QCI的Packet Delay Budget默认取值与上表SQ中Packet Delay Budget列对应的取值相同。

    如果AMF在建立QoS Flow时携带了该参数,则以AMF携带值为准;否则,以配置值为准。·

    • 逻辑信道分组

    5G协议规定了gNodeB支持8个逻辑信道分组,通过各承载对应的逻辑信道标识配置分组信息。

    逻辑信道保障速率、逻辑信道优先级、逻辑信道的Packet Delay Budget和逻辑信道分组均需要通过RRCReconfiguration消息下发给UE。

    gNodeB侧QoS保障

    gNodeB侧的QoS保障主要是通过综合考虑信道质量,历史传输速率以及业务的QCI级别确定UE的调度优先级。上行基础调度优先级公式在gNodeB侧是按照UE级别来计算的。

     

    展开全文
  • 开放网格服务体系结构OGSA提出了网格服务的概念,为网格资源的虚拟化管理给...基于QoS的服务选择机制能够对网格服务的QoS模型进行管理和度量,对于用户提出的QoS需求,服务匹配算法能够为用户选择满足需求倾向的服务。
  • 机制以业务类为单位管理网络数据流,采用按序排队的思想解决保序问题,在汇聚模块设置少量缓存,采用双指针轮询算法实现区分QoS保障,保证了交换对高层不同业务类的有效支持。仿真实验结果表明,该机制在满负载情况下可...
  • 为了更好地控制移动性对QoS的影响,本文把基于策略思想应用到移动环境中,对基于策略的QoS两级协商...扩展COPS协议进行QoS协商,使移动管理QoS协商相互独立,可用移动事件触发QoS协商,对QoS路径进行部分恢复和重建。
  • QOS

    2019-07-20 18:17:54
    QOS 在资源有限的情况下,提升网络的服务质量,优化网络...3.流量管理机制 令牌桶 4.拥塞控制 队列的丢弃机制(有选择性丢弃) IP precautions: 只能决定谁先走不能决定丢谁 DSCP:前三位(IP precautions)后三位...
  • 通过分析UMTS系统的端到端QoS体系结构,阐述了UMTS系坑QoS保证体制的特点以及相应管理模块的功能,最后对4种不同情况下的端到端QoS保证流程进行了分析。这对今后3G无线资源管理和网络规划都具有重要的参考价值。
  • 订阅机制的Web 服务 QoS 信息分发模型,目标是提供一个在大规模的服务计算环境下可靠、 及时地获得Web 服务QoS 信息的方法.提出一个基于P2P的内容发布 订阅网络,利用专用的集合点和副本机制减少订阅丢失, 改善...
  • 文章目录目录4G QoS 基本概念优化的 5G QoS 机制 4G QoS 基本概念 《4G EPS 中的 Bearer》 优化的 5G QoS 机制 相对于 4G 的基于 Dedicated Bearer(专用承载)的 QoS 机制,5G 采用了采用了基于 Flow 的 QoS 模型,...
  • 该方法把以核心网为中枢的服务质量协商机制扩展到无线网侧,将当前会话与经由的 Femto基站实时关联和捆绑,有效地解决了Femto系统对Femto基站的服务质量差异化管理的需求,使运营商能更有效地掌控Femto系统和制定...
  • 资源管理是网格计算研究领域中的一项重要研究点,为满足当前服务网格对QoS的高要求,将服务质量有效地溶入到管理机制中,使资源能更好地在开放、异构和动态的不确定网格环境中得到有效利用具有重要的理论意义和现实...
  • QoS mechanisms

    2020-03-16 11:55:50
    QoS机制 1.classification 分类:将数据分为不同的类别 2.marking 标记:将数据设置为不同的优先级 3.congestion management 拥塞管理:每个接口有一个队列机制,当网络拥塞发生时,规定数据以什么样的先后顺序...
  • 针对这一情况,在通用QoS框架和INSIGNIA结构基础上,提出了一种基于动态资源管理QoS路由模型,该模型通过QoS路由建立模块和动态资源调整机制来实现MANET中路由的QoS保障。模拟结果显示该模型可以有效地支持MANET中...
  • QOS原理

    2021-02-18 10:38:07
    QOS1 前言2 QoS模型2.1 Best Effort模型2.2 DiffServ模型2.3 IntServ模型3 QoS基本原理3.1 流量分类与标记3.2 拥塞管理技术原理3.2.1 拥塞管理基本概念3.2.2 FIFO队列原理简述3.2.3 PQ原理简述3.2.4 CQ原理简述3.2.5...
  • QOS概述

    2020-05-10 11:32:54
    文章目录1 前言2 QoS模型2.1 Best Effort模型2.2 DiffServ模型2.3 IntServ模型3 QoS基本原理3.1 流量分类与标记3.2 拥塞管理技术原理3.2.1 拥塞管理基本概念3.2.2 FIFO队列原理简述3.2.3 PQ原理简述3.2.4 CQ原理简述...
  • 虽然可用性管理更加成熟,但是性能管理不太可靠。 为了支持支持初始静态基础结构配置以及动态重新配置和自动缩放的连续方法,需要一种准确而有效的解决方案。 我们建议预测技术,结合了工作量模式挖掘方法和传统的...
  • 提出了一个IP-DiffServ实时记费管理机制,它通过在拥塞时执行优化的业务量工程,可以在保持业务类价格不变的情况下快速解除拥塞。该机制不但可以提高网络的服务质量(QoS)保证能力,而且可以提高网络的抗拥塞能力,...

空空如也

空空如也

1 2 3 4 5 ... 11
收藏数 220
精华内容 88
热门标签
关键字:

qos管理机制