精华内容
下载资源
问答
  • 用EasyGBD做国标GB28181协议级联
    2021-03-13 15:39:59

    EasyGBD是Easy GB/T28181 Device的简称,EasyGBD主要功能是实现标准的GB28181 2016版本协议,EasyGBD支持GB28181标准2016版的所有功能,支持H264、H265和PS包,支持消息订阅、消息通知功能,支持录像回放、录像下载、支持音频通话和音频广播。EasyGBD已经成功与海康、大华、华为、宇视等厂商的GB28181平台进行对接,EasyGBD的集成简单易行,适用于开发支持GB28181的IP摄像机、NVR与平台级联功能,EasyGBD经过长期的测试和实践,非常稳定,支持跨平台编译,支持Windows、Linux、Mac、iOS、Android、ARM等平台。

    EasyGBD国标级联设备端的特性有:

    • 支持GB28181 2016标准;
    • 支持H264、H265视频编码;
    • 支持订阅、通知功能;
    • 支持录像回放;
    • 支持录像下载;
    • 支持语音对讲;
    • 支持语音广播;
    • 支持设备端抓拍;
    • 全平台支持;
    • 支持SIP自定义协议;

    目前EasyGBD已经广泛应用在Easy系列的多款产品中,例如EasyNVR的RTSP转国标GB28181级联、EasyGBD安卓设备、EasyCVR安防综合管理平台等。

    EasyGBD的Github:https://github.com/tsingsee/EasyGBD

    更多相关内容
  • 小弟我最近再学华为的私有云 华为云私有云里面 type1 是级联架构 级联架构是openstack 被级联架构还是openstack 请问诸位大佬 他们有什么区别

    小弟我最近再学华为的私有云

    华为云私有云里面 type1 是级联架构 级联架构是openstack 被级联架构还是openstack 请问诸位大佬 他们有什么区别在这里插入图片描述

    展开全文
  • HTC, Hybrid Task Cascade for Instance Segmentation. 一个用于实例分割的多阶段级联RCNN模型。

    初识

    级联Cascade是一种强有力的架构,在许多任务上增加了模型性能,比如Cascade RCNN,但是怎么将它融入在实例分割领域,目前还没有很好的方案。如果简单地将Cascade RCNNMask RCNN融合带来的mask AP增益有限,只有1.8%,而bbox AP有3.5%。

    作者认为造成这种巨大差距的一个重要原因在于Cascade RCNN在不同阶段的mask分支之间的信息流(information flow)欠佳,在后期阶段,mask分支只能受益更精确的边界框,与信息流没有直接连接,如下图所示。
    在这里插入图片描述
    为了解决这个问题,本文针对实例分割提出了HTC(Hybrid Task Cascade)模型,其核心思想为:在每个阶段整合级联cascade和多任务multi-tasking来处理来改善信息流,并利用空间上下文saptial context进一步提高准确性。如下图所示,HTC在每个阶段,以多任务方式将bbox回归和mask预测组合在一起。 此外,为不同阶段的mask分支间构建直接联系:编码每个阶段的mask特征,并送到下一个阶段

    对于目标检测而言,上下文信息对于物体的定位和分类提供了非常重要的线索,因此HTC还额外采用了一个全卷积分支执行分割。此分支不仅对来自前景实例的上下文信息进行编码,还对来自背景区域的信息进行编码,进一步提升边界框和实例掩码的预测精度。
    在这里插入图片描述
    最后,在结合更好的backbone和一些trick之后,作者依靠HTC获得2018年的COCO目标检测任务的冠军。

    相知

    主要方法

    在这里插入图片描述
    上图展示了如何由Cascade Mask R-CNN演变到HTC网络:a)原生的Mask R-CNN;b)抛弃平行结构,而是交替地进行bbox回归和mask预测;c)在mask分支之间构造联系【前一个阶段的mask特征将送入后一个阶段】增强信息流;d)添加额外的语义分割分支并将其与bbox和mask分支融合,捕获更多的上下文信息。接下来将更加详细地介绍每个模块的演进:

    图a):直接融合出来的Cascade Mask R-CNN可以直接由以下公式表示,每个阶段并行地进行box和mask预测,用前一阶段的box用作下一阶段的候选框。
    在这里插入图片描述

    其中, t t t表示第t个阶段, P P P表示池化操作(RoI Align或者ROI pooling), x t b o x x^{box}_t xtbox表示第t个阶段经过池化操作提取到的box分支特征, B t B_t Bt表示第t个阶段的bbox分支, r t r_t rt表示第t个阶段box分支的预测结果; x t m a s k x^{mask}_t xtmask表示第t个阶段经过池化操作提取到的mask分支特征, M t M_t Mt表示第t个阶段的mask分支, m t m_t mt表示第t阶段box分支的预测结果。

    图b):a)的缺点就在于box和mask两条分支都只接受前一阶段的box输出,在同一阶段内没有进行直接相互作用。因此引入交替结构,由下式表示,每个阶段先进行box预测,再根据box预测结果进行mask分割。
    在这里插入图片描述
    图c):b)仍然没有在不同阶段的mask分支间引入信息流动。作者先分析了Cascade RCNN成功的一个重要因素,就是在于每个阶段的box分支的输入特征是由前一阶段的box输出和backbone输出共同决定的,根据这种设计理念,在mask分支间引入信息流,公式如下所示。
    在这里插入图片描述

    其中, m t − 1 − m^{-}_{t-1} mt1表示 M t − 1 M_{t-1} Mt1的中层特征, F F F表示融合当前阶段和前一阶段输出的函数。

    具体实现结构如下所示, m t − 1 − m^{-}_{t-1} mt1为前一阶段的mask分支 M t M_t Mt中4层convlayer后,deconv layer前的输出,将其经过一个1x1 conv后与 x t m a s k x^{mask}_t xtmask相结合【像素加法】,进行4层conv + deconv进行分割预测;同样,当前阶段的 m t − m^{-}_{t} mt也要类似地继续用于下一阶段。
    在这里插入图片描述
    通过这种设计,相邻的mask分支产生了直接的相互作用,不同阶段的mask特征不再孤立,都会受到loss监督回传。

    图d):级联训练强相关的任务能够提升特征表达,并且给最终的任务带来收益。因此,作者额外采用了一条全卷积分支进行语义分割。利用语义分割分支的特征可以作为box和mask分支中的强互补特征,有助于进一步区分前背景。加了这条分支后,在box和mask分支中不仅只在backbone输出的特征上使用池化操作,还对语义分割分支的特征进行相同的池化操作,将其结合【像素加】作为box和mask分支的输入特征。公式如下所示:

    在这里插入图片描述

    S ( x ) S(x) S(x)表示语义分割分支特征

    语义分割分支的具体结构实现如下,首先结合FPN中不同层级的特征,将其进行1x1 conv + 上采样/下采样到相同分辨率后进行结合【像素加】。然后经过4层卷积操作,然后使用一个简单的1x1 conv进行语义分割,同时使用一个1x1 conv作为上式提到的语义分割特征。

    在这里插入图片描述
    损失函数:HTC直接进行端到端训练,其中box分支为所有ROI进行目标分类和检测框回归,mask分支为每个正类ROI预测像素级掩码,语义分割分支预测整张图像的语义分割信息。整体损失如下所示:

    在这里插入图片描述

    其中 L b b o x t L^{t}_{bbox} Lbboxt表示第t个阶段的box分支损失,主要包括分类loss和回归loss,这一部分和cascade rcnn保持一致; L m a s k t L^{t}_{mask} Lmaskt表示第t个阶段的mask分支损失,主要为二元交叉熵损失;最后的 L s e g L_{seg} Lseg为语义分割分支损失,主要为交叉熵损失。α和β为平衡参数,其中α在实验中取值为[1,0.5,0.25],β为1。

    部分实验

    更多实验和细节请参考原文

    下图展示了HTC和当前SOTA方法的对比,可以看到HTC能够显著提升性能
    在这里插入图片描述
    下图展示了HTC不同模块带来的增益,其中交替预测提升了0.2,mask信息流和semantic信息融合分别提升了0.6个点。
    在这里插入图片描述

    HTC比赛trick及扩展

    下表展示了作者如何在COCO比赛中逐步提升自身方案的准确率:

    • 在ResNet最后一个stage中添加可变形卷积,整体mAP提升了0.6;
    • 在backbone和head中换成syn bn,提升1.2;
    • 采用多尺度训练,最短边从[400,1400]中采样,长边固定1600,提升了1.8;
    • backbone换成SENet-154(最优单模性能),提升1.8;
    • 多尺度测试,使用5种尺度+水平翻转,集成结果(600, 900), (800, 1200), (1000, 1500), (1200, 1800), (1400, 2100)
    • 进行多模型融合,SENet-154,ResNext101(64x4d + 32x8d),DPN-107,FishNet。提升1.6个点。

    在这里插入图片描述
    作者还对当时检测和分割的常用模块进行了性能报告,包括ASPP,PAFPN,GCN,PrRoIPool和softNMS

    在这里插入图片描述

    回顾

    HTC是一篇针对实例分割提出来的基于Cascade RCNN改进的工作,原始的Cascade RCNN主要针对目标检测任务设计,因此对于mask AP的增益有限。HTC在三个方面上做了改进,一个是取消并行地预测box和mask,改为先检测出box再根据修正后的box去进行mask预测;其次是为不同阶段的mask分支构造信息流;最后是添加额外的语义分割分支,提供额外的互补特征。

    并且本文还提供了一些提点的trick以及对比实验,可以给类似的比赛和工业应用提供思路。

    不过,我在某个实例分割比赛中尝试过HTC模型,但其效果比Mask RCNN要差,目前还不清楚具体原因。不过时间和资源有限,没有怎么调参。

    展开全文
  • #资源达人分享计划#
  • 推荐系统经典的级联架构 其实这里本来写的是「传统」的级联架构,后来思索万千,觉得不太合适,就改为了「经典」。因为级联架构目前依旧在各大互联网公司被应用,其扮演的角色也很重要。一般情况下我们常见级联架构...

    猜你喜欢

    0、某视频APP推荐策略和推荐算法详解

    1、如何搭建一套个性化推荐系统?

    2、内容推荐策略产品经理的方法与实践

    3、京东推荐算法精排技术实践

    4、微博推荐算法实践与机器学习平台演进

    5、腾讯PCG推荐系统应用实践

    6、强化学习算法在京东广告序列推荐场景的应用

    7飞猪信息流内容推荐探索

    8、华为项目管理培训教材

    9、美团大脑系列之商品知识图谱的构建和应用

    本文主要介绍的是粗排的相关问题,主要会涉及下面内容:

    • 1.推荐系统经典的级联架构

      • 1.1 四部分及角色

      • 1.2 结合业务数据选择模块

    • 2.对粗排阶段的思考

      • 2.1 粗排是必要的吗?

      • 2.2 粗排与精排的异与同

      • 2.3 粗排与召回的差异

      • 2.4 粗排的优缺点

    • 3.粗排技术的发展

      • 3.1 静态的“质量分”

      • 3.2 机器学习模型

      • 3.3 基于向量内积的深度模型

      • 3.4 阿里粗排COLD框架

      • 3.5 精排模型的蒸馏

    1.推荐系统经典的级联架构

    其实这里本来写的是「传统」的级联架构,后来思索万千,觉得不太合适,就改为了「经典」。因为级联架构目前依旧在各大互联网公司被应用,其扮演的角色也很重要。一般情况下我们常见级联架构主要是由四部分组成,但依据具体的业务和数据量适当的选择其中若干部分进行应用。

    1.1 四部分及角色

    四部分指的是:召回 / recall -> 粗排 / prerank -> 精排 / rank -> 重排 / rerank

    a9743e3ccb200db7308ffad85aafc31b.png
    四级级联架构

    不同的部分所扮演的角色也不相同,每个阶段都在为完成自己的使命而发光发热。

    • 召回:负责从最原始的候选集中选出用户感兴趣下一个错别字

    • 和可能感兴趣的item,一般集合在几千到1万+,视具体的推荐架构和算力而定

    • 粗排:减小精排排序的压力,对召回池中的商品进行排序,选出用户最喜欢的top N个item,N的取值一般是几百

    • 精排:从粗排提供的候选池中选出用户最有可能点击的M个item,M的取值一般是几十个

    • 重排:从精排返回的结果中进行重新排序,返回给上游接口,继而展示给用户

    1.2 结合业务数据选择模块

    在前边也提到,这样的四级级联架构并非是所有推荐业务的必须选择,因为业务的特性和item的规模都是不一样的,因此在制定技术方案时不一定要严格遵循召回->粗排->精排->重排的流程,而是结合业务选取若干部分,具体大家可以看下面举的案例。

    eg 1:一个精选品电商业务,所有的item只有几千个,这时候可以跳过召回,直接全部item进粗排,然后是精排和重排

    eg 2:传统的电商平台,所有的item数以亿计,这时候召回阶段是跳不过的,就需要走召回->粗排->精排->重排的流程(或者是召回 -> 精排 -> 重排,需要严格限制召回的数量)

    eg 3:一个新的电商业务初期,数据比较少,能够构造的特征也比较少,这时候就可以抛弃传统的四部分级联架构,直接由cf得到的结果也是可以接受的

    所以并非严格遵循流程就是好的,适当的时候也要变通和尝试,结合业务才能做出好的效果。

    2.对粗排阶段的思考

    粗排在推荐系统中扮演的角色是精排的前置阶段,其目标理论上应该和精排是一致的,这样能保证精排从粗排返回的结果中选出的top M一定是结果最优的。

    2.1 粗排是必要的吗?

    粗排是不是必要的?伴随这个问题的还有召回是不是必要的?精排是不是必要的?重排是不是必要的?

    不同的业务、不同的发展阶段,甚至可以说召回、排序都可能不是必须的。粗排当然也不是在所有业务、所有阶段都是必须的。

    分发物料少的业务,可以不用召回,精排模型打分就可以了;推荐架构刚刚搭建,甚至连内容标签都没有的阶段,多维度的特征无法建立的时候,也许只有协同召回的效果也是能接受的。同样,粗排是在发展到一定的阶段之后,有很多路不同维度召回,而且精排模型又已经达到一个很复杂很精细程度的时候,是夹在召回和精排中间的“折中”的产物。重排则是为了更大程度的保证用户体验,从而提高效果的一种手段,当前几个阶段都没有建立完整的链条时,又何必花费大力气去建设精排呢!

    2.2 粗排与精排的异与同

    粗排和精排在一定程度是相同的,至少目标是一致的,但是也存在一些差异。同:

    • 目标一致:选出用户最感兴趣的top M、top N

    • 特征一致:使用的特征粗排应该是精排的子集(选取区分度比较高的特征),或者大部分特征是一致的

    • 技术栈相同:比如精排是DNN,粗排一般也采样DNN,这样精排上验证有效的策略可以容易的迁移到粗排模型(但并不是一定要相同,主要看个人而定)

    异:

    • 量级不同:粗排因为是精排的前置阶段,所以粗排一般接受几千或者1万+的item进行排序,而精排则接受几百个商品进行排序

    • 延时要求不同:因为粗排和精排打分的item量级不一致,所以精排对延时的要求比粗排更加严格

    • 特征不同:精排特征比粗排特征更细,更加丰富

    2.3 粗排与召回的差异

    比如以DSSM为例,它作为召回和作为粗排模型,做法一样吗?

    目的不一样,样本构造不一样。作为召回,它要不遗漏,它可以从全库item中负采样。作为粗排,它要准确,要接近精排,它的可以用线上的曝光的负样本,或者从全体召回候选中负采样。

    像一些其他的召回方法是被严格限制在了召回阶段,是没有办法应用于粗排的,比如CF、标签召回等。

    另外一个例子,当算力满足粗排可以对全库的item进行打分时,是否需要保留召回模块?答案:是。

    因为召回有一个隐藏的任务:弥补排序的“贪婪”,限制排序模型对眼前的欲望,留点机会后面有潜力的item,不能只给排序模型它喜欢的item,即保证结果的多样性。否则就会让用户陷入信息茧房,让用户觉得全世界都是我的!

    2.4 粗排的优缺点

    我们先假定推荐系统的级联架构只有:召回 -> 精排 -> 重排,且精排可以接受的排序量为1000。

    那么当构建若干召回通路时,各路召回的quota怎么控制?各路召回孰轻孰重?这时候就需要引入粗排来对各路召回的item进行统一打分和度量了(因为每路召回中的分值是不可比的)。同时因为召回为了保证多样性,召回的item量级是要比精排能够接受排序的量级大一些的,复杂的精排模型增加排序量会使得响应时间线性增大,于是我们需要一个简单有效、性能优良的模型来完成这一工作,这就是粗排模型。

    也可以在召回层面控制进入精排的item数量,比如设置一个总的quota和各路召回的权重,然后进行各路quota的动态分配。

    但是粗排使用不当也会带来很大的问题:

    • 对于新增的召回源,因为模型的选择偏差,对这一路并不友好

    • 当粗排和精排一致性差的时候,会拉低线上效果。即精排认为好的,粗排都没有排上来

    3.粗排技术的发展

    目前粗排模块一般使用的都是精准值预估的方法,即以业务导向为目标,预测出具体的数值,进行排序和截断,选取Top N送往精排。

    fc4cc4295335beb5221eb6d213af4109.png
    粗排技术发展

    3.1 静态的“质量分”

    一般情况下,算法团队都会为所有的item构建一个综合指标,离线评估这个item的好坏,大家一贯的称呼都是质量分,当然也有别的称呼,不过其表达的含义都是一样的。

    需要注意的是这个质量分是静态的,T+1更新的,因此在使用了没有办法去考虑item当天的数据,但是由于其已经是离线计算好的,因此在性能上会很快。

    除了离线质量分,也可以使用离线过去制定时间周期内的CTR、CVR、CXR等

    3.2 机器学习模型

    早期的则是逻辑回归(Logistics Regression,LR),因为其模型简单和有一定的模型表达能力,可以进行在线的更新和模型打分,因此应用十分广泛。

    后期则是演变到了以GBDT为代表的树模型,相比LR,其个性化表达能力更加突出,结构简单,成为了各大公司的排序宠儿。

    再往后则是GBDT的演进版,XGB、Light GBM、GBDT+LR等技术,但其都是属于机器学习模型时代的优秀产物,其都是先在精排侧取得了不错的效果之后,过渡到粗排模型的。

    3.3 基于向量内积的深度模型

    基于向量内积的深度模型是目前应用最广泛的粗排模型,一般为双塔结构,两侧分别输入用户特征和item特征,经过深度网络计算后,分别产出用户向量和item向量,再通过内积等运算计算得到排序分数:

    其中典型代表为DSSM,关于DSSM的介绍可以参考:论文|从DSSM语义匹配到Google的双塔深度模型召回和广告场景中的双塔模型思考

    3.3.1 经典的向量内积模型-以DSSM为例

    8f324348c1e398fa9df8417d05fce02a.png
    双塔网络

    双塔模型,两侧输入的分别是user的特征和item的特征,各自经过DNN变化后分别产出user向量和item向量。

    向量内积模型相比之前的粗排模型,表达能力有了很显著的提升,其优点:

    • 内积计算简单,节省线上打分算力

    • item向量离线计算产出,user向量实时计算,然后进行实时向量检索

    • 双塔结构的user侧网络可以引入transformer等复杂结构对用户实时行为序列进行建模

    但是也存在一些缺点,比如:

    • 模型表达能力仍然受限:向量内积虽然极大的提升了运算速度,节省了算力,但是也导致了模型无法使用交叉特征,能力受到极大限制

    • 模型实时性较差:item向量一般需要提前计算好,而这种提前计算的时间会拖慢整个系统的更新速度,导致系统难以对数据分布的快速变化做出及时响应,这个问题在双十一等场景尤为明显

    • 存在冷启动问题,对新item、新用户不友好

    • 迭代效率:user向量和item向量的版本同步影响迭代效率。因为每次迭代一个新版本的模型,分别要把相应user和item向量产出,其本身迭代流程就非常长,尤其是对于一个比较大型的系统来说,如果把user和item都做到了上亿的这种级别的话,可能需要一天才能把这些产出更新到线上,这种迭代效率很低

    因此就基于传统的双塔模型进行很多改进,比如双塔版本的Wide&Deep模型。

    3.3.2 双塔版本的Wide&Deep模型

    78f49e79244a47dd9db64eacdeb839f4.png

    上图来自于王哲老师在DataFun的分享,没在网络上找到对应的论文,应该是其内部的实践。

    向量版Wide&Deep模型,deep部分仍然是向量内积结构,wide部分引入基于人工先验构造的user和item的交叉特征,一定程度上克服了向量内积模型无法使用交叉特征的问题。然而该方法仍然有一些问题,wide部分是线性的,受限于RT的约束,不能做的过于复杂,因此表达能力仍然受限。

    3.3.3 双塔模型引入SeNet网络

    这个主要采用的还是双塔网络结构, 在user塔和item塔侧各自引入一个SeNet模块,参考:SENet双塔模型在推荐领域召回粗排的应用及其它

    6a9dee4fb04a2e699fcba6faf6f9862c.png
    SeNet

    3.4 阿里粗排COLD框架

    COLD框架目前在其他公司应用的比较少,大多数还是基于向量内积的深度模型来计算打分的。COLD模型的结构如下:

    a3eac27b43d6b693bdb4bd19e34023dd.png
    COLD框架

    因为其在工程架构层面也进行了很多的优化,最终取得了不错的效果,工程的优化主要包括:

    • 将计算分成并行的多个请求以同时进行计算,并在最后进行结果合并

    • 将行计算重构成列计算,对同一列上的稀疏数据进行连续存储,之后利用MKL优化单特征计算,使用SIMD (Single Instruction Multiple Data)优化组合特征算子,以达到加速的目的

    • 基于服务器考虑(NVIDIA的Turning架构对Float16和Int8的矩阵乘法有额外的加速),使用了Float16和MPS技术,可以带来接近2倍的QPS提升

    关于COLD框架更加详细的介绍会在后续文章中展开介绍,如果大家着急的话可以先看看阿里的论文或者网上的一些文章:COLD- Towards the Next Generation of Pre-Ranking System。

    3.5 精排模型的蒸馏

    其实在阿里提出的COLD框架之前,也会尝试将精排模型落地到粗排阶段,通过知识蒸馏技术来进行,所谓的知识蒸馏简单来理解就是模型压缩,这一技术的理论来自于2015年Hinton发表的一篇神作:论文:Distilling the Knowledge in a Nerual Network,感兴趣的可以去看看。

    知识蒸馏的主要思路就是“老师->学生”,即:

    • 培养一个能很好表现和概括的大模型,这就是所谓的教师模式

    • 取你所有的数据,计算教师模型的预测值,包含这些预测的总数据集称为知识,而预测本身通常称为软目标,这就是知识提炼的步骤

    • 利用之前获得的知识来训练较小的网络,称为学生模型

    学生模型即为蒸馏后的小模型。

    23c12737b2eeab2b38fbf5780d273d08.png
    知识蒸馏

    OK,关于粗排模型的思考和总结到此为止!

    参考

    • https://zhuanlan.zhihu.com/p/374600089

    • https://www.zhihu.com/question/325994502/

    • https://zhuanlan.zhihu.com/p/355828527

    
     
    
     

    「 更多干货,更多收获 」

    a929a72fc825aeead8e47a509b190ee6.gif

    
     

    推荐系统工程师技能树

    【免费下载】2021年9月份热门报告盘点

    美团大脑系列之:商品知识图谱的构建及应用

    【干货】2021社群运营策划方案.pptx

    大数据驱动的因果建模在滴滴的应用实践

    联邦学习在腾讯微视广告投放中的实践如何搭建一个好的指标体系?如何打造标准化的数据治理评估体系?

    【干货】小米用户画像实践.pdf(附下载链接)

    推荐系统解构.pdf(附下载链接)

    短视频爆粉表现指南手册.pdf(附下载链接)

    
     
    推荐系统架构与算法流程详解如何搭建一套个性化推荐系统?某视频APP推荐策略详细拆解(万字长文)

    2020年轻人性和爱调查报告.pdf(附下载链接)

    关注我们

    智能推荐

    个性化推荐技术与产品社区

    长按并识别关注

    345d40cb911690abb0c1559a5a8ba398.png

    您的「在看」,我的动力👇
    展开全文
  • 单层架构的优势

    2018-07-25 14:15:41
    对于单块架构的应用程序而言,最终都会打成一个包,且只能运行到一个进程上。单块的水平伸缩其实 可以理解为克隆,既新建出一个服务器节点,配置好运行环境,复制软件包到此节点上,从而运行该应用程序。 当然必须...
  • 交换机的级联、堆叠和集群

    万次阅读 2019-05-31 17:34:13
    在多交换机的局域网环境中,交换机的级联、堆叠和集群是3种重要的技术。 级联技术可以实现多台交换机之间的互连; 堆叠技术可以将多台交换机组成一个单元,从而提高更大的端口密度和更高的性能; 集群技术可以将相互...
  • 具有分段量化的ΔΣ调制器的通用级联噪声耦合架构
  • 网络游戏-基于级联转换网络架构的情绪识别方法和系统.zip
  • Cascade RCNN 级联的RCNN架构 论文分析与解读
  • 构建主备关系 gs_ctl build -D /opt/mogdb/data/ -b full -M cascade_standby 查看主备级联状态 主库 [omm@mogdb-kernel-0001 ~]$ gs_ctl query -D /opt/mogdb/data [2021-06-13 08:37:03.281][207069][][gs_ctl]: ...
  • 网络游戏-基于级联转换网络架构的情绪识别方法和系统[1].zip
  • MySQL主从复制(4)——级联复制架构的搭建 MySQL 的复制功能是构建大型,高性能应用程序的基础。将 MySQL 的数据分布到多个系统,这种分布机制是通过将MySQL 的某一台主机(master)的数据复制到其它主机(slaves)...
  • 网络主要由两层级联的全卷积神经网络组成,第一阶段构建了一个带金字塔池化模块编码-解码架构的全卷积神经网络,金字塔池化模块有效抑制了背景噪声的干扰。第二阶段设计了边缘检测网络,学习显著区域的边缘信息,...
  • 全面认识openstack:OpenStack架构详解

    万次阅读 多人点赞 2018-06-21 10:41:50
    控制节点架构: 控制节点包括以下服务 管理支持服务 基础管理服务 扩展管理服务 1)管理支持服务包含MySQL与Qpid两个服务 MySQL:数据库作为基础/扩展服务产生的数据存放的地方 Qpid:消息代理(也称消息中间件)为...
  • 在推荐级联架构中,里所码和卷积码分别作为外码和内码,通过交织器级联。采用基于Viterbi算法的8路并行卷积译码结构和基于RiBM算法的里所码译码结构,实现了超高速级联译码器。在TSMC 0.13 μm CMOS工艺下,该译码器...
  • TSINGSEE青犀视频研发团队接到过很多用户的定制需求,我们都会尽力开发用户的定制版本。由于国标GB28181协议视频平台...EasyGBS平台目录树状图数据的SubCount字段为下级子目录的数量,编译架构中我们将0级设定为通道
  • OpenStack为私有云和公有云提供可扩展的弹性的云计算服务,这种服务云必须是简单部署并且扩展性强。 1、模块松耦合2、组件配置较为灵活3、二次开发容易 一.OpenStack构成组件 OpenStack共享服务组件: 数据库服务...
  • mysql 数据库-级联复制

    2021-11-09 17:11:40
    一、级联概念 1、原理 2、级联复制的应用场景 3、缺点 二、实验配置 主服务器A slave服务器B slave服务器C 结果测试 一、级联概念 1、原理 级联结构就是通过减少直接从属于 Master 的 Slave 数量,减轻 ...
  • 基于Matlab的级联型IIR滤波器设计与FPGA实现.pdf
  • 为解决传统基于深度学习的调制识别算法在小样本条件下识别准确率较低的问题,提出一种基于深度级联孪生网络的通信信号小样本调制识别算法。根据通信信号时序图的时空特性,设计由卷积神经网络和长短时记忆网络级联的...
  • 一、定义  级联删除是指删除包含主键值的行的操作,该值由其它表的现有行中的外键引用。在级联删除中,还删除其外... 三层架构是指一种架构思想。通常他将整个业务应用划分为:表现层(UI)、业务逻辑层(BLL)、...
  • row *************************** Slave_IO_Running: Yes Slave_SQL_Running: Yes Seconds_Behind_Master: 0 11、在node1和node2上产生一些数据,看是否同步到node3,以进一步验证级联复制正常
  • GB/T-28181平台级联实现方式

    万次阅读 2017-12-08 21:38:18
    GB/T-28181协议规范出台也有几年了,陆续相关的推广工作国家公安部进行的如火如荼。国标28181相对于国际上的安防协议标如ONVIF最大的优势是实现了平台级联方式,很多...级联方式更是为中国政府机关和平安城市、智慧...
  • IBM架构设计方法论架构设计方案
  • 深度学习-MTCNN网络结构详解

    千次阅读 2020-06-03 14:45:03
    MTCNN工作原理 MTCNN是什么 MTCNN,Multi-task ...它是2016年中国科学院深圳研究院提出的用于人脸检测任务的多任务神经网络模型,该模型主要采用了三个级联的网络,采用候选框加分类器的思想,进行快速高...
  • 中继器链和级联编码架构的Matlab仿真。 数学代码 在对 GKP 中继器链的所有中继器放置配置进行优化时, Mathematica笔记本找到每个模式的密钥率保持在 0.01 以上的最大距离。 优化是针对 GKP 压缩和光子耦合效率的多...
  • 基于深度学习的信息级联预测方法综述.pdf
  •  神经网络架构中的 之一就是卷积层,卷积的 基本操作就是点积。向量乘法的结果是向量的每个元素的总和相乘在一起,通常称之为点积。此向量乘法如下所示: 图 1 点积操作 该总和S由每个矢量元素的总和相乘而成,...
  • 运用DropdownList、数据绑定、Mvc架构实现的无刷新数据库获取级联菜单。修改webconfig文件下的链接字,即可绑定到自己的数据库,快来试试吧。

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 30,735
精华内容 12,294
关键字:

级联架构