精华内容
下载资源
问答
  • 原文章出处: http://blog.163.com/liwei1987821@126/blog/static/172664928201422133218356/写在开始:缓存变量和session变量都是全局性质的,TP都是默认开启的,设置了之后可以在任何你想要的地方直接调用1、动态...

    原文章出处: http://blog.163.com/liwei1987821@126/blog/static/172664928201422133218356/

    写在开始:缓存变量和session变量都是全局性质的,TP都是默认开启的,设置了之后可以在任何你想要的地方直接调用

    1、动态缓存  Cache缓存类(使用之前,你需要下载Xcache模块、PHP的Xcache驱动以及一系列配置,自行搜索)

    8a5778477f7c0409a21c28e00b595738.png

    // $cache = Cache::getInstance('缓存方式','缓存参数');  //理解为实例化,其实是对缓存类域内进行操作

    /**

    *缓存方式包含: memcache;redis;Xcache;file等方式(默认File类型)

    *缓存参数: 缓存有效期, 缓存列队长度

    **/

    //(demo:)

    $Cache = Cache::getInstance("Xcache",array("expire"=>60));

    $cache->set('key',$value,3600);//存缓存

    $cache->get('key');//读取缓存

    $cache->rm('key');//删除缓存

    2、快速缓存S()、简单数据缓存F()方法

    设置缓存:S("cache_code",$cache_value,expire);  //expire是有限期的意思,比如存储一个小时就填写3600

    读取缓存:$var = S("cache_code");

    删除缓存:S("cache_code",null);

    /* 其中F()方法和S方法的区别,就是F()方法针对数据比较简单、且没有过期时间 */

    展开全文
  • 写在开始:缓存变量和session变量都是全局性质的,TP都是默认开启的,设置了之后可以在任何你想要的地方直接调用 1、动态缓存 Cache缓存类(使用之前,你需要下载Xcache模块、PHP的Xcache驱动以及一系列配置,自行....

    原文章出处: http://blog.163.com/liwei1987821@126/blog/static/172664928201422133218356/

    写在开始:缓存变量和session变量都是全局性质的,TP都是默认开启的,设置了之后可以在任何你想要的地方直接调用

    1、动态缓存  Cache缓存类(使用之前,你需要下载Xcache模块、PHP的Xcache驱动以及一系列配置,自行搜索)

    <code>

    <?php

    // $cache = Cache::getInstance('缓存方式','缓存参数');  //理解为实例化,其实是对缓存类域内进行操作

    /**
    *缓存方式包含: memcache;redis;Xcache;file等方式(默认File类型)
    *缓存参数: 缓存有效期, 缓存列队长度
    **/

    //(demo:)

    $Cache = Cache::getInstance("Xcache",array("expire"=>60));

    $cache->set('key',$value,3600);//存缓存

    $cache->get('key');//读取缓存

    $cache->rm('key');//删除缓存

    </code>

     

    2、快速缓存S()、简单数据缓存F()方法

    设置缓存:S("cache_code",$cache_value,expire);  //expire是有限期的意思,比如存储一个小时就填写3600

    读取缓存:$var = S("cache_code");

    删除缓存:S("cache_code",null);

    /* 其中F()方法和S方法的区别,就是F()方法针对数据比较简单、且没有过期时间 */

     

    转载于:https://www.cnblogs.com/xuzhengzong/p/6703506.html

    展开全文
  • 技术题60分钟简答题高斯成像公式LBP,HOG等特征的可扩展性等性质SVM核函数作用核函数种类核函数选择软性SVM中C的作用和怎么调节信号采样人声频率范围是300-3200Hz,问不失真的最小采样频率8KHz的采样频率下,采用8...

    选择题

    1.景深是由什么决定的

    景深(DOF)是指照片中在对焦平面前后画面清晰的部分。大景深意味着照片无论远近静物大部分都是清晰的。小(或浅)景深意味着照片中只有一部分画面是清晰的,其他画面都被虚化掉了。

    在焦点前后,光线开始聚集和扩散,点的影象变成模糊的,形成一个扩大的圆,这个圆就叫做弥散圆。如果弥散圆的直径小于人眼的鉴别能力,在一定范围内实际影象产生的模糊是不能辨认的。这个不能辨认的弥散圆就称为容许弥散圆。

    影响景深的因素
    (1).镜头光圈:
    光圈越大,景深越小;光圈越小,景深越大;

    (2).镜头焦距
    镜头焦距越长,景深越小;焦距越短,景深越大;

    (3).拍摄距离
    距离越远,景深越大;距离越近,景深越小。

    2. 256*256的图像,若灰度级数为16,则存储它所需的比特数为:

    16级灰度存储需要4bit。256*4 = 1024
    结果为256K

    3. 图像的二阶导数滤波器(拉普拉斯)对噪声更敏感

    图像的二阶导数比一阶导数获得的物体边界更加细致。但是,显而易见的,二阶导数对噪声点也更加敏感,会放大噪声的影响。

    4.消除小的连通域用什么操作(开运算)

    先腐蚀后膨胀的过程称为开运算。用来消除小物体、在纤细点处分离物体、平滑较大物体的边界的同时并不明显改变其面积。

    先膨胀后腐蚀的过程称为闭运算。用来填充物体内细小空洞、连接邻近物体、平滑其边界的同时并不明显改变其面积。
    详细参考链接 https://blog.csdn.net/caojinpei123/article/details/81916005

    简答题

    1. 高斯成像公式

    1/f=1/u+1/v。其中f为焦距,凸正凹负;u为物距;v为像距
    在这里插入图片描述

    LBP,HOG等特征的可扩展性等性质

    旋转缩放后是否变化

    SVM

    核函数作用

    将特征映射到高维空间

    核函数种类

    高斯核、线性核、多项式核

    核函数选择

    软性SVM中C的作用和怎么调节

    信号采样

    人声频率范围是300-3200Hz,问不失真的最小采样频率

    8KHz的采样频率下,采用8bit的PCM,存储一秒钟的信号数据量有多大

    VGG网络的每层参数量分析

    https://www.imooc.com/article/details/id/30565
    计算量(时间复杂度)
    参数量(空间复杂度)
    我们以VGG-16的第一层卷积为例:输入图像224×224×3,输出224×224×64,卷积核大小3×3。
    计算量:
    Times≈224×224×3×3×3×64=8.7×107
    参数量:
    Space≈3×3×3×64=1728

    神经网络调参效果不理想时怎么分析

    编程题

    中值滤波

    根据题目条件,逐步找到g最大条件下的threshold

    g=w0w1(u0-u1)*(u0-u1)
    w0为小于threshold i的像素点占所有像素的比重,u0为像素点灰度的均值
    w1为大于threshold i的像素点占所有像素的比重,u1为像素点灰度的均值

    面试提问

    图像去噪方法

    高斯滤波、中值滤波

    边缘检测算子

    sobel、canny、roberts、拉普拉斯算子

    二面

    模型压缩和加速的方法

    https://mp.weixin.qq.com/s/320ndRkhsMmaCPLbJtRAaw
    mobile net与其他网络的不同
    MobileNet的95%的计算都花费在了1×1的卷积上

    mobile net V1 2017

    引入深度可分离卷积
    深度可分离卷积 = 深度卷积 + 逐点卷积
    在这里插入图片描述

    问题1:有人在实际使用的时候, 发现深度卷积部分的卷积核比较容易训废掉:训完之后发现深度卷积训出来的卷积核有不少是空的。
    原因:对低维度做ReLU运算,很容易造成信息的丢失。而在高维度进行ReLU运算的话,信息的丢失则会很少。

    问题2: 如果来的通道很少的话,DW深度卷积只能在低维度上工作,这样效果并不会很好,所以我们要“扩张”通道。

    V2

    在这里插入图片描述

    同时引入shortcut结构,像Resnet一样复用特征。
    在这里插入图片描述
    步长为1时,先进行1×1卷积升维,再进行深度卷积提取特征,再通过Linear的逐点卷积降维。将input与output相加,形成残差结构。步长为2时,因为input与output的尺寸不符,因此不添加shortcut结构,其余均一致。

    V3 2019

    1. 网络的架构基于NAS实现的MnasNet(效果比MobileNetV2好)
    2. 引入MobileNetV1的深度可分离卷积
    3. 引入MobileNetV2的具有线性瓶颈的倒残差结构
    4. 引入基于squeeze and excitation结构的轻量级注意力模型(SE)
    5. 使用了一种新的激活函数h-swish(x)

    原swish函数:
    Swish具备无上界有下界、平滑、非单调的特性。并且Swish在深层模型上的效果优于ReLU
    Swish具备无上界有下界、平滑、非单调的特性。并且Swish在深层模型上的效果优于ReLU。

    问题:sigmoid()在移动设备上难以计算。
    解决:h-swish(x)
    在这里插入图片描述
    能够将过滤器的数量减少到16个的同时保持与使用ReLU或swish的32个过滤器相同的精度,这节省了3毫秒的时间和1000万MAdds的计算量。

    作者只在模型的后半部分使用h-swish。

    1. 网络结构搜索中,结合两种技术:资源受限的NAS(platform-aware NAS)与NetAdapt

    资源受限的NAS,用于在计算和参数量受限的前提下搜索网络来优化各个块(block),所以称之为模块级搜索(Block-wise Search) 。

    NetAdapt,用于对各个模块确定之后网络层的微调每一层的卷积核数量,所以称之为层级搜索(Layer-wise Search)。

    1. 修改了MobileNetV2网络端部最后阶段

    将1×1层放在到最终平均池之后。这样的话最后一组特征现在不是7x7(下图V2结构红框),而是以1x1计算(下图V3结构黄框)。

    在不会造成精度损失的同时,减少10ms耗时,提速15%,减小了30m的MAdd操作。

    efficient net

    SGD与Adam等优化器的不同

    http://ruder.io/optimizing-gradient-descent/

    1. Batch gradient descent
      根据整个数据集的数据计算参数的迭代更新。
      θ=θηθJ(θ) \theta = \theta - \eta \cdot \nabla_\theta J( \theta)
      缺点:1)慢 2)占用内存大 3)数据集中加入新图片

    2. Stochastic(随机的) gradient descent
      根据每个训练数据 x(i)x^{(i)} 和label y(i)y^{(i)}进行更新
      θ=θηθJ(θ;x(i);y(i))\theta = \theta - \eta \cdot \nabla_\theta J( \theta; x^{(i)}; y^{(i)})
      优点:1)快 2)可以在线学习new example
      缺点:波动大
      在这里插入图片描述
      SGD’s fluctuation, on the one hand, enables it to jump to new and potentially better local minima. On the other hand, this ultimately complicates convergence to the exact minimum, as SGD will keep overshooting. However, it has been shown that when we slowly decrease the learning rate, SGD shows the same convergence behaviour as batch gradient descent, almost certainly converging to a local or the global minimum for non-convex and convex optimization respectively.

    3. Mini-batch gradient descent
      根据每个batch中的n个训练数据进行更新
      θ=θηθJ(θ;x(i:i+n);y(i:i+n))\theta = \theta - \eta \cdot \nabla_\theta J( \theta; x^{(i:i+n)}; y^{(i:i+n)})
      优点:训练更稳定且足够快
      改进的SGD一般指的是mini-batch gradient descent

    4. 挑战
      1)选择正确的学习率很困难
      2)训练中改变学习率的规则和threshold阈值要提前设定好,不能根据不同数据集智能调节。
      3)参数更新用的是同样的学习率(数据稀疏sparse或feature出现频率相差很大,prefer to perform a larger update for rarely occurring features.)
      4)优化非凸误差函数的另一个关键挑战是避免陷入其众多次优局部极小,以及鞍点。鞍点会让SGD陷入困境,因为各个维度上它的梯度都为0。

    5. 动量 Momentum
      SGD很难在沟壑中导航,即表面在一个维度上的曲线比在另一个维度上的曲线陡得多的区域。在这些情况下,SGD在沟壑的斜坡上振荡,同时仅在底部朝着局部最佳状态缓慢前进,如图2所示。

      优点:有助于在相关方向上加速SGD并抑制振荡

      vt=γvt1+ηθJ(θ)v_t = \gamma v_{t-1} + \eta \nabla_\theta J( \theta)
      θ=θvt\theta = \theta - v_t

      γ\gamma 一般为0.9。

    动量项增加了梯度指向相同方向的维度,并减少了梯度改变方向的维度的更新。因此,我们得到了更快的收敛和减少振荡。

    1. Nesterov accelerated gradient (NAG)
      一个盲目地沿着斜坡滚下山的球是不够的。我们想要一个更聪明的球,它知道在山再次上坡之前减速。
      vt=γvt1+ηθJ(θγvt1)v_t = \gamma v_{t-1} + \eta \nabla_\theta J( \theta - \gamma v_{t-1} )
      θ=θvt\theta = \theta - v_t

      基于参数未来的大致位置来更新而不是基于参数当前位置来更新。
      这种预期性的更新阻止了我们走得太快,从而提高了灵敏度,在RNN中取得了很好的效果。
      蓝线为momentum,绿线为NAG。
      在这里插入图片描述
      现在,我们能够根据损失函数的斜率调整更新,并反过来加速SGD。我们还希望根据每个参数的重要性调整更新。

    2. Adagrad 2010
      与频繁出现的feature相关的参数学习率较小;较少出现的feature相关的参数学习率较大。

      可用于训练word embedding模型,因为不经常使用的单词需要比经常使用的更新大得多。

    θt+1,i=θt,iηGt,ii+ϵgt,i\theta_{t+1, i} = \theta_{t, i} - \dfrac{\eta}{\sqrt{G_{t, ii} + \epsilon}} \cdot g_{t, i}

    Gt包括过去梯度的平方和。
    

    Adagrad的主要好处之一是它消除了手动调整学习速度的需要。大多数初始学习率设为0.01。

    问题:学习率会越来越小并趋于0。

    1. Adadelta(自适应学习率调整)2012
      adadelta将累积过去梯度的窗口限制为一定的固定大小w。
      E[g2]t=γE[g2]t1+(1γ)gt2E[g^2]_t = \gamma E[g^2]_{t-1} + (1 - \gamma) g^2_t
      用E代替G。

      RMS[Δθ]t=E[Δθ2]t+ϵRMS[\Delta \theta]_{t} = \sqrt{E[\Delta \theta^2]_t + \epsilon}

      Δθt=RMS[Δθ]t1RMS[g]tgt\Delta \theta_t = - \dfrac{RMS[\Delta \theta]_{t-1}}{RMS[g]_{t}} g_{t}

      θt+1=θt+Δθt\theta_{t+1} = \theta_t + \Delta \theta_t

    优点:不需要设置学习率。AdaDelta在训练初期和中期,具有非常不错的加速效果。

    问题:到训练后期,进入局部最小值雷区之后,AdaDelta就会反复在局部最小值附近抖动。

    1. RMSprop
      E[g2]t=0.9E[g2]t1+0.1gt2E[g^2]_t = 0.9 E[g^2]_{t-1} + 0.1 g^2_t
      θt+1=θtηE[g2]t+ϵgt\theta_{t+1} = \theta_{t} - \dfrac{\eta}{\sqrt{E[g^2]_t + \epsilon}} g_{t}
      初始学习率设为0.01

    2. Adam(Adaptive Moment Estimation)
      存储m类似动量,存储v类似RMSprop
      mt=β1mt1+(1β1)gtm_t = \beta_1 m_{t-1} + (1 - \beta_1) g_t
      vt=β2vt1+(1β2)gt2v_t = \beta_2 v_{t-1} + (1 - \beta_2) g_t^2

      m用于估计mean,v用于估计uncentered variance。
      为消除数据初始化的bias:

      m^t=mt1β1t\hat{m}_t = \dfrac{m_t}{1 - \beta^t_1}
      v^t=vt1β2t\hat{v}_t = \dfrac{v_t}{1 - \beta^t_2}
      更新法则如下:
      θt+1=θtηv^t+ϵm^t\theta_{t+1} = \theta_{t} - \dfrac{\eta}{\sqrt{\hat{v}_t} + \epsilon} \hat{m}_t

      0.9 for β1, 0.999 for β2, Adam在众多自适应算法中最受欢迎。Adam, finally, adds bias-correction and momentum to RMSprop. 
      
    3. AdaMax
      将l2 norm拓展到lp norm,u代替v没有bias。
      ut=max(β2vt1,gt)u_t = \max(\beta_2 \cdot v_{t-1}, |g_t|)
      θt+1=θtηutm^t\theta_{t+1} = \theta_{t} - \dfrac{\eta}{u_t} \hat{m}_t

    4. AMSGrad
      Adam的问题:It has been observed that some minibatches provide large and informative gradients, but as these minibatches only occur rarely, exponential averaging diminishes their influence, which leads to poor convergence.
      解决:用max替换原来平方相加得到的v
      vt=β2vt1+(1β2)gt2v_t = \beta_2 v_{t-1} + (1 - \beta_2) g_t^2
      v^t=max(v^t1,vt)\hat{v}_t = \text{max}(\hat{v}_{t-1}, v_t)
      最终公式:
      θt+1=θtηv^t+ϵmt\theta_{t+1} = \theta_{t} - \dfrac{\eta}{\sqrt{\hat{v}_t} + \epsilon} m_t

    在小数据集和CIFAR-10上比Adam效果好,但其他数据集上效果变差。
    

    鞍点和loss surfuce contour情况下自适应学习率的方法效果更好。

    1. 怎么选优化器
      1)输入数据稀疏:自适应优化器
      2)SGD通常可以找到一个最小值,但它可能比某些优化器需要更长的时间,更依赖于一个健壮的初始化和学习率更新计划,并且可能陷入鞍点而不是局部极小值。

    2. 训练SGD的trick
      1)并行分布的SGD:用于稀疏数据(互不影响)
      2)shuffle:每个epoch之后打乱训练数据
      3)Curriculum Learning:sort训练数据,以逐步变难的顺序
      4)Batch norm:为了便于学习,我们通常通过用零均值和单位方差初始化参数的初始值来规范化参数的初始值。随着训练的进展,我们将参数更新到不同的程度,我们会失去这种标准化,这会减慢训练速度,并随着网络的深入而扩大变化。

      Batch norm通过将规范化作为模型体系结构的一部分,我们可以使用更高的学习率,对初始化参数更鲁棒。批量规范化减少(有时甚至消除)Dropout的需要。
      5)early stop
      6)gradient noise

    为什么参数的随机初始化比全0初始化好

    1. 用普通SGD训练时,同样的loss对每一层的反馈一样,没有区分性。
    2. 在逼近不同的局部最优点的时候,全0初始化只有一个固定的初始化点,不一定能找到合适的局部最优。随机初始化提供了更多可能性。
    展开全文
  • <tr> <td colspan=" 7">企业性质 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;<input type="checkbox" <php> if( strstr($tal['qiyexin...
     <tr>
                <td colspan=" 7">企业性质
                    &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;<input type="checkbox"
                    <php> if( strstr($tal['qiyexingzhi'],'1') !== false ) echo checked ;</php>
                    >国有企业
                    &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;<input type="checkbox"  
                    <php> if( strstr($tal['qiyexingzhi'],'2') !== false ) echo checked ;</php>
                    >民营企业 
                    &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;<input type="checkbox"
                    <php> if( strstr($tal['qiyexingzhi'],'3') !== false ) echo checked ;</php>
                    >中外合资企业
                    &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;<input type="checkbox"  
                    <php> if( strstr($tal['qiyexingzhi'],'4') !== false ) echo checked ;</php>
                    >外商独资企业
                    &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;<input type="checkbox"  
                    <php> if( strstr($tal['qiyexingzhi'],'5') !== false ) echo checked ;</php>
                    >其他
                </td>
            </tr>
    
    展开全文
  • 从事嵌入式开发多年,最近在做后台相关相关的开发,现在很多程序员在学校或者入行之前都会考虑是选择前端开发还后台研发,很多女生或者基础不是很好的学生一般会选择前端开发,...从性质上讲后台开发编程语言的种类...
  • 沙质土壤的物理性质较差,会导致... 两项实验表明,与对照组相比,CMS对总孔隙率(TP),堆积密度(Bd),缓慢排水孔(SDP),持水孔和(WHP)有效水(AW)的影响显着。 与两个实验中的对照相比,CMS对快速排水孔(Q
  • 有关土壤深度,玉米生长成分(植物高度,叶数,叶面积指数和土壤湿度)的土壤物理性质(抗渗透性(PR),堆积密度(BD),总孔隙度(TP)和饱和水导率(Ks))的数据分别在种植后60、75和125天收集干根重量,并收集...
  • 第6章 热力性质的实验测定 6.1 单一物质的p−v−Tp-v-Tp−v−T热力学关系图 6.2 p−v−Tp-v-Tp−v−T关系的实验测定方法 6.3 p−v−Tp-v-Tp−v−T测试系统 6.4 饱和蒸汽压测定 6.5 饱和气液密度和临界密度的测...
  • Treap树

    2018-05-22 12:07:00
    Treap树包含所有二叉树的性质,但是以一个随机的优先值排序。《算法导论》关于这个Treap树的原理和实现描述非常少,我就直接给代码吧,原理大家自己百度了。 首先定义的个类 template <typename T> class...
  • 在这项工作中,已经开发出用于热塑性(TP)复合材料的制造工具。... 研究表明,除了工艺参数和经纱芯中的孔隙率分布外,浸渍质量还取决于组分的表面性质。 已经进行了退浆处理以改善TP基质对纤维的润湿性。
  • MIT 18.06 linear algebra 第十八讲笔记 第十八课课程要点: Determinant detA=|A|detA=|A|detA=|A| Properties 1-10 ...课程首先介绍了关于行列式的十大性质: ...如置换矩阵detP=1or−1detP=1or−1detP...
  • 4-3 array源码分析

    2021-04-02 15:19:39
    array底层就是一个定长数组,给定长数组加上迭代器相关的东西,就可以让他像一个容器,符合容器的性质。 #define _NOEXCEPT noexcept template<class _Tp, size_t _Size> struct array { // types: typedef...
  • thinkphp phpexcel导出

    2016-09-20 13:41:00
    近期做一个项目涉及到商品信息的批量导出与导入,遂记录了下来,框架是tp框架3.2.3(tp5.0性质是一样的,无非是加载方法与所放目录不一样罢了),运用的是phpexcel,闲话不多说,上代码 1、首先是下载phpexcel...
  • “翻天覆地”

    2019-02-18 17:04:08
    自从尝试了nth-child的用法,现在结合CSS3的函数性质来做一个有意思考眼力的“小游戏”。 结构如下: 这结构就和上次的大同小异,就多了几张图片而已。 结构的关系可以这样理解:tp&gt;tp0+tp1 样式如下: ...
  • [模板]笛卡尔树

    2019-01-26 09:29:00
    很好理解,也很好写,只要知道它的两个性质就可以自己yy了 1.堆性质 2.中序遍历序列就是原序列 代码如下: #include <bits/stdc++.h> using namespace std;...int stk[N+5], tp; void build() { ...
  • Determinants properties 1 detI=1detI=1detI = 1 ∣∣∣1001∣∣∣=1|1001|=1 \left| \begin{matrix} 1 & 0 \\ 0 & 1 \end{matrix} \right| = 1 ...由这个性质,我们可以得到detP...
  • 精品文档可编辑 值得下载 基于PageRank元算法的社会网络的属性研究 摘 要 对网络的基本性质的探测是对网络深入研究的基本模式和前提条件文章对社会网整体网的几种属性展开阐述和分析为整体网的理解和探索提供启发式...
  • 利用\(Height\)的性质维护一个单调栈即可。 #include <bits/stdc++.h> using namespace std; #define LL long long const int N = 1000010; int n, m = 1000000, q, s[N], sa[N], tp[N]; int rk...
  • 学习思路之ONETHINK

    2017-11-12 02:21:00
    TP官方为了测试该框架,写了一个ONEThink,是可以学习下的 不太推荐使用这个,感觉就是测试性质。但是你可以体会下他的设计思路,继续深化思考,就可以重新写一个适合自己的。 比如:测试各种环境,用数组组合一下...
  • 命名空间简单的理解

    2014-03-12 17:44:00
    因为接触到TP3.2版本,所以需要性质的了解了一些命名空间 命名空间简单的被我理解为就是可以为相同的变量、函数和类找到别名,这样就不会出现系统错误,其他的都还是一样的。 首先创建命名空间 file1.php <?...
  • OSI七层模型

    2019-09-29 13:07:50
    应用层确定进程之间通信的性质,以满足用户的需要。应用层不仅要提供应用进程所需要的信息交换和远程操作,而且还要作为应用进程的用户代理,来完成一些为进行信息交换所必需的功能。它包括:文件传送访问和管理FTAM...
  • 后缀数组-学习

    2019-08-28 21:47:26
    ## 后缀数组(suffix array) 求的是每个后缀的排名,我们可以使用倍增法跟DC3,前者...tp[i]: 第二关键字,性质同sa[i] rak[i]: 第i个后缀的排名 tax[i]: 排序是需要用到的桶(基数排序) 排序部分 void Qsort() { for(...
  • 1.性质 注明:det是行列式的简写 det I=1det\,I = 1detI=1 ∣1001∣=1\begin{vmatrix}1&0\\0&1\end{vmatrix} = 1∣∣∣∣​10​01​∣∣∣∣​=1 交换两行,行列式的符号变号. 交换偶数行, det P=...
  • 详细说明一下,osi模型从第7层到第1层依次是: 第7层 应用层:OSI中的最高层。为特定类型的网络应用提供了访问OSI环境的手段。...它包括:文件传送访问和管理FTAM、虚拟终端VT、事务处理TP、远程数据库访问RD
  • 计算机网络

    2020-04-16 22:17:44
    应用层确定进程之间通信的性质,以满足用户的需要。应用层不仅要提供应用进程所需要的信息交换和远程操作,而且还要作为应用进程的用户代理,来完成一些为进行信息交换所必需的功能。它包括:文件传送访问和管理FTAM...
  • 应用层确定进程之间通信的性质,以满足用户的需要。应用层不仅要提供应用进程所需要的信息交换和远程操作,而且还要作为应用进程的用户代理,来完成一些为进行信息交换所必需的功能。它包括:文件传送访问和管理FTAM...

空空如也

空空如也

1 2 3
收藏数 43
精华内容 17
关键字:

tp性质