精华内容
下载资源
问答
  • 距离向量算法

    2019-11-25 22:46:58
    什么距离向量算法? 路由表中最重要的信息:到每个网络的距离(即最短距离),以及应经过的下跳地址。路由表更新的原则找出到每个目的网络的最短距离。这种更新算法就又称为距离向量算法。下面来具体解释: ...

    最近在学习计算机网络原理,觉得这个算法很好玩,于是便决定来研究研究它。
    什么叫距离向量算法?
    路由表中最重要的信息是:到每个网络的距离(即最短距离),以及应经过的下一跳地址。路由表更新的原则是找出到每个目的网络的最短距离。这种更新算法就又称为距离向量算法。下面来具体解释:
    对每一个相邻路由器发送过来RIP报文,进行以下步骤:
    (1)对地址为X的相邻路由器发来的RIP报文,先修改此报文中的所有项目,把“下一跳”字段的地址都改为X,并把所有的“距离”字段的值都加1。每一个项目都有三个关键数据,即:到目的网络N下一跳的路由器是X。
    (2)对修改后的RIP报文中的每一个项目,进行以下步骤:
    若原来的路由表中没有目的网络N,则把该项目添加到路由表中。
    否则(即在路由表中没有目的网络N,这是就再查看下一跳路由器地址)
    若吓一跳路由器地址是X,则把收到的项目替换原路由表中的项目。
    否则(即这个项目是:到目的网络N,但下一跳路由器·不是·X)
    若收到的项目项目中的距离d小于路由表中距离,则进行更新。
    否则什么也不做。
    (3)弱2分钟还没有收到·相邻路由器·发来的更新路由表,则把此相邻路由器记为不可达的路由器,即把距离置为16(16表示不可达)。
    (4)返回
    距离向量算法要点:设X是节点A到B的最短路径上的一个节点。若把路径A->B拆成两段路径A->X和X->B,设每一段路径A->X和X->B也都分别是节点A到X和节点X到B的最短路径。

    展开全文
  • 距离向量DV与链路状态LS算法的区别

    千次阅读 2019-10-03 21:25:02
    距离向量DV算法与链路状态LS算法最大的区别就在于...什么是距离向量:每个节点 iii 都存有该节点到其余所有节点的距离 dji(j≠i)d_{ji}(j\ne i)dji​(j​=i),这就是距离向量; Di=[d1i,...,di−1,i,di+1,i,d...

    距离向量DV算法与链路状态LS算法最大的区别就在于:前者为分布式、迭代算法,而后者为“集中式”的算法。什么意思呢?先来看一下两种算法的原理。

    距离向量路由算法(Bellman-Ford)

    什么是距离向量:每个节点 ii 都存有该节点到其余所有节点的距离 dji(ji)d_{ji}(j\ne i),这就是一个距离向量;
    Di=[d1i,...,di1,i,di+1,i,dNi]TD_i=[d_{1i}, ...,d_{i-1,i},d_{i+1,i}, d_{Ni}]^T
    算法基本原理:算法的基本原理就是基于Bellman-Ford方程进行更新(距离向量),以获得最短路径
    dji=mink(dki+djk)d_{ji}=\min_k (d_{ki}+d_{jk})
    在这里插入图片描述

    链路状态LS算法(Dijsktra)

    在算法开始前,需要知道任意两个节点之间链路状态的信息,维护一个到达源点最短路径已知的点的集合 D,每次选取最短路径并更新集合 D。
    在这里插入图片描述

    区别

    1. DV 算法中,每个节点只需要维护自身的距离向量,且只需要与自己相连的链路的状态;而 LS 算法中每个节点都需要知道所有链路的状态;
    2. DV 算法中每个节点只需要把自己的信息传给相邻节点;而 LS 算法中每个节点都需要在网络中广播自己的信息,以实现网络中每个节点都保存有整个网络完整的拓扑信息;
    3. DV 算法可以是异步的,也即不要求节点之前同步,当邻居节点信息有变时完全可以再执行以此迭代,即可更新信息;而 LS 则要求全局信息已知,也就要求所有节点的信息都是正确的;
    展开全文
  • 默认路由表: 掩码段,网络段全为0单源点最短路径:依次计算第跳到第n跳的 每跳都更新前跳的所有点的最短路由 一直到路由不再发生变化,停止下跳探索 (也贪心算法) Dijkstra

    默认路由表:
    掩码段,网络段全为0

    单源点最短路径:

    依次计算第一跳到第n跳的
    每一跳都更新前一跳的所有点的最短路由
    一直到路由不再发生变化,停止下一跳探索
    (也是贪心算法)
    Dijkstra

    展开全文
  • 支持向量算法原理(

    千次阅读 2018-06-09 17:16:41
    支持向量机( Support Vector Machine),第次看到这个算法名字的时候,内心只有个感觉,好变态,导致我刚开始一直都不敢去学习这个算法,总觉得自己学不会,可是真鼓起勇气接触段时间后,发现 个普通的SVM...

    什么是SVM?

    支持向量机( Support Vector Machine),第一次看到这个算法名字的时候,内心只有一个感觉,好变态,导致我刚开始一直都不敢去学习这个算法,总觉得自己学不会,可是真鼓起勇气接触一段时间后,发现 一个普通的SVM就是一条直线罢了,用来完美划分线性可分的两类。但这又不是一条普通的直线,这是无数条可以分类的直线当中最完美的,它的完美就在于它恰好在两个类的中间,距离两个类的点都一样远,我们称这条线为决策边界,而所谓的支持向量Support vector就是这些离分界线最近的『点』…

    支持向量机学习模型包括:
    1、线性可分支持向量机
    这是一类最简单的支持向量机模型,它要求训练数据集是线性可分的,如上图中给出的训练数据集就是线性可分的。
    2、线性支持向量机
    这类模型不要求训练数据集线性可分,但还是通过第1类的方法来做。
    3、非线性支持向量机
    这是最复杂的支持向量机,它的训练数据集本身是非线性的,但是通过线性变换,我们可以将这个数据集投射到另外一个特征空间,在新的特征空间中训练数据集变为线性可分。而这其中使用了一个非常重要的概念,叫做核技巧(Kernel Trick)。

    1、线性可分支持向量机

    要解决的问题:什么样的决策边界才是最好的呢?
    接下来我们将进行推导:
    1.1 决策边界:选出来离雷区最远的(雷区就是边界上的点,要Large Margin,不要Small Margin)
    这里写图片描述
    1.2 距离计算
    这里写图片描述
    看上图,假设决策平面为w.x+b=0.,x’,x”都是决策平面上的点,那么w为该决策平面的一个法向量,那么点x到决策平面的距离为:
    distance = w’ (x’ - x) / || w ||(一个向量在另一个向量上的投影)
    又因为:
    w’x’ + b = 0
    则 distance = | (w’x +b) | / ||w||
    数据标签定义:
    数据集:(X1,Y1)(X2,Y2)… (Xn,Yn)
    Y为样本的类别: 当X为正例时候 Y = +1 当X为负例时候 Y = -1
    决策方程: (其中 是对数据做了变换,后面继续说)
    这里写图片描述
    优化的目标:
    通俗解释:找到一个条线(w和b),使得离该线最近的点(雷区)能够最远
    将点到直线的距离化简得:这里写图片描述
    由于 所以将绝对值展开原始依旧成立)
    1.3 目标函数:
    放缩变换:对于决策方程(w,b)可以通过放缩使得其结果值|Y|>= 1
    这里写图片描述
    (之前我们认为恒大于0,现在严格了些)
    优化目标如下:
    这里写图片描述
    由于
    这里写图片描述
    只需要考虑这里写图片描述
    (目标函数搞定!)
    当前目标:
    这里写图片描述
    约束条件为:
    这里写图片描述
    常规套路:将求解极大值问题转换成极小值问题
    这里写图片描述
    下面将用拉格朗日乘子法来求解:
    这里写图片描述
    由于
    这里写图片描述
    且α大于0,则上述式子的第二部分
    这里写图片描述
    一定是大于0的,则
    这里写图片描述的值一定小于或等于这里写图片描述,所以我们应该先求得α使得这里写图片描述最大,然后求这里写图片描述最小值。
    1.4 目标函数求解
    分别对w和b求偏导,分别得到两个条件(由于对偶性质)
    这里写图片描述
    对w求偏导:
    这里写图片描述
    对b求偏导:
    这里写图片描述
    带入原始式子:
    这里写图片描述
    其中:
    这里写图片描述
    这里写图片描述
    完成了第一步求解,下面继续对α求极大值:
    这里写图片描述
    极大值转换成求极小值:
    这里写图片描述
    条件:这里写图片描述

    注意!!!:支持向量就是真正发挥作用的数据点,也即ɑ值不为0的点

    至此,可求解,看着数学公式挺多,其实解起来不难

    2. 线性支持向量机

    soft-margin(软间隔): 说的是这样一种情况,有时候数据中有一些噪音点,如果考虑它们咱们的线就不太好了,这样会使得这条决策边界变得非常窄,在训练集上的表现效果很好,在测试集上的表现很差,这个时候,为了提高分类器的性能,这些噪音点我们可以允许它距离分类边界的距离小于我们所规定的距离,用少许的犯错来获取更好的分类性能,如下图
    这里写图片描述
    也就是说,之前的方法要求要把两类点完全分得开,这个要求有点过于严格了,我们来放松一点!
    为了解决该问题,引入松弛因子:
    这里写图片描述
    那么新的目标函数就变成了:
    这里写图片描述
    其中C是我们自己设置的:
    当C趋近于很大时:意味着分类严格不能有错误,间隔小;
    当C趋近于很小时:意味着可以有更大的错误容忍,间隔大;
    拉格朗日乘子法:
    这里写图片描述
    这里写图片描述分别求偏导:
    这里写图片描述
    将上述三式带入原式中:
    这里写图片描述
    对上式求关于α的极大值, 得到:
    这里写图片描述
    约束条件为:
    这里写图片描述
    整理,得到对偶问题:
    这里写图片描述
    求得最优解

    3. 非线性支持向量机

    前面谈的都是线性可分或者线性近似可分的情况,如果,是线性不可分的情况呢?可以使用核函数,将原始低维输入空间映射到新的高维空间,从而使得原本线性不可分的样本可能在核空间可分。
    这里写图片描述
    如上图,如果我们可以把我们的原始样本点通过一个变换,变换到另一个特征空间,在这个特征空间上是线性可分的,那么上面的SVM就可以轻易工作了。也就是说,对于不可分的数据,现在我们要做两个工作:
    1)首先使用一个非线性映射Φ(x)将全部原始数据x变换到另一个特征空间,在这个空间中,样本变得线性可分了;
    2)然后在特征空间中使用SVM进行学习分类。
    我们再回头看看上面SVM的优化问题:
    这里写图片描述
    可以看到,对样本x的利用,只是计算第i和第j两个样本的内积就可以了。我们把这里的计算两个向量在映射过后的空间中的内积的函数叫做核函数 (Kernel Function),也就是两个样本xi和xj对应的高维空间的内积Φ(xi)T Φ(xj)通过一个核函数K(xi, xj)计算得到。
    对于分类决策函数,
    这里写图片描述
    也就是新来的样本x和我们的所有训练样本计算核函数即可,
    需要注意的是,因为大部分样本的拉格朗日因子αi都是0,所以其实我们只需要计算少量的训练样本和新来的样本的核函数,然后求和取符号即可完成对新来样本x的分类了。
    常用核函数:
    高斯核 (径向基函数) :这里写图片描述
    这个核就可以将原始空间映射为无穷维空间。

    展开全文
  • 文章目录前言、pandas是什么?二、使用步骤1.引入库2.读入数据总结 前言 、pandas是什么? 示例:pandas 基于NumPy 的种工具,该工具为了解决数据分析任务而创建的。 二、使用步骤 1.引入库 代码如下...
  • 基于MOOC人工智能之模式识别的课程完成的第三次作业 MATLAB实现支持向量算法(MNIST数据集) MOOC地址:人工智能之模式识别 SVM 通过学习样本寻找分类间隔边界,...这也什么这种算法被称为“支持向量机(Suppor
  • 什么是KNN算法

    万次阅读 多人点赞 2018-09-27 10:19:25
    KNN算法的思想非常简单:对于任意n维输入向量,分别对应于特征空间中的个点,输出为该特征向量所对应的类别标签或预测值。 KNN算法是一种非常特别的机器学习算法,因为它没有一般意义上的学习过程。它的工作原理...
  • Word2Vec其实就是通过学习文本来用词向量的方式表征词的语义信息,即通过个嵌入空间使得语义上相似的单词在该空间内距离很近。我们从直观角度上来理解一下,cat这个单词和kitten属于语义上很相近的词,而dog和...
  • 1,什么是一距离像? 距离像是用宽带雷达信号获取的目标散射点子回波在雷达射线上投影的向量和。对于探测搜索和跟踪静止的目标,需要提取出距离像: 频域和
  • 其中个很大的原因,不知道写什么好-_-,最近段时间看了看关于SVM(Support Vector Machine)的文章,觉得SVM是一个非常有趣,而且自成一派的方向,所以今天准备写篇关于关于SVM的文章。 关于SVM的论文、书籍...
  • 1.1 什么是支持向量机(Support Vector Machine) 对于线性可分的两类数据,支持向量机就是条直线(对于高维的数据就是个超平面)。在二维空间中,将数据分成两类的线有无数条,SVM就是这是无数条中最完美的...
  • …(好像很复杂的样子)…简单的来说,特征空间内,有一些数据点,我们想用个超平面把他们分成两半,且正类和反类到这个超平面的距离要最大,这种分类模型就是支持向量机。比如,二维空间中,我找条直线把数据点们...
  • 其中个很大的原因,不知道写什么好-_-,最近段时间看了看关于SVM(Support Vector Machine)的文章,觉得SVM是一个非常有趣,而且自成一派的方向,所以今天准备写篇关于关于SVM的文章。  关于SVM的论文、...
  • 版权声明:本文由LeftNotEasy发布于http://leftnoteasy.cnblogs.com, 本文可以被全部的转载或者部分使用,但请注明出处,如果有问题,请联系wheeleast@gmail.com。...其中个很大的原因,不知道写什么好-_...
  • 支持向量

    2020-06-28 01:09:56
    什么是支持向量什么是间隔?支持向量机求解的目标是什么? 对偶问题:求取最大间隔等价于怎样的对偶问题?KKT条件揭示出支持向量机的什么性质?如何用SMO算法进行高效求解?为什么SMO算法能高效求解? 核函数:...
  • 版权声明: ...其中个很大的原因,不知道写什么好-_-,最近段时间看了看关于SVM(Support Vector Machine)的文章,觉得SVM是一个非常有趣,而且自成一派的方向,所以今天准备写篇关于关于SVM的文章

空空如也

空空如也

1 2 3 4 5 ... 9
收藏数 175
精华内容 70
关键字:

什么是向量一距离算法