精华内容
下载资源
问答
  • 误差的定义

    千次阅读 2021-02-19 16:11:08
    常见误差: 系统误差(固定误差)、随机误差、可变误差、绝对误差、相对误差

    几种误差
    误差来源分:系统误差/固定误差、随机误差/可变误差、毛误差
    误差统计分:绝对误差、相对误差

    系统误差 systematic error =< 固定误差 constant error / fixed error
    a constant error – also known as a systematic error – is a source of error that causes measurements to deviate consistently from their true value. Constant errors cause the same amount of deviation in one direction only.
    导致测量结果往某个固定方向产生相同幅度的偏差。
    特点:不变性、隐秘性、重复不可消除
    Constant errors are difficult to identify because they remain unchanged – provided, of course, that experimental conditions and instrumentation remain unchanged – regardless of how many times you repeat an experiment. Furthermore, although constant errors introduce a constant bias into the mean or median of experimental data, no statistical analysis of the data can detect a constant error.
    Constant error
    When the results of a series of observations are in error be the same amount, the error is said to be a constant error. Systematic error due to faulty apparatus causes a constant error.
    Systematic error
    The error caused due to imperfect measurement technique, defective or imperfect apparatus or some personal reasons is called systematic error.

    参考链接1: https://sciencing.com/difference-between-systematic-random-errors-8254711.html
    参考链接2:https://thefactfactor.com/facts/pure_science/physics/errors-and-their-types/9495/

    固有误差,指"在参考条件下确定的测量仪器的误差"(7.24条)。
    固有误差通常也可称为基本误差,它是指测量仪器在参考条件下所确定的测量仪器本身所具有的误差。主要来源于测量仪器自身的缺陷。固有误差的大小直接反映了该测量仪器的准确度。一般固有误差都是对示值误差而言,因此固有误差是测量仪器划分准确度的重要依据。
    固有误差是相对于附加误差而言的。附加误差就是测量仪器在非标准条件下所增加的误差。额定操作条件、极限条件等都属于非标准条件。

    测量的误差来源可以分为系统误差(又称可定误差)、随机误差(又称未定误差)和毛误差(Gross error,又称过失误差)。
    恒定系统偏差
    可变系统偏差
    参考:系统偏差–百度百科

    随机误差 random error = 偶然误差 accident error
    random errors, which causes measurements to deviate by varying amounts – either higher or lower than their true values.
    An error in measurement caused by factors which vary from one measurement to another is called random error.
    统计学上服从正态分布。

    可变误差 variable error
    the variability of a subject’s estimates of an objective magnitude measured by their average deviation.

    绝对误差 absolute error = 某值与参考值(如 均值)的差值 =测量值-真值
    The magnitude of the difference between the most probable value (Mean) and the individual measurement is called the absolute error of the measurement.
    The arithmetic mean of the all the absolute errors is called as the final absoluate error.
    Final absolute error = Sum of all absolute error / Total number of absolute errors.

    相对误差 relative error =某值与参考值的差值 与该参考值的比值 = 绝对误差与真值的百分比
    The ratio of the absolute error in the measurement of a quantity with the most probable value is called as a relative error.
    Relative error = Final absolute error / Most probable value.

    If relative error is multiplied by 100, the value obtained is called a percentage relative error.
    Percentage relative error = Relative error *100.

    标称误差 =(最大的绝对误差)/量程 x 100%
    偏差是指"一个值减去其参考值"。对于实物量具而言,偏差就是实物量具的实际值对于标称值偏离的程度,即偏差=实际值-标称值。
    误差为示值(标称值)-实际值。
    修正值是指为清除或减少系统误差,用代数法加到未修正测量结果上的值。
    三者关系:误差=-偏差;误差=-修正值;修正值=偏差。
    参考链接:https://baike.so.com/doc/4348439-4553618.html

    基值误差
    指"为核查仪器而选用在规定的示值或规定的被测量值处的测量仪器误差"。
    零值误差
    指"被测量为零值的基值误差"。

    展开全文
  • 常见分类方法

    万次阅读 2016-12-30 10:29:19
    本文只对常见的分类方法做简单介绍,详细的讲解和算法网上有很多资源,文中会给出推荐链接。 Content 1. 决策树分类(链接:http://blog.csdn.net/github_36299736/article/details/52749999) 2. 基于规则...

    本文只对几种常见的分类方法做简单介绍,详细的讲解和算法网上有很多资源,文中会给出推荐链接。

    Content

    1.      决策树分类(链接:http://blog.csdn.net/github_36299736/article/details/52749999

    2.      基于规则分类

    3.      最邻近分类(K-NN)

    4.      朴素贝叶斯分类器

    5.      人工神经网络

    6.      支持向量机(SVM)

     

    1. 基于规则的分类器

    简单来说,基于规则的分类器就是使用一组“if… then …”的组合来进行分类的技术。通常用R =( r1˅ r2 ˅ … ˅ rk)来表示,其中 ri 就是分类的规则。

    以上图为例,r1  类就可以用如下规则判断:

            If (胎生 = 否 & 飞行动物 = 是)then (类别 = 鸟类)

    度量分类规则的质量可以用覆盖率(coverage)和准确率(accuracy)。覆盖率就是满足规则的记录数占总记录数的比例,准确率就是使用该规则正确分类的比例。

    基于规则分类还有以下两个重要的规则:

            互斥规则(Mutually Exclusive Rule)和穷举规则(Exhaustive Rule)

    互斥规则:规则集中不存在两条规则被同一条记录触发。简单说就是保证同一条记录不会同时属于两个类别。

    穷举规则:对于属性值的任一组合,R中都存在一条规则加以覆盖。即每一条记录都保证能以其中一种规则加以分类。

    这两个性质就可以保证每条记录被且仅被一条规则覆盖。但是实际情况下,分类器可能无法满足这两条性质。对于不能穷举的规则集,我们可以通过设定一个默认规则来覆盖不能被分类的记录。对于不互斥的规则集,我们可以通过建立优先级或者为规则加权等方式来解决。

     

    2. 最邻近分类器

    最邻近分类器是一种简单且常用的分类器。也就是我们常说的K-NN分类算法。它的原理非常简单,即根据与测试数据最近的K个点的类别,采用多数表决方案来确定该测试数据的分类

    以上图为例,1-最邻近(图a)中可以看到与测试数据最近的一个点为负,所以该测试点被指派到负类。2-最邻近(图b)中,与测试数据最近的两点为一正一负,可以随机选择其中一个类别。3-最邻近(图c)中,最近的三个点为两正一负,根据多数表决方案,该点被指派为正。

    从上述例子中就可以看到该算法中k值的选取非常关键。K值太小,结果容易受到数据中噪声的影响从而产生过拟合。K值太大,容易导致误分类,因为结果可能会受到距离测试数据点非常远的数据的影响。(如下图)

    算法描述如下:

    也可以对不同距离的数据点进行加权,从而提高分类的准确率。

     

    3. 朴素贝叶斯分类器

    了解朴素贝叶斯分类,首先要知道贝叶斯定理,也就是我们比较熟悉的条件概率。参考:http://blog.csdn.net/github_36299736/article/details/52800394

    朴素贝叶斯分类器的工作原理就是计算测试数据被分给各个类别的条件概率(后验概率),并将该记录指派给概率最大的分类。

    让我们用之前在决策树分类中使用过的例子来分析:

    假定一个测试数据,该测试数据的属性集可以表示为:X= {有房=否,婚姻状况=已婚,年收入=120k},我们需要将该数据分类到两个类别之一,即 Y = {拖欠贷款=是,拖欠贷款=否}。那么我们需要做的就是分别计算两种分类情况下的后验概率 P (Y|X) 。 P1 = P (拖欠贷款 = 是|X) 和P2 = P (拖欠贷款 = 否|X) ,如果P1 >P2,则记录分类为拖欠贷款 = 是,反之分类为拖欠贷款 = 否。

    朴素贝叶斯分类器更通常的表示方法:给定类标号 y,朴素贝叶斯分类器在估计条件概率时假设属性之间条件独立,若每个属性集(数据)包含d个属性X = { X1,X2,…,Xd } ,那么每个类Y的后验概率计算公式为:

    由于P(X)是固定值,因此只要找出分子最大的类就可以了。

    对于连续属性的条件概率,可以用以下两种方法来估计它的类条件概率:

    1.      把连续的属性离散化,然后用相应区间来替代连续的属性值;

    2.      假设连续变量服从某种概率分布(例如:高斯分布),然后使用训练数据估计分布的参数。

     

    4. 人工神经网络(ANN)

    类似于人脑由神经元及轴突构成的结构,人工神经网络由相互连接的结点和有向链构成。最简单的ANN模型是感知器(perceptron)。

    以上图为例,b即为一个感知器,其中,x1, x2, x3 分别为三个输入结点,在本例中表示三个输入的布尔值,还有一个输出结点。结点通常叫做神经元或单元。感知器中,每个输入结点都通过一个加权链连接到输出结点。加权链就像神经元间连接的强度,训练一个感知器模型就相当于不断调整链的权值,直到能拟合训练数据的输入输出关系为止

    感知器对输入加权求和,再减去偏置因子 t,然后考察得到的结果,得到输出值 ŷ。

    上图中分类依据为如果三个输入值中至少两个0,y取-1,至少有两个1时,y取1. 它的感知器的输出计算公式如下:

    更通用的数学表达方式是:

    其中,w1, w2, …, wd 是输入链的权值,x1, x2, …, xd 是输入属性值。

    还可以写成更简洁的形式:

    其中,w0 = -t,x0 = 1. w · x 是权值向量 w 和输入属性向量 x 的点积。

     

    多层人工神经网络

    多层神经网络相比于感知器要复杂得多,首先,网络的输入层和输出层之间可能包含多个隐藏层,隐藏层中包含隐藏结点。这种结构就叫做多层神经网络。感知器就是一个单层的神经网络

    除此之外,网络还可以使用其他激活函数(如S型函数,双曲线正切函数,符号函数等)使得隐藏结点和输出结点的输出值和输入参数呈非线性关系。

    直观上,我们可以把每个隐藏结点看成一个感知器,而每个感知器可以构造出一个超平面用于分类。如下图a中所构造的两个超平面。

    ANN学习算法的目标函数是找出一组权值w,使得误差平方和最小:

     

    对于激活函数是线性函数的情况,可以将ŷ =w · x 带入上式将其变成参数的二次函数,就可以找出全局最小解。当输出是参数的非线性函数的时候,可以采用梯度下降法来优化。

    关于神经网络的更多内容,我推荐这一篇文章,来自知乎专栏,作者:YJango,链接:https://zhuanlan.zhihu.com/p/22888385

     

    5. 支持向量机(SVM)

    SVM是现在倍受关注的分类技术,可以很好地适用于高维数据。它的特点是,使用训练实例的一个子集来表示决策边界,该子集就是支持向量。那么为什么把一个决策边界叫做“向量”呢?首先从最大边缘超平面这个概念开始了解。

    假设这是一个数据集,其中包含两类数据,分别用方块和圆来表示。非常直观地看到,我们很容易在两组数据之间找到无限个超平面(本例中是一条直线),使得不同类的数据分别在这个超平面的两侧。

    但是,有一些超平面的选择在测试未知数据时的效果可能并不好,比如下图中的红色线:

    可以看到,只要测试数据稍稍偏离一点,就容易导致分类错误。因此,我们要在这无数条分界线中找到一条最优解,使它到两边的边距最大。(如下图)

    如果将这些数据点放在坐标系中,边缘的点可以以向量的形式来表示:

     

    其中,用红色圈起来的数据点就是support vector,这也就是SVM这个算法名称的由来。

    关于支持向量机,有一系列非常好的博客可以参考,作者:pluskid,链接:http://blog.pluskid.org/?page_id=683

     

    其实常用分类方法还有很多,例如AdaBoost,以及不同分类方法的组合。本文只是参考书中内容对几种常见分类算法做了入门级介绍,可以根据实际的学习和工作需要做深入研究并择优使用。 感谢阅读。

     

    参考:《数据挖掘导论》第五章 分类:其他技术

    展开全文
  • 统计学---数据的误差

    千次阅读 2019-10-21 15:52:24
    数据的误差分为两: 1.抽样误差 是一种随机性误差; 引起:抽样的随机性; 只出现在概率抽样中; 只要采用概率抽样,抽样误差就是不可避免的; 抽样误差是可计算的; 抽样误差是可控制的,主要通过改变样本...

    数据的误差分为两类:

    1.抽样误差

    是一种随机性误差;
    引起:抽样的随机性
    只出现在概率抽样中;
    只要采用概率抽样,抽样误差就是不可避免的
    抽样误差是可计算的
    抽样误差是可控制的,主要通过改变样本量来控制;

    2.非抽样误差

    出现在概率抽样、非概率抽样、全面调查中;
    可控制,但不可计算;
    非抽样误差可分为:

    1. 抽样框误差
      只出现在概率抽样中(因为只有概率抽样需要抽样框)。
    2. 回答误差
      主要有理解误差、记忆误差、有意识误差。
      记忆误差,是一种随机误差,最终结果是具有趋中的倾向;
      有意识误差,是一种系统误差,偏向一个方向;
    3. 无回答误差
      有时是随机的,有时是系统的。
      不因调查内容的无回答是随机的,可通过增大样本量来解决;
      因调查内容的无回答是系统性误差。
    4. 调查员误差
    5. 测量误差
    展开全文
  • 常见机器学习分类

    千次阅读 2019-03-15 20:24:17
    机器学习无疑是当前数据...本文为您总结一下常见的机器学习算法,以供您在工作和学习中参考。 机器学习的算法很多。很多时候困惑人们都是,很多算法是一算法,而有些算法又是从其他算法中延伸出来的。这里,我们...

    https://blog.csdn.net/sinat_31337047/article/details/78247609

    机器学习无疑是当前数据分析领域的一个热点内容。很多人在平时的工作中都或多或少会用到机器学习的算法。本文为您总结一下常见的机器学习算法,以供您在工作和学习中参考。

    机器学习的算法很多。很多时候困惑人们都是,很多算法是一类算法,而有些算法又是从其他算法中延伸出来的。这里,我们从两个方面来给大家介绍,第一个方面是学习的方式,第二个方面是算法的类似性。

    学习方式
    根据数据类型的不同,对一个问题的建模有不同的方式。在机器学习或者人工智能领域,人们首先会考虑算法的学习方式。在机器学习领域,有几种主要的学习方式。将算法按照学习方式分类是一个不错的想法,这样可以让人们在建模和算法选择的时候考虑能根据输入数据来选择最合适的算法来获得最好的结果。

    监督式学习:
     

    在监督式学习下,输入数据被称为“训练数据”,每组训练数据有一个明确的标识或结果,如对防垃圾邮件系统中“垃圾邮件”“非垃圾邮件”,对手写数字识别中的“1“,”2“,”3“,”4“等。在建立预测模型的时候,监督式学习建立一个学习过程,将预测结果与“训练数据”的实际结果进行比较,不断的调整预测模型,直到模型的预测结果达到一个预期的准确率。监督式学习的常见应用场景如分类问题和回归问题。常见算法有逻辑回归(Logistic Regression)和反向传递神经网络(Back Propagation Neural Network)

    非监督式学习:


    在非监督式学习中,数据并不被特别标识,学习模型是为了推断出数据的一些内在结构。常见的应用场景包括关联规则的学习以及聚类等。常见算法包括Apriori算法以及k-Means算法。

    半监督式学习:


    在此学习方式下,输入数据部分被标识,部分没有被标识,这种学习模型可以用来进行预测,但是模型首先需要学习数据的内在结构以便合理的组织数据来进行预测。应用场景包括分类和回归,算法包括一些对常用监督式学习算法的延伸,这些算法首先试图对未标识数据进行建模,在此基础上再对标识的数据进行预测。如图论推理算法(Graph Inference)或者拉普拉斯支持向量机(Laplacian SVM.)等。

     

    强化学习:


    在这种学习模式下,输入数据作为对模型的反馈,不像监督模型那样,输入数据仅仅是作为一个检查模型对错的方式,在强化学习下,输入数据直接反馈到模型,模型必须对此立刻作出调整。常见的应用场景包括动态系统以及机器人控制等。常见算法包括Q-Learning以及时间差学习(Temporal difference learning)

     

    在企业数据应用的场景下, 人们最常用的可能就是监督式学习和非监督式学习的模型。 在图像识别等领域,由于存在大量的非标识的数据和少量的可标识数据, 目前半监督式学习是一个很热的话题。 而强化学习更多的应用在机器人控制及其他需要进行系统控制的领域。

     

    算法类似性
     
    根据算法的功能和形式的类似性,我们可以把算法分类,比如说基于树的算法,基于神经网络的算法等等。当然,机器学习的范围非常庞大,有些算法很难明确归类到某一类。而对于有些分类来说,同一分类的算法可以针对不同类型的问题。这里,我们尽量把常用的算法按照最容易理解的方式进行分类。

    回归算法:


    回归算法是试图采用对误差的衡量来探索变量之间的关系的一类算法。回归算法是统计机器学习的利器。在机器学习领域,人们说起回归,有时候是指一类问题,有时候是指一类算法,这一点常常会使初学者有所困惑。常见的回归算法包括:最小二乘法(Ordinary Least Square),逻辑回归(Logistic Regression),逐步式回归(Stepwise Regression),多元自适应回归样条(Multivariate Adaptive Regression Splines)以及本地散点平滑估计(Locally Estimated Scatterplot Smoothing)

    基于实例的算法
     

    基于实例的算法常常用来对决策问题建立模型,这样的模型常常先选取一批样本数据,然后根据某些近似性把新数据与样本数据进行比较。通过这种方式来寻找最佳的匹配。因此,基于实例的算法常常也被称为“赢家通吃”学习或者“基于记忆的学习”。常见的算法包括 k-Nearest Neighbor(KNN), 学习矢量量化(Learning Vector Quantization, LVQ),以及自组织映射算法(Self-Organizing Map , SOM)

     

    正则化方法
     

    正则化方法是其他算法(通常是回归算法)的延伸,根据算法的复杂度对算法进行调整。正则化方法通常对简单模型予以奖励而对复杂算法予以惩罚。常见的算法包括:Ridge Regression, Least Absolute Shrinkage and Selection Operator(LASSO),以及弹性网络(Elastic Net)。

     

    决策树学习


    决策树算法根据数据的属性采用树状结构建立决策模型, 决策树模型常常用来解决分类和回归问题。常见的算法包括:分类及回归树(Classification And Regression Tree, CART), ID3 (Iterative Dichotomiser 3), C4.5, Chi-squared Automatic Interaction Detection(CHAID), Decision Stump, 随机森林(Random Forest), 多元自适应回归样条(MARS)以及梯度推进机(Gradient Boosting Machine, GBM)

     

    贝叶斯方法


    贝叶斯方法算法是基于贝叶斯定理的一类算法,主要用来解决分类和回归问题。常见算法包括:朴素贝叶斯算法,平均单依赖估计(Averaged One-Dependence Estimators, AODE),以及Bayesian Belief Network(BBN)。

     

    基于核的算法
     

    基于核的算法中最著名的莫过于支持向量机(SVM)了。 基于核的算法把输入数据映射到一个高阶的向量空间, 在这些高阶向量空间里, 有些分类或者回归问题能够更容易的解决。 常见的基于核的算法包括:支持向量机(Support Vector Machine, SVM), 径向基函数(Radial Basis Function ,RBF), 以及线性判别分析(Linear Discriminate Analysis ,LDA)等

     

    聚类算法
     

    聚类,就像回归一样,有时候人们描述的是一类问题,有时候描述的是一类算法。聚类算法通常按照中心点或者分层的方式对输入数据进行归并。所以的聚类算法都试图找到数据的内在结构,以便按照最大的共同点将数据进行归类。常见的聚类算法包括 k-Means算法以及期望最大化算法(Expectation Maximization, EM)。

     

    关联规则学习
     

    关联规则学习通过寻找最能够解释数据变量之间关系的规则,来找出大量多元数据集中有用的关联规则。常见算法包括 Apriori算法和Eclat算法等。

     

    人工神经网络
     

     

    人工神经网络算法模拟生物神经网络,是一类模式匹配算法。通常用于解决分类和回归问题。人工神经网络是机器学习的一个庞大的分支,有几百种不同的算法。(其中深度学习就是其中的一类算法,我们会单独讨论),重要的人工神经网络算法包括:感知器神经网络(Perceptron Neural Network), 反向传递(Back Propagation), Hopfield网络,自组织映射(Self-Organizing Map, SOM)。学习矢量量化(Learning Vector Quantization, LVQ)

     

    深度学习
     

    深度学习算法是对人工神经网络的发展。 在近期赢得了很多关注, 特别是百度也开始发力深度学习后, 更是在国内引起了很多关注。   在计算能力变得日益廉价的今天,深度学习试图建立大得多也复杂得多的神经网络。很多深度学习的算法是半监督式学习算法,用来处理存在少量未标识数据的大数据集。常见的深度学习算法包括:受限波尔兹曼机(Restricted Boltzmann Machine, RBN), Deep Belief Networks(DBN),卷积网络(Convolutional Network), 堆栈式自动编码器(Stacked Auto-encoders)。

     

    降低维度算法
     

    像聚类算法一样,降低维度算法试图分析数据的内在结构,不过降低维度算法是以非监督学习的方式试图利用较少的信息来归纳或者解释数据。这类算法可以用于高维数据的可视化或者用来简化数据以便监督式学习使用。常见的算法包括:主成份分析(Principle Component Analysis, PCA),偏最小二乘回归(Partial Least Square Regression,PLS), Sammon映射,多维尺度(Multi-Dimensional Scaling, MDS),  投影追踪(Projection Pursuit)等。

     

    集成算法:


    集成算法用一些相对较弱的学习模型独立地就同样的样本进行训练,然后把结果整合起来进行整体预测。集成算法的主要难点在于究竟集成哪些独立的较弱的学习模型以及如何把学习结果整合起来。这是一类非常强大的算法,同时也非常流行。常见的算法包括:Boosting, Bootstrapped Aggregation(Bagging), AdaBoost,堆叠泛化(Stacked Generalization, Blending),梯度推进机(Gradient Boosting Machine, GBM),随机森林(Random Forest)。
    --------------------- 
    作者:扶朕起来嗨 
    来源:CSDN 
    原文:https://blog.csdn.net/sinat_31337047/article/details/78247609 
    版权声明:本文为博主原创文章,转载请附上博文链接!

    展开全文
  • imu误差的效果

    千次阅读 2017-08-06 09:33:21
    首先介绍常见的概念: 1.重复性 假设所有的条件一样,对于相同的输入,传感器输出相同的值的能力(对于每次启动都相同)。陀螺仪的零偏不具有重复性。 2.稳定性 对于同样的输入,在同一次启动,输出值都是...
  • MPU6050误差分析

    千次阅读 2019-04-20 20:41:48
     首先介绍常见的概念:  1.重复性  假设所有的条件一样,对于相同的输入,传感器输出相同的值的能力(对于每次启动都相同)。陀螺仪的零偏不具有重复性。  2.稳定性  对于同样的输入,在同一次...
  • 机器学习常见算法分类,算法优缺点汇总

    万次阅读 多人点赞 2017-04-14 12:08:13
    本文为您总结一下常见的机器学习算法,以供您在工作和学习中参考。  机器学习的算法很多。很多时候困惑人们都是,很多算法是一算法,而有些算法又是从其他算法中延伸出来的。这里,我们从两个方面来给大家...
  • 陀螺仪误差分析与选型

    万次阅读 2018-04-13 11:43:45
    对于收敛的并且设计很好的滤波器,估计和去除imu的误差,能够提高姿态的精度和长期稳定性常见误差项:首先介绍常见的概念:1.重复性假设所有的条件一样,对于相同的输入,传感器输出相同的值的能力(对于每次...
  • 模型过拟合及模型泛化误差评估

    千次阅读 2018-11-26 11:14:22
    对于分类模型,我们总希望它是有低的训练误差和低的泛化误差。那么过拟合的产生机理中有哪些有意思的东西?在建立一个分类模型的过程中我们暂时对检验数据集一无所知(也就是暂时得不到真正泛化误差),那么此时我们...
  • 常见软件测试类型分类

    万次阅读 2018-09-20 09:48:05
    回归测试: (regression testing): 回归测试有两:用例回归和错误回归;用例回归是过一段时间以后再回头对以前使用过的用例在重新进行测试,看看会重新发现问题。错误回归,就是在新版本中,对以前版本中出现并修复...
  • 常见的损失函数

    千次阅读 2018-12-21 16:17:33
    转自:常见的损失函数(https://www.cnblogs.com/lliuye/p/9549881.html) 1. 损失函数、代价函数与目标函数   损失函数(Loss Function):是定义在单个样本上的,是指一个样本的误差。   代价函数(Cost ...
  • 连续调制TOF(time of flight)相机通过传感器接收连续发送给目标的连续调制波,并探测连续波的飞行(往返)时间,测得目标物距离,其图像存在多类误差来源。文章简要介绍了基于TOF的距离测量原理,同时针对误差产生...
  • 误差反向传播算法浅解

    万次阅读 2017-09-28 09:24:48
    反向传播(英语:Backpropagation,缩写为BP)是“误差反向传播”的简称。由于多层前馈神经网络的训练经常采用误差反向传播算法,人们也常把多层前馈神经网络称为BP网络。
  • 常见的预测模型

    万次阅读 多人点赞 2018-03-26 16:14:42
    常见的预测模型1.趋势外推预测方法趋势外推预测方法是根据事物的历史和现实数据,寻求事物随时间推移而发展变化的规律,从而推测其未来状况的一种常用的预测方法。 趋势外推法的假设条件是: (1)假设事物发展...
  • 机器学习常见模型的介绍

    千次阅读 2015-08-05 16:03:47
    这里我主要介绍以下种模型: k近邻法 朴素贝叶斯法 决策树 逻辑斯蒂回归 支持向量机 adaBoost方法 K近邻法原理输入:实例的特征向量 输出:实例的类别 算法描述: (1)在训练集中找出与实例最近邻的k个点,涵盖...
  • 陀螺仪误差分析、处理与选型

    千次阅读 2016-06-26 20:02:00
    首先介绍常见的概念: 1.重复性 假设所有的条件一样,对于相同的输入,传感器输出相同的值的能力(对于每次启动都相同)。陀螺仪的零偏不具有重复性。 2.稳定性 对于同样的输入,在同一次启动,输出值都是相同的...
  • 概率论常见分布

    千次阅读 2020-02-27 21:03:31
    概率论常见分布正态分布概要分析泊松分布适用范围伽玛分布对数正态分布 本文也算是一种对大学知识的回顾吧!学习数据分析看到种统计方法,没办法,过来总计一下吧,反正感觉我以后用的次数还多着哩。 正态分布...
  • 【深度学习:CNN】误差分析

    千次阅读 2017-02-16 13:19:29
     卷积神经网络使用基于梯度的学习方法进行监督训练,实践中,一般使用随机梯度下降(机器学习中常见的梯度下降方式)的版本,对于每个训练样本均更新一次权值,误差函数使用误差平方和函数,误差方式采用平方...
  • 2013-09-21 • 技术文章 • 评论 前言 即使没有计算机图形学基础知识的读者也完全不用担心您是否适合阅读此文,本文的性质...本文主要介绍常见计算机图像处理操作的原理,为了操作简便和保证平台兼容性,
  • 图像噪声的成因分类与常见图像去噪算法简介

    万次阅读 多人点赞 2018-10-17 14:01:34
    本文的内容主要介绍了常见噪声的分类与其特性。将噪声建模,然后用模型去实现各式各样的噪声。 &amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;nbsp; 实际生活中的各种照片的老
  • 关于电压环误差放大器的认识

    千次阅读 2020-04-12 23:32:02
    【开关电源连载】关于电压环误差放大器的认识 背景: 自接触开关电源三年来,从模拟芯片开始就了解到通常的开关电源控制芯片在控制上,都具有基本相似的特点:电压环控制,电流环控制。如今,这两大控制依然在电源...
  • 回归算法是试图采用对误差的衡量来探索变量之间的关系的一算法。回归算法是统计机器学习的利器。在机器学习领域,人们说起回归,有时候是指一问题,有时候是指一算法,这一点常常会使初学者有所困惑。常见的...
  • 常见种特征提取算法

    千次阅读 2019-07-01 09:08:00
    常见种特征提取算法1. LBP算法(Local Binary Patterns,局部二值模式)2.HOG特征提取算法(Histogram of Oriented Gradient)3.SIFT算子(Scale-invariant feature transform,尺度不变特征变换) 1. LBP算法...
  • 统计学——常见的假设检验

    千次阅读 2020-04-22 17:50:37
    假设检验(hypothesis testing),又称统计假设检验,是用来判断样本与样本、样本与总体的差异是由抽样误差引起还是本质差别造成的统计推断方法。显著性检验是假设检验中最常用的一种方法,也是一种最基本的统计推断...
  • 假设检验是用来判断样本与样本,样本与总体的差异是由抽样误差引起还是本质差别造成的统计推断方法。其基本原理是先对总体的特征作出某种假设,然后通过抽样研究的统计推理,对此假设应该被拒绝还是接受作出推断。 ...
  • 在盘点常见损失函数之前,有必要先说一下在很多的损失函数中都出现的三个参数,也即size_average,reduce以及reduction,并且它们三个之间还存在一定的关系。 size_average:bool类型;默认情况下,如果只有一个...
  • 在机器学习(Machine learning... learning)是三研究比较多,应用比较广的学习技术 监督学习:通过已有的一部分输入数据与输出数据之间的对应关系,生成一个函数,将输入映射到合适的输出,非监督学习:直接对输入数据
  • 常见的距离计算公式

    万次阅读 2019-10-20 10:41:59
    我们常用的距离计算公式是欧几里得距离公式,但是有时候这种计算方式会存在一些缺陷,那么就需要另外的计算方法去加以补充,本文将介绍种在机器学习中常用的计算距离。 在做很多研究问题时常常需要估算不同样本...
  • 常见卷积神经网络结构

    千次阅读 2020-08-25 17:03:56
    图3 VGG结构 针对深度络的退化问题,He 等分析认为如果网络中增加的每一个层次都能够得到优化的训练,那么误差是不应该会在网络深度加大的情况下提高的。因此,网络退化问题说明了深度网络中并不是每一个层次都得到...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 37,783
精华内容 15,113
关键字:

常见的几类误差是