精华内容
下载资源
问答
  • 参数模型与非参数模型

    万次阅读 2018-06-01 22:59:44
    参数模型、非参数模型(以及半参数模型)的概念应该源自于统计学中。统计专业中有一门课程叫做《非参数统计》,研究的对象就是秩检验、核密度估计等。在统计学中,参数模型通常假设总体(随机变量)服从某一个分布,...

    LR是参数模型,SVM是非参数模型。

    参数模型、非参数模型(以及半参数模型)的概念应该源自于统计学中。统计专业中有一门课程叫做《非参数统计》,研究的对象就是秩检验、核密度估计等。
    在统计学中,参数模型通常假设总体(随机变量)服从某一个分布,该分布由一些参数确定(比如正太分布由均值和方差确定),在此基础上构建的模型称为参数模型;非参数模型对于总体的分布不做任何假设,只是知道总体是一个随机变量,其分布是存在的(分布中也可能存在参数),但是无法知道其分布的形式,更不知道分布的相关参数,只有在给定一些样本的条件下,能够依据非参数统计的方法进行推断。
     

    从上述的区别中可以看出,问题中有没有参数,并不是参数模型和非参数模型的区别。其区别主要在于总体的分布形式是否已知。而为何强调“参数”与“非参数”,主要原因在于参数模型的分布可以有参数直接确定

    =======================================================================

    【机器学习】参数和非参数机器学习算法 - 程序猿  http://wwwbuild.net/DataScienceWeMedia/219846.html

    参数机器学习算法

    假设可以极大地简化学习过程,但是同样可以限制学习的内容。简化目标函数为已知形式的算法就称为参数机器学习算法。

    通过固定大小的参数集(与训练样本数独立)概况数据的学习模型称为参数模型。不管你给与一个参数模型多少数据,对于其需要的参数数量都没有影响。
    — Artificial Intelligence: A Modern Approach,737页

    参数算法包括两部分:

    选择目标函数的形式。
    从训练数据中学习目标函数的系数。

    对于理解目标函数来讲,最简单的就是直线了,这就是线性回归里面采用的形式:

    b0+b1<em>x1+b2</em>x2=0

    其中b0b1b2是直线的系数,其影响直线的斜度和截距,x1x2是两个输入变量。

    把目标函数的形式假设为直线极大地简化了学习过程。那么现在,我们需要做的是估计直线的系数并且对于这个问题预测模型。

    通常来说,目标函数的形式假设是对于输入变量的线性联合,于是参数机器学习算法通常被称为“线性机器学习算法”。

    那么问题是,实际的未知的目标函数可能不是线性函数。它可能接近于直线而需要一些微小的调节。或者目标函数也可能完全和直线没有关联,那么我们做的假设是错误的,我们所做的近似就会导致差劲的预测结果。

    参数机器学习算法包括:

    • 逻辑回归

    • 线性成分分析

    • 感知机

    参数机器学习算法有如下优点:

    • 简洁:理论容易理解和解释结果

    • 快速:参数模型学习和训练的速度都很快

    • 数据更少:通常不需要大量的数据,在对数据的拟合不很好时表现也不错

    参数机器学习算法的局限性:

    • 约束:以选定函数形式的方式来学习本身就限制了模型

    • 有限的复杂度:通常只能应对简单的问题

    • 拟合度小:实际中通常无法和潜在的目标函数吻合

    非参数机器学习算法

    对于目标函数形式不作过多的假设的算法称为非参数机器学习算法。通过不做假设,算法可以自由的从训练数据中学习任意形式的函数。

    当你拥有许多数据而先验知识很少时,非参数学习通常很有用,此时你不需要关注于参数的选取。
    — Artificial Intelligence: A Modern Approach,757页

    非参数理论寻求在构造目标函数的过程中对训练数据作最好的拟合,同时维持一些泛化到未知数据的能力。同样的,它们可以拟合各自形式的函数。

    对于理解非参数模型的一个好例子是k近邻算法,其目标是基于k个最相近的模式对新的数据做预测。这种理论对于目标函数的形式,除了相似模式的数目以外不作任何假设。

    一些非参数机器学习算法的例子包括:

    • 决策树,例如CART和C4.5

    • 朴素贝叶斯

    • 支持向量机

    • 神经网络

    非参数机器学习算法的优势:

    • 可变性:可以拟合许多不同的函数形式。

    • 模型强大:对于目标函数不作假设或者作微小的假设

    • 表现良好:对于预测表现可以非常好。

    非参数机器学习算法局限性:

    • 需要更多数据:对于拟合目标函数需要更多的训练数据

    • 速度慢:因为需要训练更多的参数,训练过程通常比较慢。

    • 过拟合:有更高的风险发生过拟合,对于预测也比较难以解释。

    ==========================================================================================

    能不能用简明的语言解释什么是非参数(nonparametric)模型? - 知乎  https://www.zhihu.com/question/22855599

    简单来说就是不对样本的总体分布做假设,直接分析样本的一类统计分析方法。

    通常对样本进行统计分析的时候,首先要假设他们来自某个分布,然后用样本中的数据去estimate这个分布对应的参数,之后再做一些test之类。比如你假设某个样本来自同一个正态分布,然后用样本数据估算\mu\sigma,再用估算出来的这两个值做test。

    non-pararmetric则不然,不对总体分布做假设,自然也就不必estimate相应的参数。

    链接:https://www.zhihu.com/question/22855599/answer/23556224


    ==================================


    展开全文
  • 非参数模型 机器学习Machine learning can be briefed as learning a function (f) that maps input variables (X) and the following results are given in output variables (Y). 可以将机器学习概括为学习映射...

    非参数模型 机器学习

    Machine learning can be briefed as learning a function (f) that maps input variables (X) and the following results are given in output variables (Y).

    可以将机器学习概括为学习映射输入变量(X)的函数(f),并在输出变量(Y)中给出以下结果。

    Y = f(x)

    Y = f(x)

    The machine learns from the training data to map the target function, but the configuration of the function is unknown. Different algorithms make various conclusions or biases about the function‘s structure, so our task as machine learning practitioners is to test various machine learning algorithms to see which one is effective at modeling the underlying function. Thus machine learning models are parameterized so that their behavior can be tuned for a given problem. These models can have many parameters and finding the best combination of parameters can be treated as a search problem.

    机器从训练数据中学习以映射目标功能,但是功能的配置未知。 不同的算法会对函数的结构得出不同的结论或偏见,因此作为机器学习从业者,我们的任务是测试各种机器学习算法,以查看哪种算法可以有效地对基础函数进行建模。 因此,对机器学习模型进行了参数设置,以便可以针对给定问题调整其行为。 这些模型可以具有许多参数,并且将参数的最佳组合视为搜索问题。

    Can we quickly glance introduction on parameters in Machine Learning, to get our understanding right!!:)

    我们能否快速浏览一下机器学习中的参数介绍,以使我们理解正确!:)

    What is a parameter in a machine learning model?A model parameter is a configuration variable that is internal to the model and whose value can be estimated from the given data.

    机器学习模型中的参数是什么? 模型参数是模型内部的配置变量,可以从给定数据中估计其值。

    • They are required by the model when making predictions.

      模型在进行预测时需要它们。
    • Their values define the skill of the model on your problem.

      它们的值定义了模型解决问题的技能。
    • They are estimated or learned from historical training data.

      它们是从历史训练数据中估计或学习的。
    • They are often not set manually by the practitioner.

      他们通常不是从业者手动设置的。
    • They are often saved as part of the learned model.

      它们通常被保存为学习模型的一部分。

    The examples of model parameters include:

    模型参数的示例包括:

    • The weights in an artificial neural network.

      人工神经网络中的权重。
    • The support vectors in a support vector machine.

      支持向量机中的支持向量。
    • The coefficients in linear regression or logistic regression.

      线性回归或逻辑回归中的系数。

    Machine learning algorithms are classified into two distinct groups: parametric and nonparametric models.

    机器学习算法分为两个不同的组: 参数 模型非参数模型。

    What is the parametric model?A learning model that summarizes data with a set of fixed-size parameters (independent on the number of instances of training).Parametric machine learning algorithms are which optimizes the function to a known form.

    什么是参数模型? 一个学习模型,该模型使用一组固定大小的参数来汇总数据(与训练实例的数量无关),参数化机器学习算法可以将功能优化为已知形式。

    Image for post

    In a parametric model, you know exactly which model you are going to fit in with the data, for example, linear regression line.b0 + b1*x1 + b2*x2 = 0where,b0, b1, b2 → the coefficients of the line that control the intercept and slopex1, x2 → input variables

    在参数模型中,您确切地知道要与数据拟合的模型,例如线性回归线。 b0 + b1 * x1 + b2 * x2 = 0 其中,b0,b1,b2→控制截距和斜率的直线系数x1,x2→输入变量

    Following the functional form of a linear line clarifies the learning process greatly. Now we’ll have to do is estimate the line equation coefficients and we have a predictive model for the problem. With the intercept and the coefficient, one can predict any value along with the regression.

    遵循直线的功能形式,极大地阐明了学习过程。 现在,我们要做的是估算线方程系数,并为该问题建立一个预测模型。 有了截距和系数,就可以预测任何值以及回归。

    The assumed functional form is always a linear combination of input variables and as such parametric machine learning algorithms are also frequently referred to as ‘linear machine learning algorithms.’

    假定的功能形式始终是输入变量的线性组合,因此,参数化机器学习算法也经常被称为“ 线性机器学习算法”

    The equation in algorithms is pre-defined. Feeding more data might just change the coefficients in the equations and increasing the number of instances will not make your model more complex. It becomes stable.

    算法中的方程式是预定义的。 馈入更多数据可能只会改变方程式中的系数,并且增加实例数不会使您的模型更复杂。 它变得稳定。

    Some more examples of parametric machine learning algorithms include:

    参数化机器学习算法的更多示例包括:

    • Logistic Regression

      逻辑回归
    • Linear Discriminant Analysis

      线性判别分析
    • Perceptron

      感知器
    • Naive Bayes

      朴素贝叶斯
    • Simple Neural Networks

      简单神经网络

    What is the nonparametric model?Nonparametric machine learning algorithms are those which do not make specific assumptions about the type of the mapping function. They are prepared to choose any functional form from the training data, by not making assumptions.The word nonparametric does not mean that the value lacks parameters existing in it, but rather that the parameters are adjustable and can change. When dealing with ranked data one may turn to nonparametric modeling, in which the sequence in that they are ordered is some of the significance of the parameters.

    什么是非参数模型? 非参数机器学习算法是不对映射函数的类型进行特定假设的算法。 他们准备通过不做假设从训练数据中选择任何功能形式。非参数一词并不意味着该值缺少其中存在的参数,而是参数是可调的并且可以更改。 当处理排名数据时,人们可能会转向非参数建模,在非参数建模中,对参数排序的顺序是参数的某些重要意义。

    Image for post

    A simple to understand the nonparametric model is the k-nearest neighbors' algorithm, making predictions for a new data instance based on the most similar training patterns k. The only assumption it makes about the data set is that the training patterns that are the most similar are most likely to have a similar result.

    易于理解的非参数模型是k最近邻居算法,它基于最相似的训练模式k对新数据实例进行预测。 它对数据集所做的唯一假设是,最相似的训练模式最有可能产生相似的结果。

    Some more examples of popular nonparametric machine learning algorithms are:

    流行的非参数机器学习算法的更多示例包括:

    • k-Nearest Neighbors

      k最近邻居
    • Decision Trees like CART and C4.5

      决策树,例如CART和C4.5
    • Support Vector Machines

      支持向量机

    Parametric vs. Nonparametric modeling

    参数与非参数建模

    1. Parametric models deal with discrete values, and nonparametric models use continuous values.

      参数模型处理离散值,非参数模型使用连续值。
    2. Parametric models are able to infer the traditional measurements associated with normal distributions including mean, median, and mode. While some nonparametric distributions are normally oriented, often one cannot assume the data comes from a normal distribution.

      参数模型能够推断与正态分布相关的传统测量值,包括均值,中位数和众数。 尽管某些非参数分布是正态分布的,但通常不能假设数据来自正态分布。
    3. Feature engineering is important in parametric models. Because you can poison parametric models if you feed a lot of unrelated features. Nonparametric models handle feature engineering mostly. We can feed all the data we have to those non-parametric algorithms and the algorithm can ignore unimportant features. It would not cause overfitting.

      特征工程在参数模型中很重要。 因为如果您提供许多不相关的功能,则可能会毒害参数模型。 非参数模型主要处理要素工程。 我们可以将所有数据提供给那些非参数算法,并且该算法可以忽略不重要的特征。 这不会导致过度拟合。
    4. A parametric model can predict future values using only the parameters. While nonparametric machine learning algorithms are often slower and require large amounts of data, they are rather flexible as they minimize the assumptions they make about the data.

      参数模型可以仅使用参数来预测将来的值。 尽管非参数机器学习算法通常较慢并且需要大量数据,但它们具有很大的灵活性,因为它们可以最小化对数据所做的假设。

    In this post, we have learned that parametric methods make large assumptions about the mapping of the input variables to the output variable and in turn are faster to train, require less data but may not be as powerful. Nonparametric methods make few or no assumptions about the target function and in turn require a lot more data, are slower to train, and have a higher model complexity but can result in more powerful models.

    在本文中,我们了解到参数化方法对输入变量到输出变量的映射做出了很大的假设,因而训练起来更快,需要的数据更少,但功能可能不那么强大。 非参数方法很少或根本没有关于目标函数的假设,进而需要更多的数据,训练较慢,模型复杂度较高,但可以生成更强大的模型。

    翻译自: https://medium.com/analytics-vidhya/parametric-and-nonparametric-models-in-machine-learning-a9f63999e233

    非参数模型 机器学习

    展开全文
  • 机器学习中参数模型和非参数模型理解

    千次阅读 多人点赞 2019-06-28 21:07:50
    非参数模型(non-parametric model)和参数模型(parametric model)作为数理统计学中的概念,现在也常用于机器学习领域中。 在统计学中,参数模型通常假设总体服从某个分布,这个分布可以由一些参数确定,如正态...

    写在前面

    非参数模型(non-parametric model)和参数模型(parametric model)作为数理统计学中的概念,现在也常用于机器学习领域中。
    在统计学中,参数模型通常假设总体服从某个分布,这个分布可以由一些参数确定,如正态分布由均值和标准差确定,在此基础上构建的模型称为参数模型;非参数模型对于总体的分布不做任何假设或者说是数据分布假设自由,只知道其分布是存在的,所以就无法得到其分布的相关参数,只能通过非参数统计的方法进行推断。

    所以说,参数模型和非参数模型中的“参数”并不是模型中的参数,而是数据分布的参数。 需要注意,有参数模型它的参数是有限的,可以指定出θ1,θ2,...,θn\theta_{1},\theta_{2},...,\theta_{n},而非参数模型也并不是没有参数,而是参数的数目很多,引用知乎的例子,这里的non-parametric类似单词priceless,并不是没有价值,而是价值很高。

    机器学习实际上可以总结为学习一个函数,通过输入变量映射为输出变量,由于这个函数的形式未知,所以就需要选择合适的方法来拟合这个函数。

    参数模型

    参数机器学习模型由于指定了目标函数的形式,所以可以极大地简化这个学习的过程,但是同样会限制学习的过程。所以参数机器学习模型包括两个部分:
    1、选择合适的目标函数的形式。
    2、通过训练数据学习目标函数的参数。
    举个线性回归的例子,线性回归作为常见的参数模型,它通过假设输入变量与输出变量之间具有线性关系,然后就可以设置目标函数为 Y=aX+bY = aX+b,需要做的就是通过合适的方法如最小二乘法来拟合目标函数的参数。

    引用《Artificial Intelligence: A Modern Approach》中的话来说明参数模型的特点:

    通过固定大小的参数集(与训练样本数独立)概况数据的学习模型称为参数模型。不管你给与一个参数模型多少数据,对于其需要的参数数量都没有影响。

    常见的参数机器学习模型有:
    1、逻辑回归(logistic regression)
    2、线性成分分析(linear regression)
    3、感知机(perceptron)

    参数机器学习算法有如下优点:
    1、简洁:理论容易理解和解释结果。
    2、快速:参数模型学习和训练的速度都很快。
    3、数据更少:通常不需要大量的数据,在对数据的拟合不很好时表现也不错。

    参数机器学习算法的局限性:
    1、拘束:以指定的函数形式来指定学习方式。
    2、有限的复杂度:通常只能应对简单的问题。
    3、拟合度小:实际中通常无法和潜在的目标函数完全吻合,也就是容易出现欠拟合。

    非参数模型

    非参数机器学习算法对目标函数形式不做过多的假设,因此算法可以通过对训练数据进行拟合而学习出某种形式的函数。
    引用《Artificial Intelligence: A Modern Approach》中的话来说明非参数模型的特点:

    当你拥有许多数据而先验知识很少时,非参数学习通常很有用,此时你不需要关注于参数的选取。

    常见的非参数机器学习模型有:
    1、决策树
    2、朴素贝叶斯
    3、支持向量机
    4、神经网络

    非参数机器学习算法的优势有:
    1、可变性:可以拟合许多不同的函数形式。
    2、模型强大:对于目标函数不做假设或者作出很小的假设。
    3、表现良好:对于训练样本数据具有良好的拟合性。

    非参数机器学习算法的局限性:
    1、需要更多数据:对于拟合目标函数需要更多的训练数据。
    2、速度慢:因为需要训练跟多的参数,所以训练过程通常比较慢。
    3、过拟合:有较高的风险发生过拟合,对于预测的效果解释性不高。

    总结

    1、通过对比参数模型和非参数模型的特点,可以得知参数模型对训练数据的大小要求不如非参数模型高,因为参数模型通过对拟合函数进行假设,所以只需要对参数进行拟合即可;而非参数模型由于需要从数据中发掘数据之间关系,所以对数据量要求较高。
    2、通常说到的机器学习的黑盒特性,一般指的就是非参数机器学习模型。因为它不需要做出假设,并且需要拟合很多参数,所以它的解释性就降低了。所以相比而言,参数机器学习模型由于对数据做出了理想的假设,所以得到的模型更加鲁棒,所以解释性也就更高。

    转自:

    【机器学习】参数和非参数机器学习算法
    参数模型与非参数模型

    展开全文
  • 机器学习中参数模型和非参数模型

    千次阅读 2019-08-23 20:25:23
    网上关于机器学习中的参数模型和非参数模型之间的解释并没有一个完全一致的解答, 有从是不是对数据的分布做了相关假设进行分析的 也有是从模型的参数量大小进行解答的 二者好像是一致的,但是个人觉得如下使用...

    网上关于机器学习中的参数模型和非参数模型之间的解释并没有一个完全一致的解答,

    有从是不是对数据的分布做了相关假设进行分析的

     也有是从模型的参数量大小进行解答的

    二者好像是一致的,但是个人觉得如下使用是不是对数据分布进行了假设来区分并不是特别好理解。

    非参数模型(non-parametric model)和参数模型(parametric model)作为数理统计学中的概念,现在也常用于机器学习领域中。
    在统计学中,参数模型通常假设总体服从某个分布,这个分布可以由一些参数确定,如正态分布由均值和标准差确定,在此基础上构建的模型称为参数模型;非参数模型对于总体的分布不做任何假设或者说是数据分布假设自由,只知道其分布是存在的,所以就无法得到其分布的相关参数,只能通过非参数统计的方法进行推断。

    所以说,参数模型和非参数模型中的“参数”并不是模型中的参数,而是数据分布的参数。

     

    看了各种解答之后,我觉得二者可以这样进行区分:

    一、首先需要明确的是 非参数模型并不是说模型中没有参数!

    这里的non-parametric类似单词priceless,并不是没有价值,而是价值非常高,无价,也就是参数是非常非常非常多的!(注意:所谓“多”的标准,就是参数数目大体和样本规模差不多)

    而:可以通过有限个参数来确定一个模型,这样的方式就是“有参数模型”,也就是这里说的参数模型,如线性回归、Logistic回归(假定样本维度为N,则假定N个参数theta1,theta2...thetaN)。

    二、其次:参数模型 :对学到的函数方程有特定的形式,也就是明确指定了目标函数的形式 -- 比如线性回归模型,就是一次方程的形式,然后通过训练数据学习到具体的参数。

    所以参数机器学习模型包括两个部分:
    1、选择合适的目标函数的形式。
    2、通过训练数据学习目标函数的参数。

    通常来说,目标函数的形式假设是:对于输入变量的线性联合,于是参数机器学习算法通常被称为“线性机器学习算法”。

     三、非参数机器学习算法:对于目标函数形式不作过多的假设的算法称为非参数机器学习算法。通过不做假设,算法可以自由的从训练数据中学习任意形式的函数

    对于理解非参数模型的一个好例子是k近邻算法,其目标是基于k个最相近的模式对新的数据做预测。这种理论对于目标函数的形式,除了相似模式的数目以外不作任何假设。

    四、最后:

    常见的参数机器学习模型有:
    1、逻辑回归(logistic regression)
    2、线性成分分析(linear regression)
    3、感知机(perceptron)(假设分类超平面是wx+b=0)

    参数机器学习算法有如下优点:
    1、简洁:理论容易理解和解释结果。
    2、快速:参数模型学习和训练的速度都很快。
    3、数据更少:通常不需要大量的数据,在对数据的拟合不很好时表现也不错。

    参数机器学习算法的局限性:
    1、拘束:以指定的函数形式来指定学习方式。
    2、有限的复杂度:通常只能应对简单的问题。
    3、拟合度小:实际中通常无法和潜在的目标函数完全吻合,也就是容易出现欠拟合。

     

    常见的非参数机器学习模型有:
    1、决策树
    2、朴素贝叶斯
    3、支持向量机(SVM的例子中,SVM的参数α数目和样本数目相同,从定义看来,因为参数数目和样本规模相当,所以属于无参数模型。当然,SVM通过得到支撑向量的方式,只有若干样本的参数α不为0,从这个角度,SVM还属于“稀疏模型”,这又属于另外一码事了。)
    4、神经网络

    非参数机器学习算法的优势有:
    1、可变性:可以拟合许多不同的函数形式。
    2、模型强大:对于目标函数不做假设或者作出很小的假设。
    3、表现良好:对于训练样本数据具有良好的拟合性。

    非参数机器学习算法的局限性:
    1、需要更多数据:对于拟合目标函数需要更多的训练数据。
    2、速度慢:因为需要训练跟多的参数,所以训练过程通常比较慢。
    3、过拟合:有较高的风险发生过拟合,对于预测的效果解释性不高。

    展开全文
  • 文章目录直观认识Reference 直观认识 ...非参数方法对应的模型叫做非参数模型。 Reference Pattern Recognition and Machine Learning(PRML)第二章:原书PDF下载地址(https://www.microsoft.com/
  • 转载于机器学习中参数模型和非参数模型理解 参数模型和非参数模型定义 非参数模型(non-parametric model)和参数模型(parametric model)作为数理统计学中的概念,现在也常用于机器学习领域中。在统计学中: ...
  • 今天来总结一下参数模型和非参数模型。 一、前言 参数模型(parametric model)和非参数模型(non-parametric model)作为数理统计学中的概念,现在也常用于机器学习领域。 在统计学中,参数模型通常假设总体(样本、数据...
  • 作者 Hanyu Mei 1 通俗的理解 参数化模型(parametric model) 指定目标函数(或模型)的形式,比如: 线性回归指定y=aX+by = aX+by=aX+b, ...非参数模型(non-parametric model) 对目标函数的形式不...
  • 非参数模型(non-parametric model)和参数模型(parametric model)作为数理统计学中的概念,现在也常用于机器学习领域中。在统计学中,参数模型通常假设总体服从某个分布,这个分布可以由一些参数确定,如正态分布...
  • 2018-03-31更新:生成...非参数模型:不需要事先假设规则,直接挖掘潜在数据中的规则;非参数模型例子:KNN,决策树,挖掘数据潜在的特征,所以比较灵活;参数模型缺点:受限制性高非参数模型缺点:训练时间长,容...
  • 参数模型和非参数模型的区别

    万次阅读 2015-03-01 15:17:57
    参数与非参数模型 用代数方程、微分方程、微分方程组以及传递函数等描述的模型都是参数模型。建立参数模型就在于确定已知模型结构中的各个参数。通过理论分析总是得出参数模型。非参数模型是直接或间接地从实际系统...
  • 参数模型与非参数模型1、概述2、参数机器学习算法3、非参数机器学习算法 1、概述   LR是参数模型,SVM是非参数模型。    参数模型、非参数模型(以及半参数模型)的概念应该源自于统计学中。统计专业课程《非...
  • 什么是参数模型(LR)与非参数模型(SVM)? 在统计学中,参数模型通常假设总体(随机变量)服从某一个分布,该分布由一些参数确定(比如正太分布由均值和方差确定),在此基础上构建的模型称为参数模型;非参数模型...
  • 非参数模型辅助抽样估计理论及其应用研究综述,曹伟伟,陈光慧,自2000年Breidt和Opsomer提出模型辅助条件下的非参数估计模型,国际上许多学者对非参数模型辅助估计展开了一系列研究。本文选择非参数�
  • 精算模型10 非参数模型0 精算数据、非参数建模的目标概述数据类型完整数据非完整数据数据分析目标 这是精算模型的第十部分,精算的非参数统计模型,从这一部分开始我们讨论精算建模的统计方法。在讨论统计方法的选择...
  • 我们在机器学习中学习到的很多的算法模型,都可以分为参数(parametric)和非参数(nonparametric)。理解这两个概念,并知道如何区分哪些是非参数,哪些是参数,对于你深入的理解机器学习中的算法,熟悉各算法的优...
  • 参数模型参模型的简单理解 参数模型: 参数机器学习算法假设可以最大程度地简化学习过程,与此同时也限制可以学习到是什么。这种算法简化成一个已知的函数形式,这称为参数机器学习算法,简单理解为 对学到的...
  • matlab非参数代码R-codes-DPGMM Dirichlet 过程高斯混合模型的 R 代码。 编写这些代码是为了帮助理解贝叶斯非参数模型。 这些代码中的大多数是从 Matlab 代码(可从
  • https://blog.csdn.net/sinat_27652257/article/details/80543604 https://blog.csdn.net/qq_34872215/article/details/100045336
  • 参数和非参数模型——当我谈到参数我在说些什么 FesianXu 2020/1/12 前言 参数模型和非参数模型是我们在机器学习中经常听到的术语,但是其中的“参数”却和我们通常理解的参数有所不同,本文尝试对此进行解释。如...
  • 为补偿拖体深度变化,本文提出了由外层深度升沉补偿控制系统和内层位置伺服控制系统双层结构的水下拖曳升沉补偿系统总体设计方案,运用基于紧格式线性化的非参数模型自适应控制方法设计了系统外层深度升沉补偿控制器...
  • 判别模型(discriminative model)和生成模型(generative model):预测后验概率还是联合概率 判别模型:  直接对输入空间到输出空间的映射h(x)做预测,或者直接对条件概率分布P(y|x)做预测  PM,SVM,NN,KNN,LR...
  • 1.模型是否具有固定或可变数量的参数,决定了模型是“参数模型或“参”模型。 2.对数据分布有没有做假设(下图为引用图片)
  • 论文研究-电力消费及其影响因素: 基于非参数模型的研究.pdf, 基于半参数模型和非参数模型研究了电力消费系统中各影响因素的线性以及非线性的影响效应,其结论表明:我国...
  • 在本文中,我们考虑了三种不同的模型:局部和随机波动率,局部相关性,具有随机率的混合局部波动率,并解决了它们的精确非参数校准问题。 此校准过程需要求解非线性偏积分微分方程。 使用改进的交替方向隐式算法,...
  • 参数模型与非参数模型的区别

    千次阅读 2018-09-10 15:34:03
    The distinction between parametric and non parametric is as follows: Does the number of parameters in the model grows as the number of examples in the dataset grows? Parametric Example: Linear/Ridge r...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 9,368
精华内容 3,747
关键字:

非参数模型