精华内容
下载资源
问答
  • matlab多元非线性回归教程
    千次阅读
    2021-04-20 05:05:55

    《matlab多元非线性回归教程》由会员分享,可在线阅读,更多相关《matlab多元非线性回归教程(2页珍藏版)》请在人人文库网上搜索。

    1、matlab回归(多元拟合)教程前言 1、学三条命令 polyfit(x,y,n)-拟合成一元幂函数(一元多次) regress(y,x)-可以多元, nlinfit(x,y,fun,beta0) (可用于任何类型的函数,任意多元函数,应用范围最主,最万能的) 2、同一个问题,这三条命令都可以使用,但结果肯定是不同的,因为拟合的近似结果,没有唯一的标准的答案。相当于咨询多个专家。 3、回归的操作步骤: 根据图形(实际点),选配一条恰当的函数形式(类型)-需要数学理论与基础和经验。(并写出该函数表达式的一般形式,含待定系数)-选用某条回归命令求出所有的待定系数。所以可以说,回归就是求待定系数的过。

    2、程(需确定函数的形式) 一、回归命令 一元多次拟合polyfit(x,y,n);一元回归polyfit;多元回归regress-nlinfit(非线性) 二、多元回归分析 对于多元线性回归模型(其实可以是非线性,它通用性极高): exxypp?110 设变量12,pxxx y的n组观测值为12(,)1,2,iiipixxxyin ? 记 ?npnnppxxxxxxxxxx?212222111211111,?nyyyy?21,则?p?10 的估计值为排列方式与线性代数中的线性方程组相同(),拟合成多元函数-regress 使用格式:左边用b=b, bint, r, rint, stats右边用=。

    3、regress(y, x)或regress(y, x, alpha) -命令中是先y后x, -须构造好矩阵x(x中的每列与目标函数的一项对应) -并且x要在最前面额外添加全1列/对应于常数项 -y必须是列向量 -结果是从常数项开始-与polyfit的不同。) 其中: b为回归系数,?的估计值(第一个为常数项),bint为回归系数的区间估计,r: 残差 ,rint: 残差的置信区间,stats: 用于检验回归模型的统计量,有四个数值:相关系数r2、F值、与F对应的概率p和残差的方差(前两个越大越好,后两个越小越好),alpha: 显著性水平(缺省时为0.05,即置信水平为95%),(alpha不。

    4、影响b,只影响bint(区间估计)。它越小,即置信度越高,则bint范围越大。显著水平越高,则区间就越小)(返回五个结果)-如有n个自变量-有误(n个待定系数),则b 中就有n+1个系数(含常数项,-第一项为常数项)(b-b的范围/置信区间-残差r-r的置信区间rint-点估计-区间估计 此段上课时不要:- 如果i?的置信区间(bint的第1i?行)不包含0,则在显著水平为?时拒绝0i?的假设,认为变量ix是显著的*(而rint残差的区间应包含0则更好)。b,y等均为列向量,x为矩阵(表示了一组实际的数据)必须在x第一列添加一个全1列。-对应于常数项-而nlinfit不能额外添加全1列。结果的系数就是与此矩阵相对应的(常数项,x1,x2,xn)。(结果与参数个数:1/5=2/3-y,x顺序-x要额外添加全1列) 而nlinfit:1/3=4-x,y顺序-x不能额外添加全1列,-需编程序,用于模仿需拟合的函数的任意形式,一定两个参数,一为系数数组,二为自变量矩阵(每列为一个自变量) 有n个变量-不准确,x中就有n列,再添加一个全1列(相当于常数项),就变为n+1列,则结果中就有n+1个系数。 x需要经过加工,如添加全1列,可能还要添加其他需要的变换数据。 相关系数r2越接近1,说明回归方程越显著;(r2越大越接近1越好)F越大,说明回归。

    更多相关内容
  • 非线性回归问题(单变量多变量)可以使用图形用户界面 (GUI) 轻松提出,该界面使用以下求解器之一解决问题: - nlinfit:仅单变量问题。 - lsqnonlin:可以处理多变量问题(个因拟合变量,ydata为矩阵)。 - ...
  • 非线性回归Python代码

    2018-07-23 21:49:33
    非线性回归是回归函数关于未知回归系数具有非线性结构的回归。常用的处理方法有回归函数的线性迭代法、分段回归法、迭代最小二乘法等。非线性回归分析的主要内容与线性回归分析相似。
  • 本文介绍如何使用python实现多变量线性回归,文章参考NG的视频和黄海广博士的笔记现在对房价模型增加更的特征,例如房间数楼层等,构成一个含有变量的模型,模型中的特征为( x1,x2,...,xn)表示为:=1,则公式...

    本文介绍如何使用python实现多变量线性回归,文章参考NG的视频和黄海广博士的笔记

    现在对房价模型增加更多的特征,例如房间数楼层等,构成一个含有多个变量的模型,模型中的特征为( x1,x2,...,xn)

    表示为:

    =1,则公式

    转化为:

    、加载训练数据

    数据格式为:

    X1,X2,Y

    2104,3,399900

    1600,3,329900

    2400,3,369000

    1416,2,232000

    将数据逐行读取,用逗号切分,并放入np.array

    #加载数据

    def

    load_exdata(filename):

    data = []

    with

    open(filename, 'r') as f:

    for line in f.readlines():

    line = line.split(',')

    current = [int(item) for item in line]

    #5.5277,9.1302

    data.append(current)

    return data

    data = load_exdata('ex1data2.txt');

    data = np.array(data,np.int64)

    x = data[:,(0,1)].reshape((-1,2))

    y = data[:,2].reshape((-1,1))

    m = y.shape[0]

    # Print out some data points

    print('First 10 examples from the dataset: \n')

    print(' x = ',x[range(10),:],'\ny=',y[range(10),:])

    First 10 examples from the dataset:

    x = [[2104 3]

    [1600 3]

    [2400 3]

    [1416 2]

    [3000 4]

    [1985 4]

    [1534 3]

    [1427 3]

    [1380 3]

    [1494 3]]

    y= [[399900]

    [329900]

    [369000]

    [232000]

    [539900]

    [299900]

    [314900]

    [198999]

    [212000]

    [242500]]

    、通过梯度下降求解theta

    (1)在多维特征问题的时候,要保证特征具有相近的尺度,这将帮助梯度下降算法更快地收敛。

    解决的方法是尝试将所有特征的尺度都尽量缩放到-1 到 1 之间,最简单的方法就是(X - mu) / sigma,其中mu是平均值, sigma 是标准差。

    (2)损失函数和单变量一样,依然计算损失平方和均值

    我们的目标和单变量线性回归问题中一样,是要找出使得代价函数最小的一系列参数。多变量线性回归的批量梯度下降算法为:

    求导数后得到:

    (3)向量化计算

    向量化计算可以加快计算速度,怎么转化为向量化计算呢?

    在多变量情况下,损失函数可以写为:

    对theta求导后得到:

    (1/2*m) * (X.T.dot(X.dot(theta) - y))

    因此,theta迭代公式为:

    theta = theta - (alpha/m) * (X.T.dot(X.dot(theta) - y))

    (4)完整代码如下:

    #特征缩放

    def

    featureNormalize(X):

    X_norm = X;

    mu = np.zeros((1,X.shape[1]))

    sigma = np.zeros((1,X.shape[1]))

    for i in

    range(X.shape[1]):

    mu[0,i] = np.mean(X[:,i]) #均值

    sigma[0,i] = np.std(X[:,i]) #标准差

    # print(mu)

    # print(sigma)

    X_norm = (X - mu) / sigma

    return X_norm,mu,sigma

    #计算损失

    def

    computeCost(X, y, theta):

    m = y.shape[0]

    J = (np.sum((X.dot(theta) - y)**2)) / (2*m)

    #C = X.dot(theta) - y

    #J2 = (C.T.dot(C))/ (2*m) #向量化计算

    return J

    #梯度下降

    def

    gradientDescent(X, y, theta, alpha, num_iters):

    m = y.shape[0]

    #print(m)

    #存储历史误差

    J_history = np.zeros((num_iters, 1))

    for

    iter

    in

    range(num_iters):

    #对J求导,得到 alpha/m * (WX - Y)*x(i),(3,m)*(m,1) X (m,3)*(3,1) = (m,1)

    theta = theta - (alpha/m) * (X.T.dot(X.dot(theta) - y))

    J_history[iter] = computeCost(X, y, theta)

    return J_history,theta

    iterations = 10000

    #迭代次数

    alpha = 0.01

    #学习率

    x = data[:,(0,1)].reshape((-1,2))

    y = data[:,2].reshape((-1,1))

    m = y.shape[0]

    x,mu,sigma = featureNormalize(x)

    X = np.hstack([x,np.ones((x.shape[0], 1))])

    # X = X[range(2),:]

    # y = y[range(2),:]

    theta = np.zeros((3, 1))

    j = computeCost(X,y,theta)

    J_history,theta = gradientDescent(X, y, theta, alpha, iterations)

    print('Theta found by gradient descent',theta)

    Theta found by gradient descent [[ 109447.79646964]

    [ -6578.35485416]

    [ 340412.65957447]]

    绘制迭代收敛图

    plt.plot(J_history)

    plt.ylabel('lost');

    plt.xlabel('iter count')

    plt.title('convergence graph')

    使用模型预测结果

    def

    predict(data):

    testx = np.array(data)

    testx = ((testx - mu) / sigma)

    testx = np.hstack([testx,np.ones((testx.shape[0], 1))])

    price = testx.dot(theta)

    print('price is %d '

    % (price))

    predict([1650,3])

    price is 293081

    机器学习(三)--------多变量线性回归(Linear Regression with Multiple Variables)

    机器学习(三)--------多变量线性回归(Linear Regression with Multiple Variables) 同样是预测房价问题  如果有多个特征值 那么这种情况下  假设h表示 ...

    机器学习 (二) 多变量线性回归 Linear Regression with Multiple Variables

    文章内容均来自斯坦福大学的Andrew Ng教授讲解的Machine Learning课程,本文是针对该课程的个人学习笔记,如有疏漏,请以原课程所讲述内容为准.感谢博主Rachel Zhang 的个人 ...

    斯坦福第四课:多变量线性回归(Linear Regression with Multiple Variables)

    4.1  多维特征 4.2  多变量梯度下降 4.3  梯度下降法实践 1-特征缩放 4.4  梯度下降法实践 2-学习率 4.5  特征和多项式回归 4.6  正规方程 4.7  正规方程及不可逆性 ...

    Ng第四课:多变量线性回归(Linear Regression with Multiple Variables)

    4.1  多维特征 4.2  多变量梯度下降 4.3  梯度下降法实践 1-特征缩放 4.4  梯度下降法实践 2-学习率 4.5  特征和多项式回归 4.6  正规方程 4.7  正规方程及不可逆性 ...

    机器学习第4课:多变量线性回归(Linear Regression with Multiple Variables)

    4.1  多维特征 目前为止,我们探讨了单变量/特征的回归模型,现在我们对房价模型增加更多的特征, 例如房间数楼层等,构成一个含有多个变量的模型,模型中的特征为(x1,x2,...,xn).

    4、、多变量线性回归(Linear Regression with Multiple Variables)

    4.1 多维特征 目前为止,我们探讨了单变量/特征的回归模型,现在我们对房价模型增加更多的特征,例如房间数楼层等,构成一个含有多个变量的模型,模型中的特征为(x1,x2,...xn) 增添更多特征后, ...

    Stanford机器学习---第二讲. 多变量线性回归 Linear Regression with multiple variable

    原文:http://blog.csdn.net/abcjennifer/article/details/7700772 本栏目(Machine learning)包括单参数的线性回归.多参数的线性回归 ...

    斯坦福机器学习视频笔记 Week2 多元线性回归 Linear Regression with Multiple Variables

    相比于week1中讨论的单变量的线性回归,多元线性回归更具有一般性,应用范围也更大,更贴近实际. Multiple Features 上面就是接上次的例子,将房价预测问题进行扩充,添加多个特征(fea ...

    多元线性回归(Linear Regression with multiple variables)与最小二乘(least squat)

    1.线性回归介绍 X指训练数据的feature,beta指待估计得参数. 详细见http://zh.wikipedia.org/wiki/%E4%B8%80%E8%88%AC%E7%BA%BF%E6% ...

    随机推荐

    Android快捷键

    Android快捷键ALT+/ :在布局文件中,提示输入的内容Shift + Ctrl +  / :注释Shift + Ctrl +  \ :解除注释

    Python3 面向对象

    Class 在Python中,定义类是通过class关键字: class Student(object): pass class后面紧接着是类名,即Student,类名通常是大写开头的单词,紧接着是( ...

    弱安全协议探测工具-sslciphercheck

    SSL(Secure Sockets Layer 安全套接层),及其继任者传输层安全(Transport Layer Security,TLS)是为 网络通信提供安全及数据完整性的一种安全协议.TLS ...

    POJ 2187 旋转卡壳 + 水平序 Graham 扫描算法 + 运算符重载

    水平序 Graham 扫描算法: 计算二维凸包的时候可以用到,Graham 扫描算法有水平序和极角序两种. 极角序算法能一次确定整个凸包, 但是计算极角需要用到三角函数,速度较慢,精度较差,特殊情况较 ...

    C#版考题

    某软件大赛C#版考题整理——[单选题]   一.单选题(10小题共20.0分) 1. 以下JavaScript代码的正确输出结果是:(). 1 2 3 4 5 6 7 8 9

    enumerate 函数用于遍历序列中的元素以及它们的下标: >>> for i,j in enumerate(('a','b','c')): print i,j 0 a1 b2 c ...

    PL/SQL Developer 导入导出操作

    一.PL/SQL Developer数据导入 Tools->Import Tables

    BugFree使用技巧 转载

    转载 2013年05月27日 17:53:45 BugFree使用技巧 我们将会从使用Ldap域账号.使用标记.发送邮件通知.更改上传附件的大小和使用快捷键来进行讲解. 使用Ldap域帐号 如果希望使 ...

    BZOJ4919:[Lydsy1706月赛]大根堆(set启发式合并)

    Description 给定一棵n个节点的有根树,编号依次为1到n,其中1号点为根节点.每个点有一个权值v_i. 你需要将这棵树转化成一个大根堆.确切地说,你需要选择尽可能多的节点,满足大根堆的性质: ...

    js登录弹出框插件

    第一步:页面引入css:

    展开全文
  • 构建非线性回归模型系列文章知识点示例注意 知识点 np.linsapce(-0.5, 0.5, 200)生成从-0.5到0.5的均匀分布的200个数据点。包含首尾 numpy中花式索引的一个实例——数据升维,即原来是1维的数据列表,经过升维后形成...
  • 压缩包里包括实现MVAR各个功能的20子函数,还有一个自己写的调用各个函数用来实现求EEG信号各通道相关性的脚本。另外还可以画出各通道相关性的图。
  • Python 非线性回归 - 树懒学堂

    千次阅读 2020-12-11 07:24:42
    1、可线性化的非线性分析变量之间的非线性形式较,较为常见的形式如下图:非线性形式的变量关系一般可以通过变量代换或转换的方式转化为线性关系。横纵轴所代表变量之间的关系为幂函数形式的关系,即可建立的模型...

    1、可线性化的非线性分析

    变量之间的非线性形式较多,较为常见的形式如下图:

    非线性形式的变量关系一般可以通过变量代换或转换的方式转化为线性关系。横纵轴所代表变量之间的关系为幂函数形式的关系,即可建立的模型为:

    其中a、β为模型参数,ε为误差项。

    在实际建模过程中,可以把上述模型左右变量同时取对数,可得:

    令y’=lny,x’=Inx,a’=Ina 可得如下模型:

    类似的,对数模型y=a+βInx+ε,可以转换成y=a+βx’+ε的线性形式;

    指数模型:

    对上式两边同时取对数,可得Iny=lna+βx+ε,再用变量代换转换为y’=a’+βx+ε的线性形式;

    逻辑斯蒂(Logistic)模型:

    可以转换为:

    再使用变量代换的形式转换成线性形式;

    抛物线模型同理也可作类似处理。

    类似的,在存在多个自变量情形下的非线性回归,也可以按照上述变量转换和代换的方式把多元非线性模型转化为多元线性模型。

    2、非线性回归模型

    对常见非线性模型进行线性转换后用线性回归的参数估计方法进行参数估计虽然较简单,但有时估计效果不理想。当对因变量y作变换时,由于线性回归的最小二乘估计是对变换后的y而不是直接对y进行估计,在此基础上估计的曲线可能会造成拟合效果并不理想。此外,有些时候变量间的曲线关系比较明显,关系式也已知,但是难以用变量变换或代换的方式将其线性化,这个时候可以考虑直接使用非线性最小二乘估计方法来估计模型参数。

    此外,非线性回归模型还有一种情况:模型中至少有一个参数不是线性的,该模型也可称之为非线性模型。如有如下模型:

    对模型右边求偏导数并利用回归模型经典假定,得到:

    由上述第二个偏导数得知,自变量对因变量的影响还会受到参数β本身的影响,而自变量β通过对因变量发生的作用并不是线性的。这种模型可称之为非线性回归模型。

    非线性模型的参数一般可以使用最小二乘及迭代算法进行估计,主要估计方法有最速下降法(Steepest-Descent)或梯度法(Gradient Method)、牛顿法( Newton Method)、修正高斯-牛顿法(Modified Gauss-Newton Method)和麦夸特法(Marquardt Method)等。一般而言, 非线性曲线的拟合程度均较高,在考虑实际数据的拟合问题时,一般的分析过程往往不会给出模型检验结果。

    展开全文
  • matlab实现一/多元非线性回归

    千次阅读 2021-01-25 17:50:50
    主函数: %单引号表示转置 ...%X代表自变量输入,u代表因变量输入,myfun为函数形式 %beta0是系数向量,不知道目的,可设置为[1,1,1] %beta即为最终参数结果 [beta,r]=nlinfit(X,y,'myfun',beta0); be

    主函数:

    %单引号表示转置
    x1=[1.1 1 1.2 1.1 0.9]';
    x2=[2 2 1.8 1.9 2.1]';
    x3=[3.2 3.2 3 2.9 2.9]';
    y=[10.1 10.2 10 10.1 10]';
    X=[x1,x2,x3];
    beta0=[1,1,1];
    %X代表自变量输入,u代表因变量输入,myfun为函数形式
    %beta0是系数向量,不知道目的,可设置为[1,1,1]
    %beta即为最终参数结果
    [beta,r]=nlinfit(X,y,'myfun',beta0);
    beta
    

    myfun函数:

    %主要表示函数形式,beta作为参数向量,x作为自变量
    function y=myfun(beta,x)
    y=beta(1)*x(:,1)+beta(2)*x(:,2)+beta(3)*x(:,3).^2;
    

    参考博客:https://blog.csdn.net/qq_42820064/article/details/86239033

    展开全文
  • 在前面只探讨了单变量/特征的回归模型,然而,在实际生活中,多重因素构成一个含有变量的模型,模型中的特征为(????1, ????1, . . . , ????????) eg: 在实际生活中,有卧室的数量,楼层的数量…都会影响房价的 ...
  • 【Matlab学习手记】多元非线性回归

    千次阅读 2019-08-16 10:46:15
    介绍两种方法做多元非线性回归:lsqcurvefit、Adagrad 法。 lsqcurvefit是Matlab提供的内置函数,用于基于最小二乘的曲线拟合问题;Adagrad是一种基于梯度的迭代方法,特点在步长不固定,随着迭代次数变化。 ...
  • matlab多元参数非线性回归模型代码输出高斯过程 输出回归 在输出回归(目标,多变量响应回归)中,我们旨在预测个实值输出变量。 一种简单的方法可能是使用单个输出回归模型的组合。 但是这种方法有...
  • matlab多元参数非线性回归模型代码Coursera机器学习与实践 记录了的研究,但添加了一些加强学习的实践。 目录 第1周 介绍 Machine Learning definition :如果某计算机程序在T上的性能(由P衡量)随着经验E的提高而...
  • 线性回归模型属于经典的统计学模型,该模型的应用场景是根据已知的变量(自变量)来预测某个连续的数值变量(因变量)。例如,餐厅根据每天的营业数据(包括菜谱价格、就餐人数、预定人数、特价菜折扣等)预测就餐...
  • 从头开始学习为Python中任意数量的变量开发多元线性回归线性回归可能是最简单的机器学习算法。对于初学者来说非常好,因为它使用简单的公式。因此,这对学习机器学习概念很有帮助。在本文中,我将尝试逐步解释多元...
  • 主要介绍了python 机器学习之支持向量机非线性回归SVR模型,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
  • spss非线性回归

    2012-12-18 14:29:29
    对各种参数因变量进行模拟时能进行模拟分析,分析出各个变量的权重,为编码提供基础
  • 基于lingo的线性回归和非线性回归

    千次阅读 2022-03-16 18:47:27
    线性回归和非线性回归的lingo编程实现 目录 1.lingo求解回归方程的特点 2.线性回归 3.非线性回归 1.lingo求解回归方程的特点 lingo作为一款求解线性和非线性方程方程组功能非常强大的软件,是求解优化模型...
  • r语言:fit1 = lm(y-x,data=xxx),fit2 = lm(y-x+I(x^2),data=xxx) summary(fit1) plot(fit1)\ 多元回归 相关关系:cor(xxx) 热图:heatmap(cor(xxx)) 非线性回归 1. 根据已知的数据绘制散点图,以此分析出数据的...
  • Langmuir方程是常用的吸附等温线方程之一,Langmuir方程参数估计有线性回归和非线性回归2种方法。以实测数据为依据,采用IBM SPSS Statistics 24.0软件进行Langmuir方程参数线性回归与非线性回归的对比分析。结果表明:...
  • 起步非线性回归是线性回归的延伸,线性就是每个变量的指数都是 1,而非线性就是至少有一个变量的指数...化非线性回归为线性回归通过变量代换,可以将很非线性回归转化为线性回归。比如目标函数假设是 y = b0 + b...
  • 线性回归 非线性回归Linear Regression is the most talked-about term for those who are working on ML and statistical analysis. Linear Regression, as the name suggests, simply means fitting a line to the...
  • 针对经典线性回归模型无法反映变量间的非线性关系,不适宜预测有模糊数的煤炭发热量的问题,提出了一种基于三角模糊数的多元非线性回归的煤炭发热量预测模型。以我国新疆伊犁地区煤炭工业分析为建模数据和模型检验数据...
  • 机器学习(三)线性回归模型、广义线性回归模型、非线性回归模型   线性回归(数据集要满足正态分布) 一元线性回归模型: 在这里会想到,如何确定方程中的系数呢?我们先来了解最小二乘法,简单来说就是这个点...
  • tensorflow实现非线性回归

    千次阅读 2017-08-31 11:13:35
    模拟非线性回归,给定一些二维点,y = x^2 + noise,用梯度下降进行训练,实线前向传播神经网络。 import tensorflow as tf import numpy as np import matplotlib.pyplot as plt #生成随机变量 x_data = np....
  • 可化为线性回归的曲线回归 理论 例如这样的次方 可以 就可以使其化成线性回归。转化为线性模型,再使用lm() 实例 ...df = read.csv("F:\\learning_kecheng\\huigui\\9非线性回归\\data9.1.c...
  • 回归分析Regression: 回归Regression: 回归一词最早由英国科学家弗朗西斯·高尔顿(Francis Galton)提出,他还是著名 的生物学家、进化论奠基人查尔斯·达尔文(Charles Darwin)的表弟。高尔顿深受 进化论思想的...
  • 菜鸟的数学建模之路(二):线性与非线性回归

    万次阅读 多人点赞 2019-09-09 15:35:23
    根据回归方法中因变量的个数和回归函数的类型(线性或非线性),可将回归方法分为一元线性回归、一元非线性回归和多元回归。 简单粗暴理解:可以理解为找到一个从特征空间X到输出空间Y的最优的线性映射函数的过程。 ...
  • Matlab一元非线性回归分析

    千次阅读 2021-04-20 12:15:53
    Matlab一元非线性回归分析的分析步骤与一元线性回归分析的步骤类似:大体分为以下几步:(1)绘制x,y的散点图,分析散点图的走势;(2)根据散点图的走势,确定回归方程的具体形式,特别是参数个数的设定和设定初始值;...
  • sklearn实现非线性回归模型

    千次阅读 2020-12-09 09:02:27
    sklearn实现非线性回归模型前言: sklearn实现非线性回归模型的本质是通过线性模型实现非线性模型,如何实现呢?sklearn就是先将非线性模型转换为线性模型,再利用线性模型的算法进行训练模型。一、线性模型解决非...
  • 关于回归和拟合,从它们的求解过程以及结果来看,两者似乎没有太大差别,事实也的确如此。从本质上说,回归属于数理统计问题,...并且拟合可以分为线性拟合与非线性拟合,非线性拟合比较常用的是多项式拟合。根据自变

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 50,851
精华内容 20,340
关键字:

多变量非线性回归