精华内容
下载资源
问答
  • 多元回归分析r语言代码

    千次阅读 2015-09-29 20:32:24
    summary(shuju.reg)#(3)拟合优度检验(4)(5)回归方程、回归系数显著性检验 shuju.reg1=lm(y~x1+x2,data=shuju)#(6)剔除不显著的回归系数 summary(shuju.reg1) stdshuju(shuju, center=T,...
    y=c(160,260,210,265,240,220,275,160,275,250)
    x1=c(70,75,65,74,72,68,78,66,70,65)
    x2=c(35,40,40,42,38,45,42,36,44,42)
    x3=c(1,2.4,2,3,1.2,1.5,4,2,3.2,3)
    shuju<-data.frame(y,x1,x2,x3)
    shuju


    cor(shuju)   #(1)变量间相关系数阵


    shuju.reg=lm(y~.,data=shuju)#(2)求三元线性回归方程(3)拟合优度检验
    summary(shuju.reg)#(3)拟合优度检验(4)(5)回归方程、回归系数显著性检验


    shuju.reg1=lm(y~x1+x2,data=shuju)#(6)剔除不显著的回归系数
    summary(shuju.reg1)




    stdshuju<-scale(shuju, center=T,scale=T)#对各列数据进行标准化
    shuju.stdreg <- lm(y~x1+x2,data=data.frame(stdshuju))
    summary(shuju.stdreg)#(8)求标准化回归方程


    confint(shuju.reg1)   #(7)每一个回归系数的区间估计


    shuju.pred1<-predict(shuju.reg1,newdata=data.frame(x1=75,x2=42))  #(9)预测y0
    shuju.pred1   #(9)预测y0
    shuju.pred2<-predict(shuju.reg1,newdata=data.frame(x1=75,x2=42),interval='prediction') 
    shuju.pred2    #(9)y0的精确置信区间
    267.829-2*24.08;267.829+2*24.08   #(9)手工计算y0的近似预测区间






    y.res=resid(shuju.reg)    #残差值
    y.fit=predict(shuju.reg)  #y拟合值
    plot(y.res~y.fit)         #残差序列图


    m = c(-15.47480708,12.82498933,5.34434481,-0.09088064,33.22548824,-25.19759251,-17.55449753,-20.00684234,8.23434759,18.69545013 )
    acf(m)   #残差的各阶自相关系数


    library(lmtest)
    dwtest(shuju.reg)   #做DW检验
    展开全文
  • 我正在使用在scipy Cookbook下载的ols.py代码(下载在第一段用粗体OLS)但我需要了解而不是使用ols函数的随机数据来进行多元线性回归.我有一个特定的因变量y和三个解释变量.每当我尝试将变量放入随机变量时,它就会给出...

    我正在使用在

    scipy Cookbook下载的ols.py代码(下载在第一段用粗体OLS)但我需要了解而不是使用ols函数的随机数据来进行多元线性回归.

    我有一个特定的因变量y和三个解释变量.每当我尝试将变量放入随机变量时,它就会给出错误:

    TypeError: this constructor takes no arguments.

    有人可以帮忙吗?这可能吗?

    这是我尝试使用的ols代码的副本以及我尝试输入的变量

    from __future__ import division

    from scipy import c_, ones, dot, stats, diff

    from scipy.linalg import inv, solve, det

    from numpy import log, pi, sqrt, square, diagonal

    from numpy.random import randn, seed

    import time

    class ols:

    """

    Author: Vincent Nijs (+ ?)

    Email: v-nijs at kellogg.northwestern.edu

    Last Modified: Mon Jan 15 17:56:17 CST 2007

    Dependencies: See import statement at the top of this file

    Doc: Class for multi-variate regression using OLS

    Input:

    dependent variable

    y_varnm = string with the variable label for y

    x = independent variables, note that a constant is added by default

    x_varnm = string or list of variable labels for the independent variables

    Output:

    There are no values returned by the class. Summary provides printed output.

    All other measures can be accessed as follows:

    Step 1: Create an OLS instance by passing data to the class

    m = ols(y,x,y_varnm = 'y',x_varnm = ['x1','x2','x3','x4'])

    Step 2: Get specific metrics

    To print the coefficients:

    >>> print m.b

    To print the coefficients p-values:

    >>> print m.p

    """

    y = [29.4, 29.9, 31.4, 32.8, 33.6, 34.6, 35.5, 36.3, 37.2, 37.8, 38.5, 38.8,

    38.6, 38.8, 39, 39.7, 40.6, 41.3, 42.5, 43.9, 44.9, 45.3, 45.8, 46.5,

    77.1, 48.2, 48.8, 50.5, 51, 51.3, 50.7, 50.7, 50.6, 50.7, 50.6, 50.7]

    #tuition

    x1 = [376, 407, 438, 432, 433, 479, 512, 543, 583, 635, 714, 798, 891,

    971, 1045, 1106, 1218, 1285, 1356, 1454, 1624, 1782, 1942, 2057, 2179,

    2271, 2360, 2506, 2562, 2700, 2903, 3319, 3629, 3874, 4102, 4291]

    #research and development

    x2 = [28740.00, 30952.00, 33359.00, 35671.00, 39435.00, 43338.00, 48719.00, 55379.00, 63224.00,

    72292.00, 80748.00, 89950.00, 102244.00, 114671.00, 120249.00, 126360.00, 133881.00, 141891.00,

    151993.00, 160876.00, 165350.00, 165730.00, 169207.00, 183625.00, 197346.00, 212152.00, 226402.00,

    267298.00, 277366.00, 276022.00, 288324.00, 299201.00, 322104.00, 347048.00, 372535.00,

    397629.00]

    #one/none parents

    x3 = [11610, 12143, 12486, 13015, 13028, 13327, 14074, 14094, 14458, 14878, 15610, 15649,

    15584, 16326, 16379, 16923, 17237, 17088, 17634, 18435, 19327, 19712, 21424, 21978,

    22684, 22597, 22735, 22217, 22214, 22655, 23098, 23602, 24013, 24003, 21593, 22319]

    def __init__(self,y,x1,y_varnm = 'y',x_varnm = ''):

    """

    Initializing the ols class.

    """

    self.y = y

    #self.x1 = c_[ones(x1.shape[0]),x1]

    self.y_varnm = y_varnm

    if not isinstance(x_varnm,list):

    self.x_varnm = ['const'] + list(x_varnm)

    else:

    self.x_varnm = ['const'] + x_varnm

    # Estimate model using OLS

    self.estimate()

    def estimate(self):

    # estimating coefficients, and basic stats

    self.inv_xx = inv(dot(self.x.T,self.x))

    xy = dot(self.x.T,self.y)

    self.b = dot(self.inv_xx,xy) # estimate coefficients

    self.nobs = self.y.shape[0] # number of observations

    self.ncoef = self.x.shape[1] # number of coef.

    self.df_e = self.nobs - self.ncoef # degrees of freedom, error

    self.df_r = self.ncoef - 1 # degrees of freedom, regression

    self.e = self.y - dot(self.x,self.b) # residuals

    self.sse = dot(self.e,self.e)/self.df_e # SSE

    self.se = sqrt(diagonal(self.sse*self.inv_xx)) # coef. standard errors

    self.t = self.b / self.se # coef. t-statistics

    self.p = (1-stats.t.cdf(abs(self.t), self.df_e)) * 2 # coef. p-values

    self.R2 = 1 - self.e.var()/self.y.var() # model R-squared

    self.R2adj = 1-(1-self.R2)*((self.nobs-1)/(self.nobs-self.ncoef)) # adjusted R-square

    self.F = (self.R2/self.df_r) / ((1-self.R2)/self.df_e) # model F-statistic

    self.Fpv = 1-stats.f.cdf(self.F, self.df_r, self.df_e) # F-statistic p-value

    def dw(self):

    """

    Calculates the Durbin-Waston statistic

    """

    de = diff(self.e,1)

    dw = dot(de,de) / dot(self.e,self.e);

    return dw

    def omni(self):

    """

    Omnibus test for normality

    """

    return stats.normaltest(self.e)

    def JB(self):

    """

    Calculate residual skewness, kurtosis, and do the JB test for normality

    """

    # Calculate residual skewness and kurtosis

    skew = stats.skew(self.e)

    kurtosis = 3 + stats.kurtosis(self.e)

    # Calculate the Jarque-Bera test for normality

    JB = (self.nobs/6) * (square(skew) + (1/4)*square(kurtosis-3))

    JBpv = 1-stats.chi2.cdf(JB,2);

    return JB, JBpv, skew, kurtosis

    def ll(self):

    """

    Calculate model log-likelihood and two information criteria

    """

    # Model log-likelihood, AIC, and BIC criterion values

    ll = -(self.nobs*1/2)*(1+log(2*pi)) - (self.nobs/2)*log(dot(self.e,self.e)/self.nobs)

    aic = -2*ll/self.nobs + (2*self.ncoef/self.nobs)

    bic = -2*ll/self.nobs + (self.ncoef*log(self.nobs))/self.nobs

    return ll, aic, bic

    def summary(self):

    """

    Printing model output to screen

    """

    # local time & date

    t = time.localtime()

    # extra stats

    ll, aic, bic = self.ll()

    JB, JBpv, skew, kurtosis = self.JB()

    omni, omnipv = self.omni()

    # printing output to screen

    print '\n=============================================================================='

    print "Dependent Variable: " + self.y_varnm

    print "Method: Least Squares"

    print "Date: ", time.strftime("%a, %d %b %Y",t)

    print "Time: ", time.strftime("%H:%M:%S",t)

    print '# obs: %5.0f' % self.nobs

    print '# variables: %5.0f' % self.ncoef

    print '=============================================================================='

    print 'variable coefficient std. Error t-statistic prob.'

    print '=============================================================================='

    for i in range(len(self.x_varnm)):

    print '''% -5s % -5.6f % -5.6f % -5.6f % -5.6f''' % tuple([self.x_varnm[i],self.b[i],self.se[i],self.t[i],self.p[i]])

    print '=============================================================================='

    print 'Models stats Residual stats'

    print '=============================================================================='

    print 'R-squared % -5.6f Durbin-Watson stat % -5.6f' % tuple([self.R2, self.dw()])

    print 'Adjusted R-squared % -5.6f Omnibus stat % -5.6f' % tuple([self.R2adj, omni])

    print 'F-statistic % -5.6f Prob(Omnibus stat) % -5.6f' % tuple([self.F, omnipv])

    print 'Prob (F-statistic) % -5.6f JB stat % -5.6f' % tuple([self.Fpv, JB])

    print 'Log likelihood % -5.6f Prob(JB) % -5.6f' % tuple([ll, JBpv])

    print 'AIC criterion % -5.6f Skew % -5.6f' % tuple([aic, skew])

    print 'BIC criterion % -5.6f Kurtosis % -5.6f' % tuple([bic, kurtosis])

    print '=============================================================================='

    if __name__ == '__main__':

    ##########################

    ### testing the ols class

    ##########################

    # intercept is added, by default

    m = ols(y,x1,y_varnm = 'y',x_varnm = ['x1','x2','x3'])

    m.summary()

    展开全文
  • 基于聚类分析和多元回归的空气质量的分析的R代码,包含聚类分析代码,因子分析代码,气泡图,柱形图。文章内容发布在我的博客中,希望对大家有所帮助
  • % 多元线性回归% b 回归系数% bint 回归系数的置信度为95%的置信区间% r 残差% rint 各残差的置信区间% stats 用于检验回归模型的统计量,有四个数值:相关系数R^2、F值、与F对应的概率p,误差方差。相关系数R^2越...

    % 多元线性回归

    % b 回归系数

    % bint 回归系数的置信度为95%的置信区间

    % r 残差

    % rint 各残差的置信区间

    % stats 用于检验回归模型的统计量,有四个数值:相关系数R^2、F值、与F对应的概率p,误差方差。相关系数R^2越接近1,说明回归方程越显著;F > F1-α(k,n-k-1)时拒绝H0,F越大,说明回归方程越显著;与F对应的概率p 时拒绝H0,回归模型成立。p值在0.01-0.05之间,越小越好。

    clc

    clear

    x = xlsread('D:\数学建模\8.28\data1.xlsx','Sheet1','B3:I35');

    y = xlsread('D:\数学建模\8.28\data1.xlsx','Sheet2','B3:B35');

    X = [ones(length(y),1),x]; % 把行向量转秩为列向量(此处不用转)

    Y = y; % 把行向量转秩为列向量(此处不用转)

    [b,bint,r,rint,stats] = regress(Y,X); %求回归系数的点估计和区间估计,并检验回归模型

    b

    bint

    stats

    % 残差分析

    subplot(1,2,1);

    rcoplot(r,rint);

    %画图

    subplot(1,2,2);

    b2=[b(2),b(3),b(4),b(5),b(6),b(7),b(8),b(9)];

    z = b(1)+b2*x';

    plot(X,Y,'k+',X,z,'r');

    grid on

    % 预测数据

    tx = [120731808012512581.190];

    ty=b(1)+b2*tx';

    ty

    展开全文
  • 多元线性回归OpenCV代码

    千次阅读 2015-04-03 18:59:53
    前言 本文的实现主要是参照了Andrew NG的机器学习课程所讲的内容。理论知识上一篇博文已经介绍。由于刚接触C++,代码写得...1.定义一个线性回归的类Regression: 头文件 Regression.h #ifndef _Regression_H_ #define _
    

    前言

    本文的实现主要是参照了Andrew NG的机器学习课程所讲的内容。理论知识上一篇博文已经介绍。由于刚接触C++,代码写得比较粗糙,望见谅。

    实验环境

    Visual Studio 2013

    OpenCV 2.4

    实验代码

    1.定义一个线性回归的类Regression:

    头文件 Regression.h

    #ifndef  _Regression_H_
    #define  _Regression_H_
    #include <vector>
    #include <string>
    #include <iostream>
    #include <strstream>
    #include <fstream>
    #include <opencv2\core\core.hpp>
    using namespace cv;
    using namespace std;
    class Regression
    {
    public:
    	//加载数据
    	void loadData(string filePath, string regx);
    	//数据返回
    	Mat& getX();
    	Mat& getEX();
    	Mat& getTheta();
    	Mat& getY();
    	//特征归一化
    	void featureNormalize(Mat& x);
    	//预测
    	float predict(Mat& x);
    	//假设函数,此处设成静态函数,是方便在其他类中直接调用
        static void calculateHx(Mat& x, Mat& theta, Mat& Hx);
    private:
    	Mat originalX;
    	Mat extendX;
    	Mat y;
    	int dim;//数据维数
    	Mat theta;//列向量
    };
    #endif

    实现文件 Regression.cpp

    #include "Regression.h"
    
    //把字符串转换成数值类型
    template<typename T>
    T convertStringData(string data)
    {
    	strstream ss;
    	T y;
    	ss <<data;
    	ss >> y;
    	return y;
    }
    
    //字符串分割函数 
    inline vector<string> split(string str, string pattern)
    {
    	string::size_type pos;
    	vector<string> result;
    	str += pattern;//扩展字符串以方便操作
    	int size = str.size();
    
    	for (int i = 0; i<size; i++)
    	{
    		pos = str.find(pattern, i);
    		if (pos<size)
    		{
    			std::string s = str.substr(i, pos - i);
    			result.push_back(s);
    			i = pos + pattern.size() - 1;
    		}
    	}
    	return result;
    }
    
    //加载数据
    void Regression::loadData(string filePath,string regx)
    {
    	ifstream fin(filePath);
    	while (!fin.eof())
    	{
    		string temp;
    		getline(fin, temp);
    		if (strcmp(temp.c_str(), "") == 0) continue;
    		vector<string> resStr = split(temp, regx);
    		//设置x的维数
    		dim = resStr.size() - 1;
    		float yi=convertStringData<float>(resStr[resStr.size() - 1]);
    		y.push_back(yi);
    		Mat data = Mat::zeros(1, dim,CV_32FC1);//临时存放每一行的数据
    		for (int i = 0; i < dim; i++)
    		{
    			data.row(0).col(i) = convertStringData<float>(resStr[i]);;
    		}
    		originalX.push_back(data);
    	}
    	extendX = Mat::ones(originalX.rows, dim + 1, CV_32FC1);
    	originalX.copyTo(extendX.colRange(1, extendX.cols));
    	extendX.col(0) = Mat::ones(extendX.rows, 1, extendX.type());
    	theta = Mat::zeros(dim+1,1,originalX.type());
    	fin.close();
    }
    
    
    //数据返回
    Mat& Regression::getX()
    {
    	return originalX;
    }
    
    Mat& Regression::getY()
    {
    	return y;
    }
    
    Mat& Regression::getEX()
    {
    	return extendX;
    }
    
    Mat& Regression::getTheta()
    {
    	return theta;
    }
    
    //特征归一化
    void Regression::featureNormalize(Mat& ex)
    {
    	if (ex.cols <= 2) return;//只有一个特征的时候不用归一化
    	for (int col = 1; col < ex.cols; col++)
    	{
    		Mat mean;
    		Mat stddev;
    		meanStdDev(ex.col(col), mean, stddev);
    		//归一化
    		ex.col(col) = ex.col(col) - mean;
    		ex.col(col) = ex.col(col) / stddev;
    	}
    }
    
    
    //预测
    //x:一个样本
    //theta 训练得到的参数
    float Regression::predict(Mat& x)
    {
    	Mat hx;
    	calculateHx(x, this->getTheta(), hx);
    	return hx.at<float>(0,0);
    }
    
    //计算假设函数
    void Regression::calculateHx(Mat& x, Mat& theta, Mat& Hx)
    {
    	Hx = x*theta;
    }
    

    2.定义一个梯度下降的类GradientDescent:
    头文件 GradientDescent.h

    #ifndef _GRADIENTDESCENT_H
    #define _GRADIENTDESCENT_H
    #include <opencv2\core\core.hpp>
    using namespace cv;
    class GradientDescent
    {
    public:
    	//批量梯度下降
    	void gradientDescent(Mat& x, Mat& y, Mat &theta, int num_iters, float alpha);
    	//计算代价
    	float computeCost(Mat& x, Mat& y, Mat &theta);
    	void normalizeEquation(Mat& x, Mat& y, Mat &theta);
    };
    #endif

    实现文件 GradientDescent.cpp

    #include "GradientDescent.h"
    #include "Regression.h"
    #include <iostream>
    using namespace std;
    void GradientDescent::gradientDescent(Mat& x, Mat& y, Mat &theta, int num_iters, float alpha)
    {
    	int dataSize = x.rows;//数据总数
    	int dim = theta.rows;//theta的维数
    	for (int i = 0; i < num_iters; i++)
    	{
    		//矢量化编程
    		Mat hx;
    		Regression::calculateHx(x, theta, hx);
    		Mat thetaNew = theta-alpha*x.t()*(hx - y)/dataSize;
    		thetaNew.copyTo(theta);
    	}
    }
    
    float GradientDescent::computeCost(Mat& x, Mat& y, Mat &theta)
    {
    	float error = .0;
    	Mat hx;
    	Mat j;
    	hx = x*theta;
    	j = (hx - y).t()*(hx - y);
    	error = j.at<float>(0, 0) / (2 * x.rows);
    	return error;
    }
    
    void GradientDescent::normalizeEquation(Mat& x, Mat& y, Mat &theta)
    {
    	theta=(x.t()*x).inv()*x.t()*y;
    }

    3.代码测试:

    样本集由Andrew NG机器学习课程提供,可在网上下载

    main.cpp内容如下:

    #include "Regression.h"
    #include "GradientDescent.h"
    #include <iostream>
    #include <opencv2\opencv.hpp>
    using namespace cv;
    using namespace std;
    int main()
    {
    	Regression regression;
    	regression.loadData("test_data/ex1data1.txt",",");
    	regression.featureNormalize(regression.getEX());
    	GradientDescent gd;
    	float error=gd.computeCost(regression.getEX(), regression.getY(), regression.getTheta());
    	cout << "cost:" << error << endl;
    	gd.gradientDescent(regression.getEX(), regression.getY(), regression.getTheta(), 1500, 0.01);
    	//gd.normalizeEquation(regression.getEX(), regression.getY(), regression.getTheta());
    	cout << regression.getTheta() << endl;
    	getchar();
    	return 0;
    }

    输出结果:

    与matlab运行结果一致




    展开全文
  • 使用R语言对数据分析主成分分析实现多元线性回归。包括源数据和代码
  • 多元线性回归基本流程代码(python)第一篇代码记录代码段 第一篇代码记录 2019-12-12,今天第一次在csdn记录我的python学习记录 代码段 from sklearn.linear_model import LinearRegression from sklearn....
  • Features 在简单的一元线性回归模型中,我们的features一般是指一些我们现有的变量。其实,在真正的使用中更重要的可能是如何定义这些特征,我们可以用一些量的函数组合来表示特征。比如预测房价,我们可以用面积,...
  • 若是包含多个因变量则是多元线性回归,即y=θ0+θ1X1+θ2X2+…+θnXn。 简单来说就是给你一堆数据,你从几个不同变量中找出它们之间的函数关系,并求出这些匹配不同变量的系数,如θ0,θ1等。 梯度下降算法: 梯度...
  • R语言多元Logistic回归 应用案例 多元Logistic回归 如何进行多重逻辑回归 可以使用阶梯函数通过逐步过程确定多重逻辑回归。此函数选择模型以最小化AIC,而不是像手册中的SAS示例那样根据p值。另请注意,在此...
  • 分析气象和环境因子,需要提供R语言多元线性逐步回归模型的程序完整代码
  • 多元线性回归实现代码

    千次阅读 2019-09-11 19:10:47
    **#选择基于梯度下降的线性回归模型** from sklearn.linear_model import LinearRegression LR_reg=LinearRegression() #进行拟合 LR_reg.fit(scaler_housing,target) **#使用均方误差用于评价模型好坏** ...
  • 回归分析是研究两个变量之间的不确定性关系,考察变量之间的数量变化规律,通过回归方程的形式描述和反映这种关系,帮助人们挖掘出变量之间隐藏的规律。建立回归模型的一般过程为:1...多元回归数据.csv")#读取...
  • r语言分析上证50多元统计附代码
  • 相关系数R 拆分训练集和测试集 多变量线性回归 数据检验(判断是否可以做线性回归) 训练线性回归模型 先甩几个典型的线性回归的模型,帮助大家捡起那些年被忘记的数学。 ● 单变量线性回归:h(x)=theta0 + ...
  • 多元线性回归分析(R语言

    万次阅读 多人点赞 2018-12-07 13:35:10
    多元线性回归分析▼ 一、多元线性回归模型 设变量Y与X1,X2,……,Xp之间有线性关系   其中 , 和 是未知参数,p≥2,称上公式为多元线性回归模型。 二、参数估计 我们根据多元线性回归模型,认为误差...
  • 多元非线性回归分析源代码

    热门讨论 2011-10-14 13:28:56
    数学工具,用于多元非线性回归分析,包含源代码,适用于源代码的学习和数学工具的使用
  • 拟合用到的数据是老师给的鲍鱼数据<abalone.csv>...下面是多元回归的基础代码: clc;clear A1=importdata('abalone.csv'); % A1.data(101:end,:)=[]; %% 弄十几个数据看一眼 X1=A1.data(:,1:3); ...
  • 多元回归分析

    千次阅读 2017-11-13 19:09:16
     多元回归分析(multiple regression) 1.与简单线性回归区别: 多个自变量 2.多元回归模型 3.多元回归方程 4.估计多元回归方程 5.估计流程(与简单线性回归类似) 6.估计方法 使得min的值达到最小 7.如果...
  • 1.2 多元回归模型 1.3 多元回归方程 1.4 估计多元回归方程 1.5 估计流程(与简单线性回归类似) 1.6 估计方法   1.7 例子   x1 x2 y 1 100 4 9.3 2 50 3 ...
  • R机器学习(三)——多元回归
  • R语言svm支持向量机多元回归预测

    万次阅读 2017-08-15 19:42:34
    数据用的还是之前的股票数据 library(e1071) x x[,1] #将第一列的时间数据换成1:length的向量 ...if(abs(p[i]-r[i]) s } s #输出结果s为86,说明90%以上的预测结果与实际值的误差都在0.15之内,取
  • 多元回归模型

    2016-11-03 15:29:42
    coursera华盛顿大学机器学习专项课程第二门课,多元回归,数据和代码(包括习题答案)
  •  a2=data.frame('Multiple R-squared'=R2,'Adjusted R-squared'=R2_a)  a3=data.frame('Residual standard error'=sqrt(sigam2))  Z=list(result,a1,a2,a3,Y_predict,residuals)  names(Z)('result','F-test'...
  • Python实现多元线性回归

    万次阅读 多人点赞 2018-04-12 21:39:25
    Python实现多元线性回归 线性回归介绍 线性回归是利用数理统计中回归分析,来确定两种或两种以上变量间相互依赖的定量关系的一种统计分析方法,运用十分广泛。其表达形式为y = w'x+e,e为误差服从均值为0的...
  • 多元线性回归模型 matlab代码 自用

    万次阅读 多人点赞 2017-04-17 22:39:51
    这个代码是判断影响因素权重比的。 今天总算学会怎么把代码插入了。。。n=10;m=4; x1=[ 760.72 773.48 784.17 794.62 806.14 814.58 822.30 832.31 842.42 854.19]; x2=[ 36770 40561 45702 49518 54494 57474 ...
  • scikit-learn : 线性回归,多元回归,多项式回归

    万次阅读 多人点赞 2016-06-17 23:36:53
    使用scikit-learn学习线性回归,多元回归,多项式回归
  • 求非参数多元回归代码? 一元的系数跑的出来,多元的跑不出来了。
  • 【matlab 多元回归】matlab数值预测--多元回归算法

    万次阅读 多人点赞 2017-12-23 09:31:51
    对七个自变量,2个因变量分别做多元线性线性回归。数据形式如下: 下面是matlab 代码:clc,clear all %% % 读取excel数据,data存放数值数据,text...%建立第一个多元回归模型 y1=data1(:,1); y2=data1(:,2); x=data

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 5,761
精华内容 2,304
关键字:

多元回归r代码