精华内容
下载资源
问答
  •  如果自变量X和因变量Y的回归方程为对数关系,则为对数回归
    

    如果自变量X和因变量Y的回归方程为对数关系,则为对数回归。







    展开全文
  • LibreOffice 回归方程求法

    千次阅读 2014-05-08 14:51:56
    转载 线性回归方程式 线性回归遵循如下方程式 y=m*x+b。 m = SLOPE(Data_Y;Data_X) ...除了 m, b 和 r² 之外,数组函数 LINEST 为回归分析提供其他统计。...对数回归方程对数回归

    原文转自:LibreOffice帮助文档-趋势线

    线性回归方程式

    线性回归遵循如下方程式 y=m*x+b

    m = SLOPE(Data_Y;Data_X)

    b = INTERCEPT(Data_Y ;Data_X)

    计算决定系数通过

    r² = RSQ(Data_Y;Data_X)

    除了 m, b 和 r² 之外,数组函数 LINEST 为回归分析提供其他统计。

    对数回归方程式

    对数回归遵循如下方程式 y=a*ln(x)+b

    a = SLOPE(Data_Y;LN(Data_X))

    b = INTERCEPT(Data_Y ;LN(Data_X))

    r² = RSQ(Data_Y;LN(Data_X))

    指数回归方程式

    对于指数回归曲线,转换产生了线性模型。最佳拟合曲线与线性模型相关,且结果被相应解释。

    指数回归曲线遵循如下方程式 y=b*exp(a*x) 或 y=b*m^x,这两个方程式分别被转换为 ln(y)=ln(b)+a*x 或 ln(y)=ln(b)+ln(m)*x

    a = SLOPE(LN(Data_Y);Data_X)

    第二变分的变量计算如下:

    m = EXP(SLOPE(LN(Data_Y);Data_X))

    b = EXP(INTERCEPT(LN(Data_Y);Data_X))

    计算决定系数通过

    r² = RSQ(LN(Data_Y);(Data_X))

    除了 m, b 和 r² 之外,数组函数 LOGEST 为回归分析提供其他统计。

    幂回归方程式

    对于幂回归曲线,转换生成了线性模型。幂回归遵循如下方程式 y=b*x^a,此方程式被转换为 ln(y)=ln(b)+a*ln(x)

    a = SLOPE(LN(Data_Y);LN(Data_X))

    b = EXP(INTERCEPT(LN(Data_Y);LN(Data_X))

    r² = RSQ(LN(Data_Y);LN(Data_X))

    约束

    趋势线的计算只考虑带有下列值的数据对:

    1. 对数回归:只考虑正的 x 值,
    2. 指数回归:只考虑正的 Y 值,
    3. 幂回归:只考虑正的 x 值和正的 y 值。

    您应该相应地转换数据;最好在原始数据副本上工作并且转换复制的数据。

    多项式回归方程式

    不能自动添加多项式回归曲线。您必须手动计算此曲线。

    创建一个带有列 x, x², x³, … , xⁿ 的表格,y 值高达期望的次方 n。

    使用公式 =LINEST(Data_Y,Data_X) 其中完全范围 x 到 xⁿ(没有标题)可以作为 Data_X 的值。

    LINEST 输出的首行包含回归多项式的系数,xⁿ 的系数在最左侧。

    LINEST 输出的第三行首元素是 r² 的值。请参阅 LINEST 函数关于正确使用的细节和其他输出参数的说明。

    展开全文
  • 回归分析汇总

    2020-09-17 22:30:53
    回归分析是指用一个方程式建立一个因变量与一个或多个自变量之间的关系,可用于预测或推算。 二、回归分析类型 1、线性回归(Linear Regression): 线性回归使用最佳的拟合直线(也就是回归线)在因变量(Y)和一...

    一、回归分析概述

    回归分析是指用一个方程式建立一个因变量与一个或多个自变量之间的关系,可用于预测或推算。

    二、回归分析类型

    1、线性回归(Linear Regression):

    线性回归使用最佳的拟合直线(也就是回归线)在因变量(Y)和一个或多个自变量(X)之间建立一种关系。

    2、逻辑回归(Logistic Regression):

    又称为对数回归。当因变量的类型属于二元(1 / 0,真/假,是/否)变量时,我们就应该使用逻辑回归。

    3、多项式回归(Polynomial Regression):

    对于一个回归方程,如果自变量的指数大于1,那么它就是多项式回归方程。

    4、逐步回归(Stepwise Regression):

    在处理多个自变量时,我们可以使用这种形式的回归。在这种技术中,自变量的选择是在一个自动的过程中完成的,其中包括非人为操作。这种建模技术的目的是使用最少的预测变量数来最大化预测能力。这也是处理高维数据集的方法之一。

    5、岭回归(Ridge Regression):

    岭回归分析是一种用于存在多重共线性(自变量高度相关)数据的技术。岭回归通过给回归估计上增加一个偏差度,来降低标准误差。

    6、套索回归( Lasso Regression)

    它类似于岭回归,Lasso (Least Absolute Shrinkage and Selection Operator)也会惩罚回归系数的绝对值大小。此外,它能够减少变化程度并提高线性回归模型的精度。

    展开全文
  • 第2章 回归分析 1.回归分析 2.回归分析的实例 3.回归分分析程中的注意事项 4.标准化残差 5.内插法和外插法 6.序列相关 7.直以外的回归方程 第3章 重回归分析 1.重回归分析的定义 2.重回归分析的实例 3.重回归分析...
  • 这一节将介绍deviance这个概念,概述具有普...对于观察量 的特定的GLM,记 为关于 的对数似然函数,这个函数是我们感兴趣的东西。我们通过求解似然函数估计得到 的极大似然估计 ,回代得到我们模型的极大似然估计,...

    bd7d9e52b622c63428dcd49548deae28.png

    这一节将介绍deviance这个概念,概述具有普适性的推断方法。GLM的模型拟合用的是Newton-Raphson算法,由于R包可以直接给结果,我们就不去追究这个算法的详细过程了。

    在进入正式的笔记之前,我们先说两个记号:

    对于观察量

    的特定的GLM,记
    为关于
    的对数似然函数,这个函数是我们感兴趣的东西。我们通过求解似然函数估计得到
    的极大似然估计
    ,回代得到我们模型的极大似然估计,取对数记为

    634f5cf97df02397eec1d22affa39a4f.png
    例如上图的打鼾与心脏病。我们为打鼾与心脏病设计了线性概率模型,通过对打鼾程度赋分,来判断是否得心脏病。打鼾程度一共有“从不”、“偶尔”、“几乎每晚”、“每晚”四档,
    表示打鼾程度的得分,取值为
    。不同打鼾程度患心脏病与否的样本量为分别为
    ,前者为患心脏病的人数
    ,后者为不患心脏病的人数。我们的模型认为
    表示得心脏病的概率,
    。那么对于每一个不同的程度
    。在二项分布假设下,我们的似然函数为
    。得到MLE后,我们将
    代入得到
    ,从而得到
    。整个过程中我们一共设计了两个参数:

    另外,我们可以对每一个样本都设计对应的参数弄出一个尽可能的最复杂的模型,同样得到极大似然估计后回代取对数,得到

    ——这里的
    ,完美的拟合!这个最复杂的模型我们称为饱和模型(saturated model)。饱和模型确实没啥用,但是它为模型比较提供了一个baseline。因为饱和模型一定包含了(显式或隐式)简单模型的参数,它的对数极大似然
    一定不小于简单模型的
    还是上边打鼾与心脏病的例子。饱和模型只不过直接对每种不同打鼾程度都设计了单独的参数,对于从不打鼾者
    ,对于偶尔打鼾者
    ,对于几乎每晚打鼾者
    ,对于每晚打鼾者
    。我们一共设计了四个参数,而这四个参数的MLE就是打鼾水平
    患心脏病的样本概率,例如
    。 利用这些
    得到的似然函数值
    的对数,即

    偏差(deviance)

    定义

    偏差就是比较模型

    与饱和模型似然比的统计量,是检验所有在饱和模型中但不在模型
    中的参数等于
    的原假设的统计量。样本量很大时
    ,大的检验统计量与小的P-value说明了模型
    拟合程度并不很好。

    基于偏差的模型比较

    下面我们考虑两个模型:

    ,其中
    的特例,被称为嵌套在
    中,且一定有
    。于是,一定有
    ,简单的模型 偏差更大。

    在模型

    成立的前提下,模型
    成立的似然比统计量为
    ,即为
    。同样地,大样本情况下,统计量服从卡方分布,自由度为
    多出的参数的个数。当模型
    拟合效果欠佳时,检验统计量会比较大。

    软件会自动地帮我们算出偏差,依据偏差可以得到对应的统计量。当然,我们也可以直接去计算似然比来得到统计量的值。

    来看我们的一道作业题:

    4d0f853508a3644a6f662dc60c83f588.png

    0421df69828bae90dbaf3e558838ac65.png

    这里的 c 问让我们去求 likelihood-ratio test statistic。我们用软件求的是这样的:

    y=c(8,7,6,6,3,4,7,2,3,4,9,9,8,14,8,13,11,5,7,6)
    x=c(rep(0,10),rep(1,10))
    library(glmnet)
    fit=glm(y~x,family=poisson())
    summary(fit)
    
    Call:
    glm(formula = y ~ x, family = poisson())
    
    Deviance Residuals: 
        Min       1Q   Median       3Q      Max  
    -1.5280  -0.7622  -0.1699   0.6938   1.5399  
    
    Coefficients:
                Estimate Std. Error z value Pr(>|z|)    
    (Intercept)   1.6094     0.1414  11.380  < 2e-16 ***
    x             0.5878     0.1764   3.332 0.000861 ***
    ---
    Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
    
    (Dispersion parameter for poisson family taken to be 1)
    
        Null deviance: 27.857  on 19  degrees of freedom
    Residual deviance: 16.268  on 18  degrees of freedom
    AIC: 94.349
    
    Number of Fisher Scoring iterations: 4
    

    由偏差求统计量即

    > (likelihood.t.s=27.857-16.268)
    [1] 11.589

    我们自己利用似然函数算出来其实是一样的:

    aeb01f3c205d23690fdb9009c808001d.png

    标准差(SE)与残差 (Residuals)

    估计量的渐进协方差阵

    GLM的似然函数同时也决定了MLE

    的渐进协方差阵。这个矩阵事实上就是信息矩阵
    的逆。
    的第
    元为
    。对于指数族来说,

    于是有

    ,进一步有
    。于是我们的信息矩阵可以写成
    为对角阵,
    协方差阵的估计量为

    ,对角元是单个变量的方差估计量。仍然拿我们上边的作业题,用极大似然估计出的
    来估计
    ,从而计算协方差阵:
    > X=matrix(c(rep(1,20),rep(0,10),rep(1,10)),ncol=2)
    > W=diag(c(rep(5,10),rep(9,10))) #这里由于是poisson+log link,对角元就是mu_A,mu_B
    > I=t(X)%*%W%*%X
    > (inverse.I=solve(I))
          [,1]        [,2]
    [1,]  0.02 -0.02000000
    [2,] -0.02  0.03111111

    得到方差为:

    > sqrt(inverse.I)
              [,1]      [,2]
    [1,] 0.1414214       NaN
    [2,]       NaN 0.1763834

    0.1763834便是我们想要的的题中的

    的标准差的估计量。而这与我们summary(fit) 当中的结果是一致的。

    关于模型的推断

    知道了

    从何而来,我们就可以进行模型推断了。
    • 当原假设为
      时,统计量为
      ,原假设成立情况下服从标准正态分布。
      的Wald
      置信区间为
    • 当然我们也可以使用上边说过的似然比检验。通过计算似然函数或者利用偏差得到我们的似然比统计量,构造置信区间时,可以通过解不等式 to collect all
      that passes hypothesis testing.

    残差:比较观测与模型的拟合

    当总体拟合优度检验的结果告诉我们GLM拟合得比较糟糕时,我们就需要来考虑到底是哪里出现了问题,这时每个样本的残差就派上了用场。

    • 偏差残差(deviance residual)

    对于第

    个样本来说,它的偏差残差为
    ,这里
    为偏差中关于样本
    的部分,
    • 皮尔逊残差(Pearson residual)

    对于第

    个样本来说,它的皮尔逊残差为
    。之所以叫皮尔逊残差,是因为当GLM应用于双向列联表单元独立检验的时候,
    就是检验独立性的皮尔逊卡方统计量。皮尔逊残差在
    附近波动,当
    很大时近似于正态分布。然而当模型成立的时候,残差比正态分布更稳定——
    倾向于小于
    • 标准化残差(standardized residuals)

    对于第

    个样本来说,它的标准化残差为
    ,这里
    的方差估计量。对于
    来说,
    。这里
    为单位阵,
    即为我们上边的
    。记
    的对角元,那么
    。使用标准化残差我们容易区分哪些残差是大的。如果标准化残差的绝对值比
    或者
    大,那么我们需要提高警惕了。我们之前其实有提到这个——《属性数据分析 | 第二章-列联表-03-独立性的卡方检验》。

    Newton-Raphson算法这里就不说了,下一章就要开始logistic regression啦!祝大家期中顺利,撒花✿✿ヽ(°▽°)ノ✿,拜拜~

    展开全文
  • 7个回归分析方法 什么是回归分析回归分析是一种预测性的建模技术,它研究的是因变量(目标)和自变量(预测器)之间的关系。 这种技术通常用于 预测分析、 时间序列模型 以及发现变量之间的...
  • 一、一元线性回归模型(一)引例Mincer(1958)基于效用最大化的理性选择模型——明瑟方程:工资对数与教育年限的线性关系。 1.是不是线性关系(1)数据观察. use grilic.dta,clear . list s lnw in 1/10(2)为了更...
  • 在统计学中,线性回归(Linear Regression)是利用称为线性回归方程的最小平方函数对一个或多个自变量和因变量之间关系进行建模的一种回归分析。这种函数是一个或多个称为回归系数的模型参数的线性组合。只有一个自...
  • 对于大多数数据科学家而言,线性回归方法是他们进行统计学建模和预测分析任务的起点。但我们不可夸大线性模型(快速且准确地)拟合大型数据集的重要性。如本文所示,在线性回归模型中,「线性」一词指的是回归系数,而...
  • 首先,本文将圆柱形管道流量的非线性模型通过取对数的方法线性化,然后基于多元线性回归方法建立代价函数,并采用正规方程推导了参数的解析解,同时,我们还利用梯度下降法迭代求解参数,两种方法都获得了较好的结果...
  • 虽然线性回归能够满足大部分的数据分析的要求,但是,线性回归并不是对所有的...回归分析中,变量转换的方法,如下所示: 举例说明一下公式的转换过程:幂函数: 我们将两边取对手 (以自然数e 为底的对数)得到...
  • 目录一、线性回归算法实现:正规方程法、梯度下降法sklearn实现二、对数几率回归(逻辑回归)算法实现sklearn实现二、线性判别分析LDA算法实现 & sklearn实现 一、线性回归 算法实现:正规方程法、梯度下降法 ...
  • 概念针对因变量为分类变量而进行回归分析的一种统计方法,属于概率型非线性回归优点:算法易于实现和部署,执行效率和准确度高缺点:离散型的自变量数据需要通过生成虚拟变量的方式来使用在线性回归中,因变量是连续...
  • SPSS probit回归

    千次阅读 2015-06-03 11:24:48
    概率单位的回归方程是将概率转换为与自变量所对应的标准正态离差,将因变量反应率P作Logit转换,即Logit P=ln(P/(1-P)),则概率单位回归方程变为Logit回归方程。 “转换”:“在概率单位...
  • 针对因变量为分类变量而进行回归分析的一种统计方法,属于概率型非线性回归  优点:算法易于实现和部署,执行效率和准确度高  缺点:离散型的自变量数据需要通过生成虚拟变量的方式来使用 在线性回归中,因变量...
  • 梯度下降和正规方程的对比对数几率回归线性判别分析线性回归的变量选择变量选择线性回归的训练多分类的学习类别不平衡的问题代码举例 线性回归灵魂三问 什么是线性回归 所谓线性回归实际上就是利用已知的样本...
  • SPSS实现曲线回归

    2020-10-08 20:41:33
    SPSS实现曲线回归目的适用情景数据处理SPSS操作SPSS输出结果分析知识点 目的 用曲线估计的方法建立一个简单的模型(一个自变量) 适用情景 数据处理 SPSS操作 分析——回归——曲线估计 SPSS输出结果分析 共设置...
  • 针对因变量为分类变量而进行回归分析的一种统计方法,属于概率型非线性回归。优点:算法易于实现和部署,执行效率和准确度高;缺点:离散型的自变量数据需要通过生产虚拟变量的方式来使用; (二)底层原理及逻辑 ...
  • 主要内容包括多元正态分布、均值向量和协方差阵的检验、聚类分析、判别分析、主成分分析...包括定性数据的建模分析对数线性模型、logistic回归、路径分析、结构方程模型、联合分析、多变量的图表示法、多维标度法等。
  • 对韩杖子隧道现场监测、隧道洞周围岩变形值,对拱顶下沉现场监测数据,以及洞周围岩水平变形,分别采用指数、双曲和对数模型进行MATLAB回归分析,并利用FISH语言编制求解侧压系数λ的命令,依据弹塑性位移反分析法,通过...
  •  6.2.2 直接获取指数回归拟合方程的系数和常量 105  6.2.3 使用指数回归拟合方程预测费用 106  6.2.4 使用GROWTH函数预测费用 107  6.3 线性与指数预测结果比较分析 109  第7章 广告支出费用预测与分析 115  ...
  • 10.5 基于ElasticNetCV的回归分析 235 10.6 支持向量回归 237 10.7 基于相似性传播算法的聚类分析 240 10.8 均值漂移算法 242 10.9 遗传算法 244 10.10 神经网络 249 10.11 决策树 251 10.12 小结 253 第 11...
  • 9.2.2状态方程的变换域符号求解分析 9.2.3状态方程的时域符号求解分析 9.2.4系统方程的数值求解分析 第10章奈奎斯特稳定性判据及其应用 10.1频域分析基本概念 10.1.1频率特性 10.1.2频率特性曲线绘制的方法 ...
  • 6.3 回归分析 6.4 高频数据 6.5 结语 6.6 延伸阅读 第7章 输入/输出操作 7.1 Python基本I/O 7.1.1 将对象写入磁盘 7.1.2 读写文本文件 7.1.3 SQL数据库 7.1.4 读写NumPy数组 7.2 Pandas的I/O 7.2.1 SQL数据库 7.2.2 ...
  • 6.4 股票价格与对数收益率的分布 251 6.5 B-S微分方程的推导 253 6.6 B-S定价公式 254 6.6.1 风险中性世界 254 6.6.2 公式 255 6.6.3 欧式期权的下界 257 6.6.4 讨论 258 6.7 伊藤引理的扩展 261 6.8 随机...
  • 配书光盘Readme文件 C 语言通用范例开发金典 第1章 数据结构. 1 1.1 数组和字符串 2 1.1.1 一维数组的倒置 2 范例1-1 一维数组的倒置 2 ∷相关函数:fun函数 1.1.2 一维数组应用 3 ...∷相关函数:asin...
  • 对数组或矩阵进行逐行或者逐列归一化处理(0-1),消除不同数据的量纲带来的误差,便与数据分析回归方程建立,观察变量间变化趋势。
  • 1、线性模型的基本形式 2、线性模型的线性回归,有序关系均分1,无序关系化向量。 3、由均方误差最小值来进行模型求解的...5、对数回归。将原方程中的y取log 6、线性判别分析(LDA) 所谓线性判别,实际上是将...

空空如也

空空如也

1 2 3
收藏数 57
精华内容 22
关键字:

对数回归分析方程