精华内容
下载资源
问答
  • 参数回归模型在金融时间序列上的应用,朱云霓,刘琼荪,本文旨在运用非参数回归模型来解决金融上的实际问题;对1998~2009年的上证综指的收益率数据进行了简单的统计分析,说明利用非参数回
  • NA样本下一类半参数回归模型的强相合性,张燕,赵选民,考虑固定设计下一类半参数回归模型 ,且随机误差 为NA序列且。利用最小二乘估计和非参数函数的权函数估计的方法,给出了参数的估�
  • 当在验证数据的帮助下,只有一些协变量带有误差时,我们考虑在非参数回归模型中估计函数g的问题。 在不指定替代变量和真实协变量之间的任何误差模型结构的情况下,我们提出了一种将正交序列估计和截断序列逼近方法相...
  • 论文研究-基于小波的非参数回归模型均值变点的Bootstrap监测.pdf, 本文首次考虑非参数回归模型均值函数结构变点的在线监测问题. 首先对回归函数的局部线性估计值进行...
  • 论文研究-异方差非参数回归模型均值与方差变点的小波估计与应用.pdf, 金融市场中,受突发事件的影响反映资产平均收益的均值函数和反映资产收益波动的方差函数都有可能...
  • 参数回归模型综述

    2013-09-18 14:34:53
    文章介绍了半参数模型的基本结构及基本计算方法
  • 该方法首先基于函数型数据分析理论,将日负荷曲线视为函数型数据,通过对历史负荷曲线样本自身规律的挖掘,建立基于历史负荷曲线样本的函数型非参数回归预测模型。在此基础上,通过构建二次规划模型对函数型非参数...
  • 一、相关理论补充(一)非参数回归的含义和特点1.含义非参数估计方法是近二十年来现代统计学发展的一个重要方向,又称分布自由检验,主要是不受总体分布的限制,不假定总体分布的具体形式,尽量从数据或样本本身获得所...

    一、相关理论补充

    (一)非参数回归的含义和特点

    1.含义

    非参数估计方法是近二十年来现代统计学发展的一个重要方向,又称分布自由检验,主要是不受总体分布的限制,不假定总体分布的具体形式,尽量从数据或样本本身获得所需要的信息,通过估计而获得分布的结构,并逐步建立对事物的数学描述和统计模型的方法。

    2.特点

    在实际应用中由于不需要预先设定模型的具体形式和误差分布,可以获得较宽的非线性变化,同时,在抽取样本对总体进行估计时,不必依赖于样本所从属的总体的分布形式,可以广泛地应用于不同类型的总体,这对减小偏差、提高预测精度、了解样本序列的动态结构都是极其有用的。当总体分布很不规则时,经典的置信区间可能无效,即置信区间不是真的有所期望得那么高,即使经典的置信区间可以合理地认为有效,非参数统计方法也可以提供一个更精确的置信区间。

    (二)非参数模型的一般形式

       71f20be9e5dbeb3de4d5ddc3817e6eaf.png   

    其中ε是观测误差,{X,Y}为样本点,m为任意形式的实值函数,即m的形式完全未知,当X为一维或者多维时分别称为一维或者多维非参数模型。

    非参数模型的核心思想就是:函数在观测到的点取观测值的概率较大,用X附近的值通过加权平均的办法估计函数f(X)的值。

    (三)参数和非参数回归的优缺点比较

    1.参数回归的优缺点

    优点:

    (1)模型形式简单明确,仅由一些参数表达

    (2)在经济中,模型的参数具有一般都具有明确的经济含义

    (3)当模型参数假设成立,统计推断的精度较高,能经受实际检验

    (4)模型能够进行外推运算

    (5)模型可以用于小样本的统计推断

    缺点:

    (1)回归函数的形式预先假定

    (2)模型限制较多:一般要求样本满足某种分布要求,随机误差满足正态假设,解释变量间独立,解释变量与随机误差不相关等

    (3)需要对模型的参数进行严格的检验推断,步骤较多

    (4)模型泛化能力弱,缺乏稳健性,当模型假设不成立,拟合效果不好,需要修正或者甚至更换模型

    2.非参数回归的优缺点

    优点:

    (1)回归函数形式自由,受约束少,对数据的分布一般不做任何要求

    (2)模型的精度高

    (3)对于非线性、非齐次问题,有非常好的效果

    缺点:

    (1)不能进行外推预算

    (2)估计的收敛速度慢

    (3)一般只有在大样本的情况下才能得到很好的效果, 而小样本的效果较差

    二、实证分析

    (一)数据来源

    本次研究选取河北省保定市20191月到20194月每天的最高气温,数据来源天气网(http://www.tianqihoubao.com/weather/top/baoding.html)。

    (二)研究思路

    此次解释变量为日期,被解释变量为每天的最高气温,建立一维的非参数回归模型。选用局部多项式回归、N-W核回归、惩罚样条回归三种回归方法,通过绘制拟合曲线图和计算各回归方法的均方根误差,来探究哪种方法更适合更精确有效。

    (三)结果分析

    cf3bcd10aa8e51e196c58ac4f6fe1117.png

    1 三种方法的拟合曲线图1 三种方法的均方根误差

    f0137b3e30af602f9fa75800cf13c5a2.png

    通过图1直观可以看出,相较于局部多项式回归和N-W核回归,惩罚样条回归的拟合效果更好。其中,局部多项式回归带宽的选取使用函数dpill求得,带宽为2.16,均方根误差为5.518N-W核回归选用自定义高斯核函数,带宽的选择使用拇指准则求出,带宽为13.87,均方根误差为5.221;惩罚样条回归采用交叉验证确定最优节点数,节点数为70,均方根误差为2.244。三种方法中惩罚样条回归的均方根误差最小。

    通过三种方法的比较,可以看出惩罚样条回归在拟合效果上更好,并且其均方根误差远小于另外两种方法,因此可以大致得出惩罚样条回归在气温预测方面具有显著优势。

    (四)补充说明

    1.此次研究均使用的是一维的非参数回归,并未涉及多维处理,对于多维非参数回归,可以使用多元局部回归或者广义可加模型。

    2.N-W核回归带宽的选择采用的是拇指准则,对于模型优化来讲可以采用不同的准则(CV或者GCV等)进行带宽和拟合效果的比较。

    附R语言代码:
    install.packages("KernSmooth")library(KernSmooth)install.packages("splines")library(splines)###########局部多项式回归data=read.table("C:/Users/17563/Desktop/保定天气.csv",sep=",",header=T)fix(data)attach(data)##确定带宽h1=dpill(d,t);h1##构建局部多项式回归模型fit4=loess(t~d,data=data,span=h1);fit4############NW核回归names(data)=c("xData","yData")data1=datafix(data1)attach(data1)kernalGaussian=function(xData){stdX=sd(xData)##高斯宽带的选择:每个点处的最优带宽h2=1.06*stdX*length(xData)^(-1/5)print(h2)##每个点处的核函数kernalX=1/(h2*sqrt(2*pi))*exp(-xData^2/(2*h2^2))return(kernalX)}#Nadaraya-Waston核估计,参数xData,yData必须是矩阵,且长度一样 kernalRegress=function(xData,yData){##最终返回针对y的核回归拟合的值nData=nrow(xData)yRegress=matrix(NaN,nrow = nData,ncol = 1)for (i in c(1:nData))  {  x=xData[i]  xXt=matrix(x,nrow=nData,ncol=1)-xData  #khx也就是权重  khX=kernalGaussian(xXt)  #yRegress 加权算术平均值:求出x处的平均值  yRegress[i]=sum(yData*khX)/sum(khX)  }return(yRegress)}stdX=sd(xData)h2=1.06*stdX*length(xData)^(-1/5);h2##把x,y变成矩阵x_matrix=as.matrix(xData);x_matrixy_matrix=as.matrix(yData);y_matrix##核回归y_regress1cbind(y_matrix,y_regress1)plot(xData,y_matrix)RMSE2=sqrt(mean((y_matrix-y_regress1)^2));RMSE2############惩罚样条回归fit3=smooth.spline(d,t,cv=TRUE)fitted(fit3)RMS3=sqrt(mean((t-fitted(fit3))^2));RMS3plot(d,t)##节点数fit3$fit$nk############拟合曲线图plot(d,t,xlab="日期",ylab="日最高气温")lines(fit4$fit,col=2)lines(xData,y_regress1,col=3)lines(fit3,col=4)letters=c("局部多项式回归","N-W核回归","惩罚样条回归")legend("bottomright",legend=letters,lty=2:4,col=2:4,cex=0.75)
    展开全文
  • 本文介绍了一个自动统计员的开始。 关注回归问题。...第二,使用灵活的非参数模型 以及丰富的语言,以开放式的方式创作 这种方式也会产生最先进的外推性能。 对13个实时序列数据集进行评估 领域。
  • 一类半参数模型,半参数模型的介绍,估计及结果
  • 参数方法:假定f(x)具有某种形式,如线性回归,二次多项式回归,指数模型等等二次多项式回归可以令X1=x,X2=x方,变成二元回归模型来解决。指数模型可以令x=lnY,模型化为z=a+bx。有一些曲线模型可以通过...

    本笔记中原始数据及代码均来源于李东风先生的R语言教程,在此对李东风先生的无私分享表示感谢。

    模型

    线性回归模型可以看成非线性回归模型的特例:

    b35d68c7b23875819fdd68a539ac0080.png

    其中f(x)为未知的回归函数。 参数方法:假定f(x)具有某种形式,如线性回归,二次多项式回归,指数模型等等

    二次多项式回归可以令X1=x,X2=x方, 变成二元回归模型来解决。 指数模型可以令x=lnY, 模型化为z=a+bx。 有一些曲线模型可以通过变换化为线性回归。

    在多元情形, 一般的非线性回归模型为

    e7ad0d7f00823e255f14af0a97db0486.png

    但是这样可选的模型就过于复杂, 难以把握。 比较简单的是不考虑变量之间交互作用的可加模型:

    d38fd62f0b84b02dae40b524fca11e12.png

    其中fj(·)是未知的回归函数, 需要满足一定的光滑性条件。 fj(·)可以是参数形式的, 比如二次多项式、三次多项式、阶梯函数等。 较好的一种选择是使用三次样条函数。

    样条平滑

    为了得到一般性的Y与X的曲线关系f(x)的估计, 可以使用样条函数。 三次样条函数将实数轴用若干个节点(knots){zk}分成几段, 每一段上f^(x)为三次多项式, 函数在节点处有连续的二阶导数。 样条函数是光滑的分段三次多项式。

    用样条函数估计f(x)的准则是曲线接近各观测值点(xi,yi),同时曲线足够光滑。 在R中用smooth.spline函数进行样条曲线拟合。 取每个自变量xi处为一个节点, 对于给定的某个光滑度/模型复杂度系数值λ, 求函数f(x)使得

    1db4e4a22e7668d6294e5e135565c96a.png

    λ越大, 所得的曲线越光滑。 smooth.spline()函数可以通过交叉验证方法自动取得一个对于预测最优的光滑参数λ值, 也可以通过df=选项指定一个等效自由度, 等效自由度越大, 模型越复杂, 曲线光滑程度越低。 df值相当于多元线性回归中的自变量个数。

    set.seed(1)nsamp 30x -10, xx -10, x sort(x)y 10*plot(x, y)curve(10*sin(x/10*pi)^2, -10, 10, add=TRUE, lwd=2)library(splines)res lines(spline(x, res$y), col="red")res2 2, span=lines(xx, predict(res2, newdata=data.frame(x=xx)),       col="blue")legend("top", lwd=c(2,1,1),        col=c("black", "red", "blue"),       legend=c("真实函数关系", "样条平滑结果", "局部线性拟合"))

    fa2471e125f81a73367f06c51ce61564.png

    其中res的元素y为拟合值,用spline(x,y)从一组散点输出 光滑曲线以便用lines()函数绘图。 R函数splines(x,y)不是做样条平滑, 而是做样条插值, 其结果是在原始的自变量x范围内产生等间隔距离的格子点值, 输出包含格子点上的样条插值x和y坐标的列表。 样条平滑曲线不需要穿过输入的各个散点, 但是插值则需要穿过输入的各个散点。 R函数approx(x,y)用线性插值方法产生线性插值后的连续函数在等间隔的横坐标上的坐标值。

    往期回顾

    R相关与回归学习笔记(一)——相关分析

    R相关与回归学习笔记(二)——相关与因果、相关系数大小、相关系数的检验

    R相关与回归学习笔记(三)——相关阵、一元回归分析

    R相关与回归学习笔记(五)——回归有效性

    R相关与回归学习笔记(六)——R程序

    R相关与回归学习笔记(七)——回归诊断(一)

    R相关与回归学习笔记(七)——回归诊断(二)

    R相关与回归学习笔记(八)——回归诊断(三)

    R相关与回归学习笔记(九)——预测区间、控制、多元线性回归模型

    R相关与回归学习笔记(十)——参数估计、R的多元回归程序(一)

    R相关与回归学习笔记(十一)——模型的检验

    R相关与回归学习笔记(十二)——线性关系检验、单个斜率项的显著性检验

    R相关与回归学习笔记(十三)——回归自变量筛选

    R相关与回归学习笔记(十四)——哑变量与变截距项的模型(一)

    R相关与回归学习笔记(十五)——哑变量与变截距项的模型(二)

    R相关与回归学习笔记(十六)——残差诊断(一)

    R相关与回归学习笔记(十七)——残差诊断(二)

    R相关与回归学习笔记(十八)——残差诊断(三)

    R相关与回归学习笔记(十八)——多重共线性

    R相关与回归学习笔记(十九)——强影响点分析、过度拟合示例(一)

    R相关与回归学习笔记(二十)——强影响点分析、过度拟合示例(二)

    R相关与回归学习笔记(二十一)——过度拟合示例(三)

    R相关与回归学习笔记(二十二)——嵌套模型的比较

    R相关与回归学习笔记(二十三)——拟合、点预测

    R相关与回归学习笔记(二十四)——均值的置信区间、个别值的预测区间

    R相关与回归学习笔记(二十五)——利用线性回归模型做曲线拟合(一)

    R相关与回归学习笔记(二十六)——利用线性回归模型做曲线拟合(二)

    R相关与回归学习笔记(二十七)——利用线性回归模型做曲线拟合(三)

    R相关与回归学习笔记(二十八)——利用线性回归模型做曲线拟合(四)

    R相关与回归学习笔记(二十九)——利用线性回归模型做曲线拟合(五)

    R相关与回归学习笔记(三十)——利用线性回归模型做曲线拟合(六)

    R相关与回归学习笔记(三十一)——分组建立多个模型(一)

    R相关与回归学习笔记(三十二)——分组建立多个模型(二)

    展开全文
  • 动态参数线性回归模型
  • 考虑到要评价一个回归模型的效果,包括拟合的效果一般用校正R2,这个R2有着独特的计算方式,可不是相关系数,当然R2也不是相关系数。 https://blog.csdn.net/weixin_38100489/article/details/78175928 如果要看看...

    考虑到要评价一个回归模型的效果,包括拟合的效果一般用校正R2,这个R2有着独特的计算方式,可不是相关系数,当然R2也不是相关系数。

    https://blog.csdn.net/weixin_38100489/article/details/78175928

    如果要看看回归模型种自变量对应变量的解释率,一般用标准化回归系数,这个标准化回归系数值有时候不会被R语言自动计算,可能得借助一些其他包的函数或者自己手动计算,但根据其他资料,该标准化回归系数就是将原始数据(包括自变量和因变量)进行标准化后计算得到的,去除量纲的。据此可以判断某个自变量的变化对因变量的影响情况。

    https://blog.csdn.net/a8131357leo/article/details/80300256

    转载于:https://www.cnblogs.com/arcserver/p/10978201.html

    展开全文
  • 针对类别型变量进行分析预测的方式——逻辑回归分析分类模型和回归模型最明显的区别在于:回归模型预测的Y是数字型变量,如销售额分类模型中,所预测的Y主要是类别型变量,如用户是否购买的标签只会有0(未购买)和1...

    如何用分类模型预测消费者行为?

    针对类别型变量进行分析预测的方式——逻辑回归分析

    分类模型和回归模型最明显的区别在于:

    • 回归模型预测的Y是数字型变量,如销售额
    • 分类模型中,所预测的Y主要是类别型变量,如用户是否购买的标签只会有0(未购买)和1(购买)

    什么是分类模型?
    分类模型是机器通过学习与训练已有的数据,从而预测新数据的类别

    逻辑回归的定义

    • 最主流的分类分析方法就是进行逻辑回归建模
      • 模型性能稳定
      • 模型的解释变量和目标变量之间的关系容易解释
    • 逻辑回归不仅是分类模型的主力军,更是最常用的数据分析模型之一

    逻辑回归模型的建立

    • 建立逻辑回归模型,就是考虑在各种X的情况下,实现Y=1的概率。
      • Y=1
        • 用户的点击/购买/注册
      • Y=0
        • 用户未点击/未购买/未注册
    • 对于每个需要预测的记录,都会生成一个预测的期望值
      • 预测值,在0和1之间
      • 真实值,是1或者0
      • 预测值和真实值之间存在差值

    逻辑回归模型的评估和优化

    • 真实值和预测值会形成左图ABCD四种可能的组合。
    • 评判模型预测效果的好坏时,可用预测的正确数除以总数:
      • (A+D)/(A+B+C+D)
    • 因此模型的优化过程就是尽可能减少
      • 预测值和真实值之间的差值
      • 错误预测结果的数量

    2541c1b9fb5d6de8deeb8b8802834de0.png

    最常见的分类模型应用场景:

    • 医疗肿瘤预测
    • 垃圾邮件识别
    • 个人信用评分

    使用逻辑回归预测恶性肿瘤

    调包与数据导入

    # 导入pandas与numpy工具包。
    

    查看数据

    使用head()函数,查看前5行数据。

    data.head()

    数据特征解释:每个维度特征都是1~10之间的数字

    • Sample code number 样本代码编号
    • Clump Thickness 肿块厚度
    • Uniformity of Cell Size 细胞大小的均匀性
    • Uniformity of Cell Shape 细胞形状的均匀性
    • Marginal Adhesion 边缘粘
    • Single Epithelial Cell Size 单上皮细胞的大小
    • Bare Nuclei 裸核
    • Bland Chromatin 乏味染色体
    • Normal Nucleoli 正常核
    • Mitoses 有丝分裂
    • class 类别 2为良性,4为恶性

    关键步骤一:缺失值处理

    发现数据中有'?', 为了后续的分析,使用replace()将异常值替换为标准缺失值,用dropna()将带缺失值的行舍弃,代码如下

    # 将?替换为标准缺失值表示。
    data = data.replace(to_replace='?', value=np.nan)
    
    # 丢弃带有缺失值的数据(只要有一个维度有缺失)。
    data = data.dropna(how='any')
    
    # 输出data的数据量和维度。
    data.shape

    再次查看数据量和维度,发现有16行数据被舍弃低于3%,在合理范围内 。

    结果解释:683条数据 9个特征 1个id 1个分类结果

    data.shape
    data[column_names[1:10]].head() # 只看第2到10列,省略了对第一列ID的查看

    f70e6f95f0d0756e3e5241c232f2ad75.png

    关键步骤二:拆分训练集和测试集
    准备完数据后,可以开始逻辑回归建模,先拆分训练集和测试集 ,使用train_test_split将数据集拆分成训练集和测试集。
    用test_size=0.25,意思就是75%作为训练集,25%作为测试集。调整这个系数就可以调整训练集测试集的大小

    # 随机采样25%的数据用于测试,剩下的75%用于构建训练集合。
    X_train, X_test, y_train, y_test = train_test_split(data[column_names[1:10]], 
    #特征:第0列id去掉,第10列分类结果去掉
      data[column_names[10]],#第10列的分类结果作为目标分类变量 
      test_size=0.25, 
      random_state=33)

    此时,可以查看测试集/训练集的样本数量和类别分布。也就是测试集与训练集中良性肿瘤的数量。

    y_train.value_counts()
    y_test.value_counts()

    关键步骤三:标准化数据

    在分类模型中,为了消除特征之间的差异性,我们需要将数据标准化,也就是说,将不同的特征值控制在一定的范围内,使得不同的特征变量具有相同的尺度。代码如下:

    # 从sklearn.preprocessing里导入StandardScaler。
    from sklearn.preprocessing import StandardScaler
    # 从sklearn.linear_model里导入LogisticRegression
    from sklearn.linear_model import LogisticRegression
    # 标准化数据,保证每个维度的特征数据方差为1,均值为0。使得预测结果不会被某些维度过大的特征值而主导。
    ss = StandardScaler()
    X_train = ss.fit_transform(X_train)
    X_test = ss.transform(X_test)

    关键步骤四:训练与评估模型

    调用Lr中的fit模块训练模型参数,模型建立好之后需要评估训练效果,本案例中,提供了两种评估方法:从Sklearn导入分类报告及使用逻辑回归自带评分函数获得模型预测正确的百分比。代码如下:

    #调用Lr中的fit模块训练模型参数
    lr = LogisticRegression()
    lr.fit(X_train, y_train)
    lr_y_predict = lr.predict(X_test)
    
    #评估训练效果——从Sklearn导入分类报告;
    from sklearn.metrics import classification_report
    print(classification_report(y_test, lr_y_predict, target_names=['Benign', 'Malignant']))
    
    #使用逻辑回归自带评分函数获得模型预测正确的百分比
    print('Accuracy of LR Classifier:', lr.score(X_test, y_test))

    2187d3ef8ad40d7d309267cac279b9cd.png

    结果解读:

    • Benign为良性,Malignant为恶性
    • support为样本个数
    • recall 召回率/查全率
      • 患有恶性肿瘤时,被诊断出的概率
    • precision 精确率/查准率
      • 诊断为恶性肿瘤时,的确患有恶性肿瘤的概率

    召回率与精确率我们往往会更关注其中一个指标。 在这个案例中,我们显然更关注召回率,也就是应该被正确识别的恶性肿瘤的百分比 。

    展开全文
  • 掌握回归模型参数评估及超参数调优 对模型超参数进行调优(调参): 对模型得优化不止局限于对模型算法的优化,比如:岭回归对线性回归的优化是通过在线性回归的损失函数中加入L2正则化项从而牺牲无偏性降低方差。...
  • 统计狗来总结一下前面各个楼主的回答,先甩答案:logistic回归模型参数估计问题,是可以用最小二乘方法的思想进行求解的,但和经典的(或者说用在经典线性回归的参数估计问题)最小二乘法不同,是用的是“迭代重加权...
  • 一、回归模型 在机器学习中,其中算法最为重要一面就是回归算法,回归算法占...在这里我们使用线性回归来了解回归模型评估和超参数调节。 首先,我们需要了解回归参数评价指标 二、回归类的模型评估指标 在回归模型
  • 参数回归是我们最长用的模型。与参数回归相对的非参数回归,这种模型对变量分布等假定并不是很严等,因此可以说扩展了参数回归的应用范围。但是非参数回归的局限性在于,在存在较多的解释变量时,很容易出现所谓的...
  • Logistic回归模型下的一些岭参数性质,杨成敏,黎雅莲,这篇文章主要介绍基于极大似然(ML)估计Logistic岭回归(logistic ridge regression)模型(LRR)岭参数k的新方法。运用蒙特卡洛模拟研究分别
  • 优化预测 使用决策树回归模型改变模型参数以优化预测算法。
  • Logistic回归简介Logistic回归:主要用于因变量为分类变量(如疾病的缓解、不缓解,评比62616964757a686964616fe78988e69d8331333363383438中的好、中、差等)的回归分析,自变量可以为分类变量,也可以为连续变量。...
  • 本文脉络:logistic回归模型的含义logistic模型的决策边界函数分析logistic模型的参数最优化logistic回归模型与感知机模型的比较总结logistic回归模型的含义我们把分类模型分成两个阶段,推断阶段和决策...
  • 在之前的讨论中,我们似乎对模型的优化都是对模型算法本身的改进,比如:岭回归对线性回归的优化在于在线性回归的损失函数中加入L2正则化项从而牺牲无偏性降低方差。但是,大家是否想过这样的问题:在L2正则化中参数...
  • cox风险回归模型参数估计The final part aims to walk you through the process of applying different classification algorithms on our transformed dataset as well as producing the best-performing model ...
  • 比例风险(Cox)回归模型——Proportional hazards model

    万次阅读 多人点赞 2018-11-29 16:40:57
    比例风险回归模型,又称Cox回归模型,是由英国统计学家D.R.Cox与1972年提出的一种半参数回归模型。模型可以用来描述了不随时间变化的多个特征对于在某一时刻死亡率的影响。它是一个在生存分析中的一个重要的模型。 ...
  • 提出基于自回归参数模型的故障电弧检测方法,采用二阶Burg方法对采集的信号建立自回归模型,提取AR模型参数,通过计算、比较相应的距离测度实现对故障电弧的检测.研究结果表明:通过二阶Burg方法建立的自回归参数模型能...
  • 针对Logistic回归模型中的参数估计计算复杂难题,提出一种基于粒子群优化算法(PSO)的估计方法。以最大似然准则作为粒子群优化算法的适应度函数,建立了Logistic回归模型中的参数估算模型。数值仿真分析表明,粒子...
  • 纯非线性回归模型参数估计与非纯非线性回归模型参数估计的对比差异
  • 负二项回归模型下双参数估计的有效性研究,姚程,黎雅莲,在实际应用中分析计数数据时经常会用到负二项分布(NB)回归模型这一典型广义线性模型。复共线性问题的提出使得经典的极大似然估�
  • LOGISTIC模型参数估计及预测实例维普资讯ELogistic模型参数估计及预测实例 13Logistic模型参数估计及预测实例’杨昭军 义民 o2l,/7、(湖南税务高专 411100) (西北工业大学)摘 ...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 7,167
精华内容 2,866
关键字:

参数回归模型