精华内容
下载资源
问答
  • CS模型、当前统计模型、MATLAB代码
  • 王松桂《线性统计模型——线性回归与方差分析》教材的课件,第一章。 线性模型的一般描述。 线性模型的基本概念,要解决的问题。 方差分析模型。
  • 统计模型理论和实践

    2017-10-29 15:53:48
    统计模型理论和实践(第二版原书,书中文字可以复制粘贴)
  • 讲述数量金融中最重要的统计方法和模型,通过统计建模和统计决策理论将金融理论与市场实务相联系
  • 统计模型 理论和实践 原书第2版.统计模型 理论和实践 原书第2版.
  • 线性统计模型 线性回归与方差分析 这对于准备从事大数据分析的人来说是必修的一门课程
  • statsmodels︱python常规统计模型

    千次阅读 多人点赞 2020-02-18 10:37:11
    之前看sklearn线性模型没有R方,F...文章目录1 安装2 相关模型介绍2.1 线性模型2.2 离散选择模型(Discrete Choice Model, DCM)2.3 非参数统计2.4 广义线性模型 - Generalized Linear Models2.5 稳健回归——Robust R...

    之前看sklearn线性模型没有R方,F检验,回归系数T检验等指标,于是看到了statsmodels这个库,看着该库输出的结果真是够怀念的。。



    1 安装

    pip install statsmodels
    

    不过有可能会报错:

    ImportError: cannot import name 'factorial' from 'scipy.misc' 
    (E:\Anaconda3.7\lib\site-packages\scipy\misc\__init__.py)
    
    

    是跟scipy版本不匹配,笔者是删掉之前的pip uninstall statsmodels,再重新安装了一下就好了:

    pip install --pre statsmodels -i https://pypi.tuna.tsinghua.edu.cn/simple
    

    2 相关模型介绍

    相关文档可见:https://www.statsmodels.org/stable/examples/index.html

    在这里插入图片描述

    包含的模型有:

    2.1 线性模型

    在这里插入图片描述

    2.2 离散选择模型(Discrete Choice Model, DCM)

    在这里插入图片描述

    参考:离散选择模型(Discrete Choice Model, DCM)简介——之一

    离散选择模型(Discrete Choice Model, DCM)在经济学领域和社会学领域都有广泛的应用。
    例如,消费者在购买汽车的时候通常会比较几个不同的品牌,如福特、本田、大众,等等。
    如果将消费者选择福特汽车记为Y=1,选择本田汽车记为Y=2,选择大众汽车记为Y=3;那么在研究消费者选择何种汽车品牌的时候,由于因变量不是一个连续的变量(Y=1, 2, 3),传统的线性回归模型就有一定的局限(见DCM系列文章第2篇)。
    再比如,在交通安全研究领域,通常将交通事故的严重程度划分为3大类:

    • (1)仅财产损失(Property Damage Only, PDO),
    • (2)受伤(Injury),
    • (3)死亡(Fatality);
      在研究各类因素(如道路坡度、弯道曲率等、车龄、光照、天气条件等)对事故严重程度的影响的时候,由于因变量(事故严重程度)是一个离散变量(仅3个选项),使用离散选择模型可以提供一个有效的建模途径。
      在这里插入图片描述

    2.3 非参数统计

    在这里插入图片描述

    2.4 广义线性模型 - Generalized Linear Models

    在这里插入图片描述

    2.5 稳健回归——Robust Regression

    在这里插入图片描述

    2.6 广义估计方程

    在这里插入图片描述

    2.7 方差分析

    在这里插入图片描述

    2.8 时间序列分析——Time Series Analysis

    在这里插入图片描述

    2.9 空间计量必备:状态空间模型——State space models

    在这里插入图片描述

    在这里插入图片描述

    2.10 多元统计模型——因子/主成分分析

    在这里插入图片描述


    3 相关模型demo

    3.1 线性回归模型

    可参考:https://www.statsmodels.org/stable/examples/notebooks/generated/ols.html

    #  线性模型
    import statsmodels.api as sm
    import numpy as np
    x = np.linspace(0,10,100)
    y = 3*x + np.random.randn()+ 10
    # Fit and summarize OLS model
    X = sm.add_constant(x)
    mod = sm.OLS(y,X)
    result = mod.fit()
    print('Parameters: ', result .params)
    print('Standard errors: ', result .bse)
    print('Predicted values: ', result .predict())
    print(result.summary())
    
    
    # 预测数据
    print(result.predict(X[:5]))
    

    输出结果超级熟悉。

    • result.params是回归系数
    • result.summary()把模型相关系数都打印出来
      其中,预测的时候,如果不给入参数result.predict(),则默认是X

    在这里插入图片描述

    在这里插入图片描述

    3.2 广义线性模型——GLM

    参考:https://www.statsmodels.org/stable/examples/notebooks/generated/glm.html

    import statsmodels.formula.api as smf
    star98 = sm.datasets.star98.load_pandas().data
    formula = 'SUCCESS ~ LOWINC + PERASIAN + PERBLACK + PERHISP + PCTCHRT + \
               PCTYRRND + PERMINTE*AVYRSEXP*AVSALK + PERSPENK*PTRATIO*PCTAF'
    dta = star98[['NABOVE', 'NBELOW', 'LOWINC', 'PERASIAN', 'PERBLACK', 'PERHISP',
                  'PCTCHRT', 'PCTYRRND', 'PERMINTE', 'AVYRSEXP', 'AVSALK',
                  'PERSPENK', 'PTRATIO', 'PCTAF']].copy()
    endog = dta['NABOVE'] / (dta['NABOVE'] + dta.pop('NBELOW'))
    del dta['NABOVE']
    dta['SUCCESS'] = endog
    
    mod1 = smf.glm(formula=formula, data=dta, family=sm.families.Binomial()).fit()
    mod1.summary()
    mod1.predict(dta)
    
    

    formula是常规的公式,其中所有X/Y数据都放在一个dataframe之中。
    在这里插入图片描述

    print('Total number of trials:',  data.endog[0].sum())
    print('Parameters: ', res.params)
    print('T-values: ', res.tvalues)
    

    在这里插入图片描述

    包括了回归系数,T检验值

    3.3 稳健回归

    参考:https://www.statsmodels.org/stable/examples/notebooks/generated/robust_models_0.html

    nsample = 50
    x1 = np.linspace(0, 20, nsample)
    X = np.column_stack((x1, (x1-5)**2))
    X = sm.add_constant(X)
    sig = 0.3   # smaller error variance makes OLS<->RLM contrast bigger
    beta = [5, 0.5, -0.0]
    y_true2 = np.dot(X, beta)
    y2 = y_true2 + sig*1. * np.random.normal(size=nsample)
    y2[[39,41,43,45,48]] -= 5   # add some outliers (10% of nsample)
    
    X2 = X[:,[0,1]]
    res2 = sm.OLS(y2, X2).fit()
    print(res2.params)
    print(res2.bse)
    
    
    resrlm2 = sm.RLM(y2, X2).fit()
    print(resrlm2.params)
    print(resrlm2.bse)
    print(resrlm2.summary())
    

    在这里插入图片描述


    4 其他

    4.1 模型结果如何CSV导出?

    可以通过as_csv()将模型导出

    resrlm2 = sm.RLM(y, x).fit()
    resrlm2.summary()
    with open( 'model_rlm.csv', 'w') as fh:
        fh.write(resrlm2.summary().as_csv())
    

    不过导出的格式比较奇怪:
    在这里插入图片描述

    4.2 画模型图以及保存

    import statsmodels.api as sm
    import numpy as np
    import matplotlib.pyplot as plt
    
    # 准备数据
    x = np.linspace(0,10,100)
    y = 3*x + np.random.randn()+ 10
    
    # Fit and summarize OLS model
    res = sm.OLS(y,x).fit()
    print(res.params)
    print(res.summary())
    # 稳健回归
    resrlm = sm.RLM(y, x).fit()
    
    # 画图
    fig, ax = plt.subplots(figsize=(8,6))
    ax.plot(x, y, 'o', label="truey ")
    ax.plot(x, res.predict(), 'o', label="ols")  # res2.predict(X2) == res2.predict()
    ax.plot(x, resrlm.predict(), 'b-', label="rlm")# resrlm2.predict(X2) == resrlm2.predict()
    legend = ax.legend(loc="best")
    
    # 图保存
    plt.savefig( 'image.jpg')
    
    

    4.3 快速获取模型输出参数:P检验、F检验、P统计量

    def get_model_param(res2,name = 'all'):
        model_param_dict = {'name':name,  # 模型的名字
                            'rsquared':res2.rsquared, # R方
                            'fvalue':res2.fvalue, # F值,整个模型
                            'f_pvalue':res2.f_pvalue, # P值,整个模型
                            'params':res2.params[0], # 回归系数
                            'pvalues':res2.pvalues[0], # 回归系数 P检验 0.000
                            'tvalues':res2.tvalues[0]} # 回归系数 T检验 276.571
        return model_param_dict
    
    
    展开全文
  • 常用的统计模型

    千次阅读 2019-06-28 09:51:01
    1.广义线性模型(是多数监督机器学习方法的基础,如逻辑回归和Tweedie回归) 2.时间序列方法(ARIMA ,SSA,基于机器学习的方法) 3.结构方程建模(针对潜变量之间关系进行建模) 4.因子分析(调查设计和验证的...

    1.广义线性模型(是多数监督机器学习方法的基础,如逻辑回归和Tweedie回归)

    2.时间序列方法(ARIMA ,SSA,基于机器学习的方法)

    3.结构方程建模(针对潜变量之间关系进行建模)

    4.因子分析(调查设计和验证的探索型分析)

    5.功效分析/实验分析(特别是基于仿真的实验设计,以避免分析过度)

    6.非参数检验(MCMC)
    7.K均值聚类

    8.贝叶斯方法(朴素贝叶斯、贝叶斯模型平均/Bayesian model averaging、贝叶斯适应型实验/Bayesian adaptive trials)

    9.惩罚性回归模型(弹性网络/Elastic Net,LASSO,LARS),以及对通用模型(SVM\XGboost等)加惩罚,这对于预测变量多与观测值的数据很有用,在基因组学和社会科学研究中较为常用。

    10.样条模型/SPline-based models(MARS等):主要用于流程建模。

    11.马尔可夫链和随机过程(时间序列建模和预测建模的替代方法)

    12.缺失数据插补方法及其假设(missFores,MICE)

    13.生存分析/survival analysis(主要特点是考虑了每个观测出现某一结局的时间长短)

    14.混合建模

    15.统计推理和组群测试

    建议读者根据自己所学领域重点学习面向特定领域的专用模型

    ##以上内容均来自《python 编程从数据分析到数据科学》

    展开全文
  • 七大统计模型

    千次阅读 2018-12-05 16:50:48
    在研究变量之间的相互影响关系模型时候,用到这类方法,具体地说:其可以定量地描述某一现象和某些因素之间的函数关系,将各变量的已知值带入回归方程可以求出因变量的估计值,从而可以进行预测等相关研究。...

    一、多元回归 

    1、概述: 

    在研究变量之间的相互影响关系模型时候,用到这类方法,具体地说:其可以定量地描述某一现象和某些因素之间的函数关系,将各变量的已知值带入回归方程可以求出因变量的估计值,从而可以进行预测等相关研究。

     

     2、分类  

    分为两类:多元线性回归和非线性线性回归;

    其中非线性回归可以通过一定的变化转化为线性回归,比如:y=lnx 可以转化为y=u    u=lnx来解决;

    3、 注意事项 

      在做回归的时候,一定要注意两件事: 

    (1) 回归方程的显著性检验 

    (2) 回归系数的显著性检验 

    检验是很多学生在建模中不注意的地方,好的检验结果可以体现出你模型的优劣,这点一定要注意。 

     

    二、聚类分析 

    1、概述:

    聚类分析指将物理或抽象对象的集合分组为由类似的对象组成的多个类的分析过程。

     

    2、分类  

    聚类主要有三种: 

    (1) K均值聚类

    (2) 系统聚类

    (3)二阶聚类

    类的距离计算方法: 

    (1) 最短距离法 

    (2) 最长距离法 

    (3) 中间距离法

    (4) 重心法

    (5) 类平均法 

    (6) 可变类平均法 

    (7) 可变法 

    (8) 利差平均和法 

    3、注意事项 

    在样本量比较大时,要得到聚类结果就显得不是很容易,这时需要根据背景知识和相关的其他方法辅助处理。 

    还需要注意的是:如果总体样本的显著性差异不是特别大的时候,使用的时候也要注意! 

     

    三、分类 

    1、概述 

    分类是一种典型的有监督的机器学习方法,其目的是从一组已知类别的数据中发现分类模型,以预测新数据的未知类别。 

    这里需要说明的是:预测和分类是有区别的,预测是对数据的预测,而分类是类别的预测。 

    2、常用分类模型:

    (1)神经网络

    (2)决策树

    3、注意事项 

    A. 神经网络适用于下列情况的分类: 

    (1) 数据量比较小,缺少足够的样本建立数学模型

    (2) 数据的结构难以用传统的统计方法来描述

    (3) 分类模型难以表示为传统的统计模型 

    B. 神经网络的优点: 

    分类准确度高,并行分布处理能力强, 对噪声数据有较强的鲁棒性和容错能力,能够充分逼近复杂的非线性关系,具备联想记忆的功能等。 

    C. 神经网络缺点: 

    需要大量的参数,不能观察中间学习过程,输出结果较难解释,会影响到结果的可信度,需要较长的学习时间,当数据量较大的时候,学习速度会制约其应用。 

     

    四、判别分析 

    1、概述

    判别分析是基于已知类别的训练样本,对未知类别的样本判别的一种统计方法,也是一种有监督的学习方法,是分类的一个子方法!

     

    具体是:在研究已经过分类的样本基础上,根据某些判别分析方法建立判别式,然后对未知分类的样本进行分类!

     2、判别方法 

    根据判别分析方法的不同,可分为下面几类:

    (1) 距离判别法 

    (2) Fisher判别法 

    (3) Bayes判别法 

    (4) 逐步判别法 

    比较常用的是Bayes判别法和逐步判别法 

    3、 注意事项: 

    判别分析主要针对的是有监督学习的分类问题。这里重点注意其优缺点:

    (1) 距离判别方法简单容易理解,但是它将总体等概率看待,没有差异性; 

    (2) Bayes判别法有效地解决了距离判别法的不足,即:其考虑了先验概率——所以通常这种方法在实际中应用比较多! 

    (3) 判别分析要求给定的样本数据必须有明显的差异,在进行判别分析之前,应首先检验各类均值是不是有差异,如果检验后某两个总体的差异不明显,应将这两个总体合为一个总体,再由剩下的互不相同的总体重现建立判别分析模型。 

    (4)Fisher判别法和bayes判别法的使用要求:两者对总体的数据的分布要求不同,Fisher要求对数据分布没有特殊要求,而bayes则要求数据分布是多元正态分布,但实际中却没有这么严格!

     

    五、主成分分析 

    1、概述

    主成分分析是一种降维数的数学方法,具体就是,通过降维技术将多个变量化为少数几个主成分的统计分析方法。

    在建模中,主要用于降维,系统评估,回归分析,加权分析等等。 

    2、分类(无) 

    3、注意事项 

    在应用主成分分析时候,应该注意: 

    (1) 综合指标彼此独立或者不相互干涉

    (2) 每个综合指标所反映的各个样本的总信息量等于对应特征向量的特征值。通常要选取的综合指标的特征值贡献率之和应为80%以上 

    (3) 其在应用上侧重于信息贡献影响力的综合评价 

    (4) 当主成分因子负荷的符号有正也有负的时候,综合评价的函数意义就不明确! 

     

    六、因子分析 

    1、概述

    因子分析是将变量总和为数量较少的几个因子,是降维的一种数学技术! 

    它和主成分分析的最大区别是:其是一种探索性分析方法,即:通过用最少个数的几个不可观察的变量来说明出现在可观察变量中的相关模型,它提供了一种有效的利用数学模型来解释事物之间的关系,体现出数据挖掘的一点精神! 

    2、分类

    R型因子分析,即对变量的研究,此为常用

    Q型因子分析,即对样本的研究 

    3、因子分析和主成分分析的区别和联系

    (1) 两者都是降维数学技术,前者是后者的推广和发展 

    (2) 主成分分析只是一般的变量替换,其始终是基于原始变量研究数据的模型规律;而因子分析则是通过挖掘出新的少数变量,来研究的一种方法,有点像数据挖掘中的未知关联关则发现!

     

    七、时间序列

     1、概述 

    时间序列预测法是一种定量分析方法,它是在时间序列变量分析的基础上,运用一定的数学方法建立预测模型,使时间趋势向外延伸,从而预测未来市场的发展变化趋势,确定变量预测值。 

    基本特点是:假定事物的过去趋势会延伸到未来;预测所依据的数据具有不规则性;撇开市场发展之间的因果关系。

     

     2、分类 

    时间序列的变动形态一般分为四种:

    • 长期趋势变动

    • 季节变动

    • 循环变动

    • 不规则变动

     方法分类: 

    (1) 平均数预测

    (2) 移动平均数预测

    (3) 指数平滑法预测

    (4) 趋势法预测

    (5) 季节变动法

    3.注意事项 

    (1)季节变动法预测需要筹集至少三年以上的资料 

    (2)移动平均法在短期预测中较准确,长期预测中效果较差; 

    (3)移动平均可以消除或减少时间序列数据受偶然性因素干扰而产生的随机变动影响。 

    展开全文
  • 关于当前统计模型的一种新算法,对于需要了解当前统计模型的朋友应该有帮助的吧
  • 不可不知的七大统计模型

    万次阅读 多人点赞 2018-12-03 16:18:07
    在研究变量之间的相互影响关系模型时候,用到这类方法,具体地说:其可以定量地描述某一现象和某些因素之间的函数关系,将各变量的已知值带入回归方程可以求出因变量的估计值,从而可以进行预测等相关研究。...

    一、多元回归 

    1、概述: 

    在研究变量之间的相互影响关系模型时候,用到这类方法,具体地说:其可以定量地描述某一现象和某些因素之间的函数关系,将各变量的已知值带入回归方程可以求出因变量的估计值,从而可以进行预测等相关研究。

     

     2、分类  

    分为两类:多元线性回归和非线性线性回归;

    其中非线性回归可以通过一定的变化转化为线性回归,比如:y=lnx 可以转化为y=u    u=lnx来解决;

    3、 注意事项 

      在做回归的时候,一定要注意两件事: 

    (1) 回归方程的显著性检验 

    (2) 回归系数的显著性检验 

    检验是很多学生在建模中不注意的地方,好的检验结果可以体现出你模型的优劣,这点一定要注意。 

     

    二、聚类分析 

    1、概述:

    聚类分析指将物理或抽象对象的集合分组为由类似的对象组成的多个类的分析过程。

     

    2、分类  

    聚类主要有三种: 

    (1) K均值聚类

    (2) 系统聚类

    (3)二阶聚类

    类的距离计算方法: 

    (1) 最短距离法 

    (2) 最长距离法 

    (3) 中间距离法

    (4) 重心法

    (5) 类平均法 

    (6) 可变类平均法 

    (7) 可变法 

    (8) 利差平均和法 

    3、注意事项 

    在样本量比较大时,要得到聚类结果就显得不是很容易,这时需要根据背景知识和相关的其他方法辅助处理。 

    还需要注意的是:如果总体样本的显著性差异不是特别大的时候,使用的时候也要注意! 

     

    三、分类 

    1、概述 

    分类是一种典型的有监督的机器学习方法,其目的是从一组已知类别的数据中发现分类模型,以预测新数据的未知类别。

     

     

    这里需要说明的是:预测和分类是有区别的,预测是对数据的预测,而分类是类别的预测。 

    2、常用分类模型:

    (1)神经网络

    (2)决策树

    3、注意事项 

    A. 神经网络适用于下列情况的分类: 

    (1) 数据量比较小,缺少足够的样本建立数学模型

    (2) 数据的结构难以用传统的统计方法来描述

    (3) 分类模型难以表示为传统的统计模型 

    B. 神经网络的优点: 

    分类准确度高,并行分布处理能力强, 对噪声数据有较强的鲁棒性和容错能力,能够充分逼近复杂的非线性关系,具备联想记忆的功能等。 

    C. 神经网络缺点: 

    需要大量的参数,不能观察中间学习过程,输出结果较难解释,会影响到结果的可信度,需要较长的学习时间,当数据量较大的时候,学习速度会制约其应用。 

     

    四、判别分析 

    1、概述

    判别分析是基于已知类别的训练样本,对未知类别的样本判别的一种统计方法,也是一种有监督的学习方法,是分类的一个子方法!

     

    具体是:在研究已经过分类的样本基础上,根据某些判别分析方法建立判别式,然后对未知分类的样本进行分类!

     2、判别方法 

    根据判别分析方法的不同,可分为下面几类:

    (1) 距离判别法 

    (2) Fisher判别法 

    (3) Bayes判别法 

    (4) 逐步判别法 

    比较常用的是Bayes判别法和逐步判别法 

    3、 注意事项: 

    判别分析主要针对的是有监督学习的分类问题。这里重点注意其优缺点:

    (1) 距离判别方法简单容易理解,但是它将总体等概率看待,没有差异性; 

    (2) Bayes判别法有效地解决了距离判别法的不足,即:其考虑了先验概率——所以通常这种方法在实际中应用比较多! 

    (3) 判别分析要求给定的样本数据必须有明显的差异,在进行判别分析之前,应首先检验各类均值是不是有差异,如果检验后某两个总体的差异不明显,应将这两个总体合为一个总体,再由剩下的互不相同的总体重现建立判别分析模型。 

    (4)Fisher判别法和bayes判别法的使用要求:两者对总体的数据的分布要求不同,Fisher要求对数据分布没有特殊要求,而bayes则要求数据分布是多元正态分布,但实际中却没有这么严格!

     

    五、主成分分析 

    1、概述

    主成分分析是一种降维数的数学方法,具体就是,通过降维技术将多个变量化为少数几个主成分的统计分析方法。

    在建模中,主要用于降维,系统评估,回归分析,加权分析等等。 

    2、分类(无) 

    3、注意事项 

    在应用主成分分析时候,应该注意: 

    (1) 综合指标彼此独立或者不相互干涉

    (2) 每个综合指标所反映的各个样本的总信息量等于对应特征向量的特征值。通常要选取的综合指标的特征值贡献率之和应为80%以上 

    (3) 其在应用上侧重于信息贡献影响力的综合评价 

    (4) 当主成分因子负荷的符号有正也有负的时候,综合评价的函数意义就不明确! 

     

    六、因子分析 

    1、概述

    因子分析是将变量总和为数量较少的几个因子,是降维的一种数学技术! 

    它和主成分分析的最大区别是:其是一种探索性分析方法,即:通过用最少个数的几个不可观察的变量来说明出现在可观察变量中的相关模型,它提供了一种有效的利用数学模型来解释事物之间的关系,体现出数据挖掘的一点精神! 

    2、分类

    R型因子分析,即对变量的研究,此为常用

    Q型因子分析,即对样本的研究 

    3、因子分析和主成分分析的区别和联系

    (1) 两者都是降维数学技术,前者是后者的推广和发展 

    (2) 主成分分析只是一般的变量替换,其始终是基于原始变量研究数据的模型规律;而因子分析则是通过挖掘出新的少数变量,来研究的一种方法,有点像数据挖掘中的未知关联关则发现!

     

    七、时间序列

     1、概述 

    时间序列预测法是一种定量分析方法,它是在时间序列变量分析的基础上,运用一定的数学方法建立预测模型,使时间趋势向外延伸,从而预测未来市场的发展变化趋势,确定变量预测值。 

    基本特点是:假定事物的过去趋势会延伸到未来;预测所依据的数据具有不规则性;撇开市场发展之间的因果关系。

     

     2、分类 

    时间序列的变动形态一般分为四种:

    • 长期趋势变动

    • 季节变动

    • 循环变动

    • 不规则变动

     方法分类: 

    (1) 平均数预测

    (2) 移动平均数预测

    (3) 指数平滑法预测

    (4) 趋势法预测

    (5) 季节变动法

    3.注意事项 

    (1)季节变动法预测需要筹集至少三年以上的资料 

    (2)移动平均法在短期预测中较准确,长期预测中效果较差; 

    (3)移动平均可以消除或减少时间序列数据受偶然性因素干扰而产生的随机变动影响。

    展开全文
  • 常用统计模型与算法

    千次阅读 2020-03-03 18:56:53
    基本统计方法 方差分析:研究分类变量与数值型变量的相关关系 相关分析:主要研究数值变量间的线性相关关系 列联分析:研究分类变量间的独立性 常用模型与算法 主成分分析:将多个变量规约为少数几个综合变量,新...
  • Pytorch统计模型参数量和计算量

    千次阅读 2020-01-13 15:08:31
    # 可替换为自己的模型及输入 model = resnet50 ( ) input = torch . randn ( 1 , 3 , 224 , 224 ) flops , params = profile ( model , inputs = ( input , ) ) flops , params = clever_...
  • pytorch统计模型参数量

    千次阅读 2018-08-24 14:36:00
    用resnet50 来举例子 print("resnet50 have {} paramerters in total"....其中numel表示含有多少element,通过此操作可以统计模型的参数量有多少 另外,两个是一样的,方便debug看其中到底有什么东西 ...
  • 统计模型之间的比较

    千次阅读 2018-08-28 12:06:34
         HMM模型将标注看作...为了能够定义这种联合概率分布,产生式模型需要枚举出所有可能的观察序列,这在实际运算过程中很困难,因为我们需要将观察序列的元素看做是彼此孤立的个体即假设每...
  • 3、当然经常用的还会有统计量的检验方式,ad和adf检验,也称为单位根检验。2R语言中做单位的函数有:fUnitRoots包中的UnitrootTests和adfTest。2、用tseries包中的adf.test和pp.test。具体的做法见函数的hlep例子和...
  • 【临床预测模型】----选择合适的统计模型 常用4种统计模型 1)logistics 回归: |分类变量 2)cox回归: |生存资料 3)poisson /负二项回归: |计数资料 4)线性回归: |回归连续变量 根据不同的结局事件,建立...
  • 机器学习和统计模型的差异

    千次阅读 2015-07-30 08:26:48
    在各种各样的数据科学论坛上这样一个问题经常被问到——机器学习和统计模型的差别是什么? 这确实是一个难以回答的问题。考虑到机器学习和统计模型解决问题的相似性,两者的区别似乎仅仅在于数据量和模型建立者的...
  • 数学建模 必须掌握 统计模型 数学建模 必须掌握 统计模型 数学建模 必须掌握 统计模型 数学建模 必须掌握 统计模型 数学建模 必须掌握 统计模型 数学建模 必须掌握 统计模型 数学建模 必须掌握 统计模型
  • 统计模型参数量与FLOPs

    千次阅读 2019-07-06 15:18:51
    近日,GitHub 开源了一个小工具,它可以统计 PyTorch 模型的参数量与每秒浮点运算数(FLOPs)。有了这两种信息,模型大小控制也就更合理了。 其实模型的参数量好算,但浮点运算数并不好确定,我们一般也就根据参数...
  • pytorch 统计模型参数个数

    千次阅读 2019-12-26 15:52:12
    用resnet50 来举例子 print("resnet50 have {} paramerters in total...其中numel表示含有多少element,通过此操作可以统计模型的参数量有多少 另外,两个是一样的,方便debug看其中到底有什么东西 num_params = 0 ...
  • ArcGIS教程:地统计模型的组成

    千次阅读 2015-01-21 15:48:30
    统计(克里金法)模型包括多个组成部分:检查数据(分布、趋势、方向组成和异常值),计算经验半变异函数或协方差值,根据经验值拟合模型,生成克里金方程矩阵以及对其进行求解以为输出表面中的每个位置获取预测值...
  • import logging logging.basicConfig(level=logging.INFO, format='%(message)s', filemode='w', filename=config.logger) def _params_usage(): total = 0 prompt = [] for v in tf.trainable_variables(): ...
  • (R语言)R的统计模型

    万次阅读 多人点赞 2015-04-08 09:03:36
    1定义统计模型的公式 下面统计模型的模板是一个基于独立的方差齐性数据的线性模型  用矩阵术语表示,它可以写成   其中y是响应向量,X是模型矩阵(model matrix)或者设计矩阵(design ma- trix)。X的列 ...
  • 在建立时间序列模型之前,必须先对时间序列数据进行必要的预处理,以便剔除那些不符合统计规律的异常样本,并对这些样本数据的基本统计特性进行检验,以确保建立时间序列模型的可靠性和置信度,并满足一定的精度要求。...
  • R中的统计模型

    千次阅读 2014-04-10 18:07:14
    R中的统计模型  这一部分假定读者已经对统计方法,特别是回归分析和方差分析有一定的了解。后面我们还会假定读者对广义线性模型和非线性模型也有所了解。R已经很好地定义了统计模型拟合中的一些前提条件,因此...
  • 一元正态线性回一元正态一元正态线性回归统计模型线性回归统计模型统计模型一元正态一元正态线性回归统计模型线性回归统计模型
  • 3DMM(人脸3D形变统计模型)

    千次阅读 2020-05-07 12:11:20
    3DMM(人脸3D形变统计模型) 1 3DMM方法介绍 3DMM是一种较为基础的三维人脸统计模型,最早被提出是用于解决从二维人脸图像恢复三维形状的问题。在3DMM方法发展的二十年来,各位学者对其进行了数据扩展和深入研究,又...
  • 线性模型,方差分析模型,假设检验,异方差线性模型

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 400,532
精华内容 160,212
关键字:

统计模型