精华内容
下载资源
问答
  • 摘要在金融领域,自适应Lasso被广泛的用于股票价格预测模型中的变量选择和参数估计。然而,自适应Lasso是针对非时间序列模型提出的,忽略了时间序列模型特定的结构,比如时间序列模型中通常会出现滞后阶数越靠后,对未来...

    摘要

    在金融领域,自适应Lasso被广泛的用于股票价格预测模型中的变量选择和参数估计。然而,自适应Lasso是针对非时间序列模型提出的,忽略了时间序列模型特定的结构,比如时间序列模型中通常会出现滞后阶数越靠后,对未来的预测能力越弱的特性,从而,容易造成估计及预测不精确。因此,时间序列模型的变量选择惩罚参数的设计应与滞后阶数相关,即对越靠后的滞后阶数应加上越大的惩罚。为了充分考虑时间序列模型的特性且保留自适应Lasso的优点,本文针对时间序列AR(p)模型提出一种改进的自适应Lasso(MA Lasso)方法,通过在自适应Lasso惩罚基础上乘以一个关于滞后阶数单调不减的函数来达到目标。这样设计的惩罚参数的另一个优点是通过选取特定的惩罚参数,Lasso,自适应Lasso方法都是MA Lasso方法的特例。进一步,对于AR(p)模型中另一个重要参数p的选择问题,本文提出一种改进的BIC模型准则来选择p。最后,将MA Lasso方法应用到中证100指数中,实证分析表明,与Lasso和自适应Lasso相比,MA Lasso选择最简模型且预测效果最佳,即选择最少的预测变量的同时且具有最小的模型预测误差。

    In the financial field. Adaptive Lasso is widely used for variable selection and parameter estimation in stock price forecasting models. However, Adaptive Lasso is proposed for non-time series models, ignoring the specific structure of time series models. For example, in a time series model, the later the lag order is, the weaker the prediction ability for the future is. It is easy to cause the estimation and prediction to be inaccurate. Therefore, the design of the variable selection penalty parameter of the time series model should be related to the lag order, that is, the greater the penalty for the later lag order. In order to fully consider the characteristics of time series model and retain the advantages of Adaptive Lasso, this paper proposes a modified Adaptive Lasso (MA Lasso) method for time series AR(p) model, which achieves this goal by multiplying a monotone function on the lag order on the basis of Adaptive Lasso penalty. Another advantage of the penalty parameter designed in this way is that by selecting a specific penalty parameter, the Lasso and Adaptive Lasso methods are special cases of the MA Lasso method. Further, for the selection of another important parameter p in the AR(p) model, an modified BIC model criterion is proposed to select p. Finally, the MA Lasso method is applied to the CSI 100 index. The empirical analysis shows that compared with Lasso and Adaptive Lasso, MA Lasso chooses the simplest model and has the best prediction effect, that is, the least predictive variable is selected while having the smallest model prediction error.

    展开全文
  • 摘要如何在对参数进行估计的同时自动选择重要解释变量,一直是面板数据分位回归模型中讨论的热点问题之一。通过构造一种含多重随机效应的贝叶斯分层分位回归模型,在假定固定效应系数先验服从一种新的条件Laplace...

    摘要

    如何在对参数进行估计的同时自动选择重要解释变量,一直是面板数据分位回归模型中讨论的热点问题之一。通过构造一种含多重随机效应的贝叶斯分层分位回归模型,在假定固定效应系数先验服从一种新的条件Laplace分布的基础上,给出了模型参数估计的Gibbs抽样算法。考虑到不同重要程度的解释变量权重系数压缩程度应该不同,所构造的先验信息具有自适应性的特点,能够准确地对模型中重要解释变量进行自动选取,且设计的切片Gibbs抽样算法能够快速有效地解决模型中各个参数的后验均值估计问题。模拟结果显示,新方法在参数估计精确度和变量选择准确度上均优于现有文献的常用方法。通过对中国各地区多个宏观经济指标的面板数据进行建模分析,演示了新方法估计参数与挑选变量的能力。

    How to do parameter estimation and variable selection simultaneously is a hot issue in the study of quantile regression for panel data models .On the base of the assumption that the fixed effect coefficients are subject to a novel conditional Laplace prior ,the paper constructs a hierarchical Bayesian quantile regression model and gives the Gibbs sample algorithm for the unknow n parameter estimation .In consideration of different explain variables should have different shrinkage degree ,the proposed prior has the property of adaptivity ,w hich could select the important explain variables in the model automatically . Furthermore ,the slice Gibbs sample algorithm that the paper proposed is able to estimate the posteriori mean estimation of unknown parameter quickly and efficiently .Monte Carlo simulation study indicates that the proposed method is obviously superior to the existing methods in literatures on the accuracy of parameter estimation and variable selection .Finally ,the paper gives a research of modeling the panel data including several macroeconomic indicators of our country and demonstrates the new method's capability of estimating parameters and doing variable selection .

    展开全文
  • Oracle方法和自适应lasso

    千次阅读 2019-02-08 14:53:53
    @[TOC](自适应lasso(adaptive lasso) & oracle properties Oracle方法 已经被证实的是一个好的方法应该有这些Oracle性质,如系数的连续缩小性也被包括在最优的方法中。 ...

    Oracle方法

    Oracle方法提出来是判断一个模型选择方法是否是好的,比如adaptive lasso是Oracle方法。但是这种判断标准并不是绝对的,不是Oracle方法并不意味着这个方法就是“差的”,比如Lasso不是Oracle方法,但是Lasso在某些数据中的表现情况很好。

    以下是给出一个Oracle方法的定义:
    oracle方法
    已经被证实的是一个好的方法应该有这些Oracle性质,如系数的连续缩小性也被包括在最优的方法中。

    比如,我们用的best subset selection和forward selection在选择变量个数的时候是不连续的,估计的变量系数值自然也是非连续的。

    lasso在某些条件下不满足变量选择的相合性(consistency),lasso不算一个oracle方法。而adaptive lasso当权重被合适地选择时,具有oracle性质。

    adaptive lasso
    adaptive lasso
    提一句,这里的自适应指的是权重本身是data-dependent的。

    当我们选择合适的 λ n λ_n λn时,自适应lasso就会有Oracle性质。这个可以总结为一条定理。
    定理:假设 λ n n → 0 \frac{\lambda_n}{\sqrt{n}}\to0 n λn0 λ n n ν − 1 2 → ∞ \lambda_nn^{\frac{\nu-1}{2}}\to\infty λnn2ν1,自适应lasso的系数估计值满足下列性质:
    (1) 变量选择的相合性
    (2) 渐进正态性

    资料来源:
    [1] Zou H. The adaptive lasso and its oracle properties[J]. Journal of the American statistical association, 2006, 101(476): 1418-1429.

    展开全文
  • 最新变量选择_惩罚似然_自适应Lasso_SCAD_Oracle性质论文变量选择论文:广义线性模型下罚估计量的性质【中文摘要】变量选择是高维统计建模的基础.但传统的使用逐步回归的方法不仅计算复杂而且在变量选择过程中会忽略...

    最新变量选择_惩罚似然_自适应Lasso_SCAD_Oracle性质论文

    变量选择论文:广义线性模型下罚估计量的性质

    【中文摘要】变量选择是高维统计建模的基础.但传统的使用逐步回归的方法不仅计算复杂而且在变量选择过程中会忽略随机误差,因此针对传统方法的不足,提出了惩罚似然方法来克服这一问题.惩

    罚似然方法可以在选择变量的同时估计变量的系数.这种方法不仅被广泛应用于各种参数模型中,而且也能通过使用小波或者样条应用于非参数模型中.本文研究了惩罚似然方法及一些罚函数的性质,主要

    工作有以下几点:(1)总结了惩罚似然方法的发展历程,系统介绍了惩罚似然方法的一般框架.给出基于线性模型的Lo罚,Lq罚(0

    究了在广义线性模型的特例—Poisson对数线性回归模型下,自适应Lasso及SCAD估计量的渐近性质,证明了在满足似然函数的一定条件下,自适应Lasso及SCAD估计量具有稀疏性及渐近正态性,也就是具有Oracle性质.(3)提出了需要进一步研究的一些问题.

    【英文摘要】Variable selection is fundamental to

    high-dimensional statistical modeling. Traditional approaches in use are stepwise selection procedures, which can be computationally expensive and ignore stochastic errors in the variable selection process. Hence againsting for the limitations of the traditional methods, pe-nalized likelihood

    展开全文
  • 正则化路径是在正则化参数lambda的值网格上计算套索LASSO或弹性网路惩罚的正则化路径。该算法速度快,可以利用输入矩阵x中的稀疏性,拟合线性、logistic和多项式、poisson和Cox回归模型。可以通过拟合模型进行各种...
  • 贝叶斯回归分位数在最近的文献中受到广泛关注,本文实现了贝叶斯系数估计和回归分位数(RQ)中的变量选择,带有lasso和自适应lasso惩罚的贝叶斯。还包括总结结果、绘制路径图、后验直方图、自相关图和绘制分位数图的...
  • 论文研究-带网络结构的自适应Lasso分位数回归及其应用.pdf, CVaR是衡量组合投资的重要风险测度,如何在CVaR组合模型中选择稳健的资产组合以降低管理时间和经济成本十分...
  • 由于生存分析中涉及的变量数量比较庞大,经常有遇到处理高维数据的情况,这时在运用Cox模型前就有必要对变量进行选择,去除冗余,这一篇接着上一篇生存分析学习笔记,主要讲我对运用自适应Lasso方法对Cox模型进行...
  • Logistic模型自适应组Lasso算法崔琨鹏赵强【摘要】摘要本文将自适应Lasso与组Lasso进行结合得到了自适应组Lasso,给出了拥有自适应组Lasso惩罚项的logistic模型的相关概念及其符号表示;运用坐标梯度下降算法给出了...
  • 拟合岭回归和LASSO回归,解释系数,并对其在λ范围内的变化做一个直观的可视化。 # 加载CBI数据 # 子集所需的变量(又称,列) CBI_sub <- CBI # 重命名变量列(节省大量的输入) names(CBI_sub)[1] <- "cbi...
  • -研究j,Logistic模型的自适应LASSO变量选择和参数估计,核心是讨 论将变量的信息价值作为自适应LASSO的惩罚项权重,以及证明其得到的参数 估计量具有Oracle性质。由此构建了基于信息权重的Logistic信用评分模型。 ...
  • Adam(Adaptive Moment Estimation)的出现提出自适应学习的方法去解决了学习率过大过小的问题。虽然比SGD快,但极大或极小的学习率都会导致较差的收敛行为,也就是说泛化能力、稳定性相对而言还没有比他慢的SGD好。...
  • python 套索回归This is my second post on the series about penalized ... In the first one we talked about how to implement a sparse group lasso in python, one of the best variable selection alterna...
  • 自适应贝叶斯图形套索 这是R包“ abglasso”的源代码。 它提供了使用贝叶斯图形套索MCMC采样器的函数来返回以下项的后验分布: 协方差矩阵,以及 精密矩阵
  • LASSO回归筛选变量

    2021-11-30 17:15:16
    筛出来的变量稍多,17个,求问各位大佬,有什么办法可以缩减吗?
  • 本征音子说话人自适应方法在自适应数据量不足时会出现严重的过拟合现象,提出了一种基于稀疏组LASSO 约束的本征音子说话人自适应算法。首先给出隐马尔可夫—高斯混合模型下本征音子说话人自适应的基本原理;然后将...
  • Lasso回归

    千次阅读 2020-06-27 16:14:45
    lasso回归1.利用lars函数实现lasso回归并可视化显示2.选取cp值最小时对应的模型,获取模型对应系数对于选取最小cp值对应的模型可以通过两种方式实现:(1)显示所有cp值,从中挑选最小的(2)直接选取最小的cp值3....
  • matlab Lasso回归

    2021-09-06 18:52:44
    Lasso回归 clc,clear; close all; data=[1.54 1.61 1.62 1.66 1.71 1.72 1.73 1.86 1.92 2 2.21 2.29 2.34 2.38 2.42 2.44 2.57 2.64 2.71 2.85 2.93 3.01 3.14 3.22 3.34 3.49 3.55 3.79 3.99 4.12 20.1 20.1 20.3...
  • 这是机器学习Lasso回归重要论文和Matlab代码下载,最近要做《优化理论基础》的课程大作业,需要用到mnist这个手写识别数据库,在网上查了一下如何使用,分享在这里,以飨读者。软件介绍机器学习Lasso回归重要论文和...
  • import numpy as np import matplotlib as mpl import matplotlib.pyplot as plt import pandas as pd import warnings ...from sklearn.linear_model import LinearRegression,LassoCV,RidgeCV,Elastic...
  • Lasso

    2019-04-23 20:31:01
    linear_model.Lasso坐标下降法在每次迭代中在当前点处沿一个坐标方向进行一维搜索,固定其他的坐标方向,找到一个函数的局部极小值 相较于Lasso,linear_model.LassoCV多个阿尔法,得出多个对应最佳的w,然后得到...
  • 提出了一种自适应特征提取算法, 预先生成各种大气条件下的光谱特征, 利用Lasso算法进行快速特征优选, 选择最优目标/背景组合重构背景光谱, 提取目标特征。为了验证所提算法的有效性, 开展了不同背景下的甲烷遥测实验...
  • 基于R实现lasso

    万次阅读 2018-05-12 17:24:18
    数据来源:1994-2013财政收入数据。library(lars)data &lt;- as.matrix(data)out2 &lt;- lars(x=data[,1:13],y=data[,14],type ="lar")summary(out2)Cp的含义:衡量多重共线性,其取值越小越好,...
  • 介绍 Glmnet是一个经过惩罚最大似然来拟合广义线性模型的...在不少状况下,一些变量可能很是重要,以致于一直想要保持这些变量,这能够经过将相应的惩罚因子设置为0来实现: r语言中对LASSO,Ridge和ElasticNet模型实现
  • R语言与LASSO回归和LAR算法

    千次阅读 2019-11-16 12:45:40
    LASSO介绍 Tibshirani(1996)提出了LASSO(The Least Absolute Shringkage and Selectionator operator)算法 通过构造一个一阶惩罚函数获得一个精炼的模型;通过最终确定一些指标(变量)的系数为零(岭回归估计...
  • p-value: 7.861e-05 LASSO plot(lasso) ​ 使用BIC选择路径上的最佳点 ## df MSE bic ## Intercept 1 4.1174138 74.67329 ## 2 3.8224639 74.86881 ## 3 1.9171062 44.27691 ## 4 1.9136899 48.09976 ## 5 1....
  • Adative-lasso+灰色预测(R)

    千次阅读 2016-08-19 15:03:13
    最近在看特征的选择,看到lasso对特征选择不错,下面直接上干货 数据为广州统计年检2015年数据 目标: 1)梳理影响地方财政收入的关键特征,分析、识别影响地方财政收入的关键特征的选择模型; 2)结合目标1的...
  • 基于稀疏group lasso 的思想和adaptive lasso 的优点,提出更具一般性的Lp正则化的自适应稀疏group lasso,并对其高维统计性质进行了研究. 通过对正则子、损失函数的性质和正则参数的选择的分析,最终得到基于Lp 正则化...
  • argmin函数解析

    万次阅读 2019-09-16 20:28:50
    argmin函数 一般的用法为: argmin f(x) 通俗意义上的解释是argmin表示使目标函数f(x)取最小值时的变量值 argmax函数 其用法类似: argmax f(x) ...同理可知argmax表示使目标函数f(x)取最大值时的变量值 ...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 1,979
精华内容 791
关键字:

自适应lasso

友情链接: QC.rar