精华内容
下载资源
问答
  • 区间预测
    千次阅读
    2021-08-15 17:09:46

        个人电气博文目录链接:学好电气全靠它,个人电气博文目录(持续更新中…)

        之前写过一版电力负荷区间预测:电气论文:负荷区间预测(机器学习简单实现)

        这版区间负荷预测思维和上一版不一样。
    核心代码见图(无数据降噪、特征工程部分。只通过简单例子讲分位数回归)


    提示:专栏解锁后,可以看这个专栏所有文章。划算。

    一、分位数回归的数学原理

        

    更多相关内容
  • 基于PSO-KELM的卫星参数区间预测代码 matlab版,使用粒子群算法(Particle Swarm Optimization,PSO)和核极限学习机(Kernel Extreme Learning Machine,KELM)算法相结合的卫星参数区间预测模型。
  • 本文描述了一种基于霍尔特-温特斯模型的贝叶斯预测方法,可以获得准确的预测间隔。我们如何利用这些不确定性来建立平滑线性...利用M3竞赛的3003个时间序列,对所提出的贝叶斯预测方法建立预测区间的准确性进行了检验。
  • 风电功率区间预测是预测给定置信水平下风电功率的上限和下限,可以反映风电功率的变化范围,为调度提供有效的辅助信息。考虑风电功率的混沌特性,提出了基于改进混沌时间序列的风电功率区间预测方法。由于风电功率...
  • 针对高风险背景下的混沌时间序列区间预测问题,首次将回声状态网络与一致性预测框架相结合,提出基于两者的混沌时间序列区间预测算法.该算法将回声状态网络的拟合能力与一致性预测区间的可靠性相结合,使得最终的预测...
  • 基于LSTM和模糊聚类的股票价格的区间预测 python版代码下载。预测区间可以用来预测时间序列的上界和下界。提供的数据集来自 Yahoo Finance API、gold.org、美国能源和信息管理局和 fred.stlouisfed.org。雅虎财经...
  • 区间预测模型 (IPM) 提供了影响随机过程的不确定性的区间值表征。 由于情景理论,优化预测器的可靠性(未来样本将落在预测范围之外的概率)正式有界
  • 粒化后的窗口内历史数据包含功率变化值的最小值、最大值和平均值,形成了新的训练集,进一步对训练集采用极端学习机算法进行训练与预测,实现了光伏发电功率的区间预测。以某地区的光伏发电功率历史数据为算例进行了...
  • 传统的交通流短期预测方法以点预测为主,文中提出了基于多断面相关性的区间预测方法。多断面相关性预测是指把两个或者两个以上相邻点看作一个整体考虑,也将考虑被看作一个整体的相邻点的断面交通流的变化规律和各种...
  • 针对行程时间点预测不能描述预测结果的可信度问题,以高速公路收费系统作为基础数据源,提出基于Bootstrap的高速公路行程时间区间预测模型,通过范围概率(PICP)、预测区间平均宽度(MPIW)以及综合指标(CWC)反映区间预测...
  • Abstract—Wind speed interval prediction plays an important role in wind power generation. In this article, a new interval construction model based on error prediction is proposed....
  • 针对振荡幅度大的小样本振荡序列预测问题, 构建灰色区间预测模型. 首先对原始序列的上下界序列直接建立非等间隔GM(1,1)模型, 得到取值包络带的上下包络曲线以描述系统发展的边界; 然后给出原始序列区间预测值和基本...
  • 智能电网的快速发展给电网运行带来了新的挑战, 为适应智能电网快速响应的要求, 实现对电力负荷未来运行趋势的快速估计, 本文提出一种基于LSSVM模型的超短期电力负荷区间预测方法, 所提方法在点预测的基础上, 通过对...
  • 基于T-S混沌模糊神经网络的电力负荷区间预测方法 ,何耀耀,,针对传统T-S模糊神经网络在预测电力负荷序列时存在较大误差的缺陷,将Chebyshev混沌映射引入到T-S模糊模型之中,利用混沌映射在(-1,1�
  • 论文资源,粒子群优化神经网络的预测模型。
  • 区间预测控制

    2015-02-03 14:06:16
    区间预测控制原代码,希望可以帮到大家 有约束无约束 主程序
  • R包,它实现了随机森林和增强森林的区间预测。 参考文献: Alakus, C., Larocque, D., and Labbe, A. (2021). RFpredInterval: An R Package for Prediction Intervals with Random Forests and Boosted Forests. ...
  • 针对该问题,建立基于变分模态分解(VMD)和蝙蝠算法-相关向量机(BA-RVM)的短期风速区间预测模型。对原始风速序列进行变分模态分解获得多个子序列;采用样本熵(SE)算法对子序列进行重组得到3类具有典型特性的分量;对...
  • 股票数据价格区间预测模型(国外+国内数据)案例三:股票数据价格区间预测模型(国外+国内数据)2.3.1 模块加载与忽略警告设置2.3.2 加载数据和数据筛选2.3.3 探索式数据分析(EDA)2.3.4 探究字段之间的关联性2.3.5...


    手动反爬虫,禁止转载: 原博地址 https://blog.csdn.net/lys_828/article/details/121452962(CSDN博主:Be_melting)

     知识梳理不易,请尊重劳动成果,文章仅发布在CSDN网站上,在其他网站看到该博文均属于未经作者授权的恶意爬取信息
    

    案例三:股票数据价格区间预测模型(国外+国内数据)

    2.3.1 模块加载与忽略警告设置

    打开Jupyter notebook,然后新建一个python3文件,命名为股票时序数据回归预测模型1.ipynb。文件首个cell中导入数据分析常用模块和模型相关的模块,设置提示警告的过滤,代码如下。

    import pandas as pd
    import numpy as np
    from sklearn.model_selection import train_test_split
    from sklearn.linear_model import LinearRegression
    import math
    import seaborn as sns
    import datetime
    import matplotlib.pyplot as plt
    from matplotlib import style
    import time
    
    import warnings
    warnings.filterwarnings('ignore')
    

    2.3.2 加载数据和数据筛选

    准备的数据集为谷歌2004年的股票数据,读取过程中将Date字段进行时间字段转化,并设置为索引,然后查看数据的维度。

    df=pd.read_csv('./data/google-stockdata.csv',index_col='Date',
                      parse_dates=True)
    df
    

    输出结果如下。(直接输出读取后文件数据对应的变量,最后面一行会有提示数据的维度,一共有3424行,12列,相当于最后输出了df.shape)
    在这里插入图片描述

    了解一下股票数据的基本信息,一般就是包含了前六个字段(包含索引),即股票的开盘时间、开盘价、最高点、最低点、收盘价和成交量。最后面的五个字段是经过复权后的衍生字段,而中间的两个字段是在案例中没有使用到。

    2.3.3 探索式数据分析(EDA)

    之前的两个案例中均展示了探索式数据分析的几个步骤,这里就不再进行赘述。但是对于字段中的缺失值的查看一定是要做的,如果存在着缺失值就要进行缺失值处理,确保传入模型的数据是一个完整的数据,输出结果如下。
    在这里插入图片描述
    在提供的数据中并没有缺失的数据,但是经过仔细研究发现股票数据中并没有一个标签字段,因此要进行线性回归模型创建前需要先解决标签数据的问题。本案例的目标:预测未来股票的价格区间,需要根据历史的股票价钱(收盘价)来预测未来股票价钱的情况。

    考虑数据量进行时间范围的确定。数据量一共3424行,假定按照数据量除以100取上限进行预测天数的确定,然后就可以构造对应标签数值。为了便于理解这个构建标签数值的过程,可以进行一个简单的示例,先以5天为基准构建数据。为了不破坏数据和方便查看,对原数据进行备份后取出10条数据进行演示。
    在这里插入图片描述
    接着就是利用pandas应用基础中第10小结的内容,shift时间平移操作。首先提取经过复权后的收盘价字段并转化为DataFrame数据类型,进一步应用shift(-5)变换并赋值给新字段,最后就是新字段与原字段相减获得相差5天的数据。

    df3=df2['Adj. Close'].to_frame()
    df3['col2']= df3['Adj. Close'].shift(-5)
    df3['delta']=df3['col2']-df3['Adj. Close']
    df3.head(7)
    

    输出结果如下。(采用 shift 加上负值的方法 可以把同一组数据错位的放在一起,这个错位是把5天后的数据与当前天的数据放在同一行中,然后两个字段数值相减就可以获得对应天数股票价格的差值)
    在这里插入图片描述

    利用上面的原理,应用到整个股票数据集中,

    forecast_col = 'Adj. Close'
    forecast_out = int(math.ceil(0.01 * len(df)))
    df['label'] = df[forecast_col].shift(-forecast_out)
    df[-40:-30]
    

    输出结果如下。(为了核实是否处理正确,切片获取倒数第40到第30行的数据,输出结果中label字段数据有一半缺失一般完整,说明操作过程正确)
    在这里插入图片描述
    也可以直接查看各字段的缺失值进行核实,输出结果如下,最终就是创建的字段label中存在着35条缺失值,满足要求。
    在这里插入图片描述

    2.3.4 探究字段之间的关联性

    完成了标签字段数据的构建,接下来就可以查看特征字段与标签字段的关联性,直接利用热力图进行展示输出。
    在这里插入图片描述

    确定标签字段后,在热力图中只需要查看标签字段label对应的行或者列即可,比如上图红框标注的列。根据图中的结果,首先看两个不相关的字段,也就是中间的那两个字段在整个案例中没有进行介绍也和标签字段无关,后续直接进行剔除;然后就是股票除时间外的剩下的5个信息与调整后的5个信息,由于标签字段就是利用调整后的收盘价字段构造的,所以会和调整后的收盘价相相关性为0.99,然而调整后的4个信息之间的相关性都为1,自然标签字段和剩下的3个信息直接的相关性也是0.99,至于未调整前的数据,是经过一定的计算转化而来,相关性数值相对较小一些,但是也是存在很强的相关性。

    2.3.5 特征工程

    根据关联性分析的结果重新提取字段数据,构建数据集,创建两个新字段为高低价变化差和涨跌幅,并进行缺失值的处理。

    df = df[['Adj. Open',  'Adj. High',  'Adj. Low',  'Adj. Close', 'Adj. Volume','label']]
    df['HL_PCT'] = (df['Adj. High'] - df['Adj. Low']) / df['Adj. Close'] * 100.0
    df['PCT_change'] = (df['Adj. Close'] - df['Adj. Open']) / df['Adj. Open'] * 100.0
    df.dropna(inplace=True)
    df.isnull().sum()
    

    输出结果如下。(在进行创建模型之前,数据中的缺失值需要清洗干净,此外添加的两个字段也在数据集中)
    [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-rF2lm72p-1637473866577)(机器学习专题.assets/image-20211121094004616.png)]

    2.3.6 模型创建与应用

    (1)划分特征数据X和标签数据Y
    在这里插入图片描述
    (2)划分训练集和测试集。这里的数据集需要特别注意,在删除最后的缺失值后,中最后35条数据label值其实就是已经要预测的数据值,因此在数据集也需要进行删除。比如最后一行数据是2018年2月5号,对应的label就是2018年3月27号的数据(去掉了周末),最后的35天就作为真实值要进行预测35天后的价格进行差值对比,所以需要再将最后35行数据删除。
    在这里插入图片描述

    X_lately = X[-forecast_out:]  # 把最后35行单独拿出来,作为最后的预测
    X = X[:-forecast_out]         # x中存放除最后35行以外的其他信息
    y = y[:-forecast_out]         # y中存放除最后35行以外的其他信息
    

    然后才是进行训练集和测试集的划分,按照9:1的比例进行。

    X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.1)
    

    (3)模型创建与拟合。

    clf=LinearRegression()
    clf.fit(X_train,y_train)
    

    (4)模型预测与评估。

    forecast_set = clf.predict(X_lately)
    forecast_set
    

    输出结果如下。(最终的股票价钱是在1082-1262之间)
    在这里插入图片描述
    然后查看一下当前模型预测股票区间的正确率得分有多少,代码及输出结果如下。(未来35天的股票价格区间预测,有97.4%的正确率使得最终的股票价格落在1082-1262之间)
    在这里插入图片描述

    2.3.7 模型对比

    在进行数据集构建时,细心点可以发现特征字段的量纲不一致,比如价钱字段和成交量字段数值。接下来就是确定特征数据标准化会不会对模型有一定的优化,需要添加一个标量处理器,之后的模型步骤保持一致,建模部分全部代码和最终测试得分如下。

    #划分特征数据和标签数据
    X = np.array(df.drop(['label'], 1))
    y = np.array(df['label'])
    
    #特征数据标量化
    from sklearn import preprocessing
    X = preprocessing.scale(X)
    
    #进行最后35行数据剔除
    X_lately = X[-forecast_out:]  
    X = X[:-forecast_out]    
    y = y[:-forecast_out]
    
    #划分训练数据与测试数据
    X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.1)
    
    #创建线性回归模型
    clf=LinearRegression()
    
    #模型拟合
    clf.fit(X_train,y_train)
    
    #模型预测结果及输出股票价格区间
    forecast_set = clf.predict(X_lately)
    min(forecast_set),max(forecast_set)
    
    #模型得分
    confidence = clf.score(X_test, y_test)
    confidence
    

    最终输出的模型预测的股票价格区间(1080-1217之间)与模型得分结果(正确率为97.7%)如下。由于没有指定随机种子,每次程序跑出的结果基本上都不会完全一致。
    在这里插入图片描述

    2.3.8 预测结果可视化

    由于标签的结果带有时序性且是数值型,就可以对预测的结果进行可视化展示。由于删除了倒数35行的数据,因此要得到绘制35天后的数据,就需要先获得最后35行对应的时间,代码如下。

    df['Forecast'] = np.nan
    last_date = df.iloc[-1].name
    last_unix = last_date.timestamp()
    last_unix = time.mktime(last_date.timetuple())
    one_day = 864006
    next_unix = last_unix + one_day
    

    输出结果如下。(之前进行数据集处理的时候将最后35条数据删除,现在输出结果汇总把添加了Forecast字段)
    在这里插入图片描述
    然后将预测的结果进行填充到对应的时间中去,就可以获得预测结果,代码如下。

    for i in forecast_set:
        next_date = datetime.datetime.fromtimestamp(next_unix)
        next_unix += 86400
        df.loc[next_date] = [np.nan for _ in range(len(df.columns)-1)]+[i]
    

    输出结果如下。(需要留意,模型数据中最后日期是2018年2月5号,预测的结果对应label值,这个数据就是35天后的股票价格,映射到对应的时间段就如下)
    在这里插入图片描述
    有了数据后,进行可视化,代码及输出结果如下。
    在这里插入图片描述
    绘制预测数据的图像代码与结果输出如下。
    在这里插入图片描述
    添加两图合并后,代码及可视化图形输出如下。
    在这里插入图片描述

    2.3.9 国内茅台股票数据集应用

    在使用国外谷歌的数据进行线性回归回归模型的预测中,模型得分正确率达到了97%,而对于国内股票的预测效果如何,接下来进行探究。创建一个新的python3文件,命名为股票时序数据回归预测模型2.ipynb,数据集为茅台酒的股票数据(对应的编号为600519)。首先导入模块和加载数据,代码如下。

    import pandas as pd
    import numpy as np
    from sklearn.model_selection import train_test_split
    from sklearn.linear_model import LinearRegression
    import math
    import seaborn as sns
    import matplotlib.pyplot as plt
    
    df2 = pd.read_csv('./data/600519d4.csv',index_col='trade_date',
                      parse_dates=True)
    

    输出结果如下:(股票数据的时间跨度为2020年1月2日到2021年10月21日,可以通过tushare接口下载)
    在这里插入图片描述
    按照习惯,时间索引一般是按照从前到后(即从以前到现在)的方式设置,也方便绘制图形,进行反序操作后绘制折线图查看茅台股票走势图,代码及输出结果如下。
    在这里插入图片描述
    剩下的步骤就是按照前面国外数据的处理方式一致,首先进行预测时间长短的设置,需要根据数据量来确定,这里的时间设定为22天。
    在这里插入图片描述
    进一步构建数据集和缺失值处理,并进行特征数据以及标签数据的划分,并剔除最后22天的数据,代码如下。

    ##构建数据集
    df2 = df2[['open', 'high', 'low', 'close','vol','label']]
    df2.head()
    
    #缺失值处理
    df2.dropna(inplace=True)
    
    #核实缺失值处理完毕
    df2.isnull().sum()
    
    #划分特征数据和标签数据
    X = np.array(df2.drop(['label'], 1))
    y = np.array(df2['label'])
    
    #剔除最后的22条数据
    X_lately = X[-forecast_out:]  # 把最后22行单独拿出来
    X = X[:-forecast_out]    #  x中存放除最后22行以外的其他信息
    y = y[:-forecast_out]
    

    最后就是进行模型的创建,训练,预测和评估,代码及输出结果如下。
    在这里插入图片描述
    模型最后的准确率只有0.796,远远低于使用国外数据进行建模时候的得分,更进一步采用以往进行模型评估的方法查看一下平均绝对误差和R方值(就是模型的score得分),输出结果如下。
    在这里插入图片描述
    利用预测结果的平均值结合平均绝对误差,可以推测该模型预测单次预测股票数据的涨跌幅范围,即正负7.13%,而股票一天的最大涨跌幅就是正负10%,这个预测结果太过粗糙了,基本上没有意义。根本原因在于国内的股票数据的波动幅度太大,就会导致预测数值与真实数值之间的误差就会扩大,模型最终的得分也就下降,对于未来数据的预测效果就很差,因此在对此类数据进行建模之前需要对数据进行平滑处理。

    对于金融类数据,可以尝试ta模块,各种指标已经封装在pandas中了,只需要进行pip install pandas_ta即可进行安装。
    在这里插入图片描述
    查看具体有哪些指标可以按照如下代码进行输出,当前一共有205个指标。
    在这里插入图片描述
    假定选取里面的EMA指标进行数据平滑处理,以收盘价字段和10天为依据,将处理后的内容添加到新的字段中。
    在这里插入图片描述
    也是和手动设定天数的步骤一样,需要进行缺失值的查看,除去和核实,代码如下。
    在这里插入图片描述
    也可以借助图形查看经过平滑处理过后的股票数据折线图和原数据折线图之间的对比,代码及输出结果如下。
    在这里插入图片描述
    数据处理完毕后,进一步构建数据集和缺失值处理,并进行特征数据以及标签数据的划分,代码如下。(对于采用EMA指标处理数据后,这里的标签数据和特征数据就不需要再次进行最后10条数据的剔除,因为使用的并不是原来真实的数据,而是一个计算的数据,并非直接线性相关)

    #设定标签数据
    df2['label'] = df2['EMA_10']
    df2 = df2[['open', 'high', 'low', 'close','vol','label']]
    
    #核实没有缺失值
    df2.isnull().sum()
    
    #构建特征数据与标签数据
    X = np.array(df2.drop(['label'], 1))
    y = np.array(df2['label'])
    
    #训练数据与测试数据划分
    X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2)
    
    #创建模型
    clf=LinearRegression()
    
    #训练模型
    clf.fit(X_train,y_train)
    
    #模型预测
    y_pred = clf.predict(X_test)
    min(y_pred),max(y_pred)
    
    #模型得分
    confidence = clf.score(X_test, y_test)
    confidence
    

    最终的输出股票价格区间和对应的模型得分,以及预测股票价格的涨跌幅结果如下。数据经过平滑处理过后,模型预测的准确度要大大提升,最后的涨跌幅度的范围拿捏着也很准确。
    在这里插入图片描述

    展开全文
  • 预测区间可有效量化由不确定因素引起的油中溶解气体浓度波动,应用比例系数法和粒子群优化算法建立了一定置信水平下油中溶解气体浓度的区间预测模型,且不受传统区间预测方法中必须服从正态分布的限制。实例结果验证...
  • 上面的程序是可以通用的,只要你根据自己需要是可以修改...还有在对结果好坏的判断中,仅仅看误差图是不够的,如果是一个好的预测,那么自相关性图中除了0阶自相关外,其他的自相关系数系数都不应该超过上下置信区间
  • 传统单变量灰色预测模型的指数结构形式制约了其对小样本振荡序列的模拟与预测能力, 对此, 通过包络线将振荡序列拓展为具有明确上界与下界的区间灰数序列, 还原影响因素不确定性条件下振荡序列的区间灰数形式;...
  • based criterion)4.ACE(average coverage error)5.AIS(average interval score)6.MPICD(mean PI centre deviation)二、区间预测方法综述1.Mean Variance Estimation(MVE)2.


    博主最近在入门时间序列预测的区间预测方法,网上关于区间预测方法的总结博客甚少,因此在阅读了一些论文之后,博主简单的对区间预测方法进行了总结,为的是给大家的入门提供一个参考。

    所有内容的是从我自己的总结文档中截取的
    不足之处,欢迎指正。

    前言

    传统的点预测,不能很好的处理系统运行中的不确定性,为了获得数值估计及其可靠性,实际应用对预测区间(PIs)的构造提出了很高的要求。区间预测方法的好坏要考察以下几个点:1)实施的难度;2)是否有关于数据分布的前提假设;3)计算量的大小(计算负担太大的方法无法满足实时性的要求)。本文的目的是提供一个宏观的入门参考指南,给小白的入门提供参考,如果读者是为了深入的进行预测区间的研究,在本文阅读的基础上还要进行大量的文献阅读。为了方便读者深入研究,博主在博客末尾简单的列写了一些参考文献。在方法的综述之前,我们写介绍一些预测区间的评价指标,为后面的方法综述提供基础。

    一、预测区间的评价指标

    1.PICP(PI coverage probability)

    真实值落在预测区间上下界的比率

    在这里插入图片描述

    2.PINAW(PI normalized averaged width)

    在这里插入图片描述

    3.CWC(coverage width-based criterion)

    CWC有时候也称为CLC(coverage-length-based criterion)
    在这里插入图片描述

    4.ACE(average coverage error)

    在这里插入图片描述

    5.AIS(average interval score)

    在这里插入图片描述

    6.MPICD(mean PI centre deviation)

    两个不同的PI如果都覆盖了一个点,那么这个点越接近PI的中线则说明PI的质量越好。如下图所示:
    在这里插入图片描述
    在这里插入图片描述

    二、区间预测方法综述

    1.Mean Variance Estimation(MVE)

    前提假设:误差的分布是具有非常数方差的加性高斯分布
    缺点:准确度很大程度受到与其相关的数值预测的效果影响,计算负担相对小但是对于数据方差的低估会导致预测区间对真实数据的覆盖率低。
    该方法考虑用一个NN来估计目标值的方差,然后用两个NN模型来构造预测区间。下面是MVE方法的原理图:
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述在这里插入图片描述

    2.Delta Method

    前提假设:对于每一个采样点,噪声的方差是恒定的,明显与实际是不符的。它还假设了多层前馈NNs是非线性回归模型,且能够用泰勒级数展开来线性化。
    缺点:准确度很大程度受到与其相关的数值预测的效果影响
    该方法基于NNs作为非线性模型的表示和解释,这将允许标准渐进理论应用于PI的构建。考虑如下回归式子:
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述

    3.Bayesian Method

    前提假设:NN的每个参数都是一个分布,因此该网络的输出可以被看成观察训练数据的某种条件分布。
    缺点:计算负担大,需要进行Hessian矩阵的计算,当数据规模不够大的时候,准确度很大程度依赖于先验知识。
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述

    4.Bootstrap Method

    前提假设:假设噪声遵循零均值的正态分布
    缺点:作为一种重采样方法,要训练很多不同的NN,对大数据集来说需要很大的计算成本。集成的性能很大程度取决于单独的网络,也就是说如果一个单独的网络偏差比较大,那么整个模型的性能就会恶化。
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述

    5.LUBE method

    LUBE方法时为了克服上述四个方法的缺点而提出的,它没有对于数据分布的假设,也避免了Jacobian矩阵和Hessian矩阵数值计算的问题。
    缺点:由于无法构建监督学习问题,LUBE方法中NNs的参数必须配合启发式的参数搜索方法来进行整定(包括NN的结构和参数),由于参数初始化没有一个特别好的方法,这大大增加了计算负担。
    LUBE的方法是用NN分别输出PI的上界和下界(注意这里是用一个NN来预测两个输出),这种方法来获得预测区间是直接的。下面是LUBE方法的原理示意图:

    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述

    总结

    本文对五种区间预测的基本方法进行了总结,并且分析其假设和优缺点,包括:MVE方法、Delta方法、Bayesian方法、Bootstrap方法和LUBE方法。并且列总结了评价预测区间好坏的几种指标。本文可以作为了解区间预测基本方法的一种入门参考指南,如果要进行深入研究,还是要阅读相关的论文。

    参考文献

    [1] J. G. Hwang & A. A. Ding. Prediction intervals for artificial neural networks. Journal of the American Statistical Association. 1997, 92(438), 748-757.
    [2] T. Heskes. Practical confidence and prediction intervals. In Advances in neural information processing systems. 1997, 176-182.
    [3] G. Tang, Y. Wu, C. Li, P. K. Wong, Z. Xiao & X. An. A Novel Wind Speed Interval Prediction based on Error Prediction Method. IEEE Transactions on Industrial Informatics. 2020, 16(11), 6806-6915.
    [4]A. Khosravi & S. Nahavandi. An optimized mean variance estimation method for uncertainty quantification of wind power forecasts. International Journal of Electrical Power & Energy Systems. 2014, 61, 446-454.
    [5] C. Lian, L. Zhu, Z. Zeng, Y. Su, W. Yao & H. Tang. Constructing prediction intervals for landslide displacement using bootstrapping random vector functional link networks selective ensemble with neural networks switched. Neurocomputing. 2018, 291, 1-10.
    [6] A. Khosravi, S. Nahavandi & D. Creighton. Construction of optimal prediction intervals for load forecasting problems. IEEE Transactions on Power Systems. 2010, 25(3), 1496-1503.
    [7] Z. Han, W. Pedrycz, J. Zhao & W. Wang. Hierarchical Granular Computing-Based Model and Its Reinforcement Structural Learning for Construction of Long-Term Prediction Intervals. IEEE Transactions on Cybernetics. 2020
    [8] C. Guan, P. B. Luh, L. D. Michel & Z. Chi. Hybrid Kalman filters for very short-term load forecasting and prediction interval estimation. IEEE Transactions on Power Systems. 2013, 28(4), 3806-3817.
    [9] C. Lian, Z. Zeng, X. Wang, W. Yao, Y. Su & H. Tang. Landslide displacement interval prediction using lower upper bound estimation method with pre-trained random vector functional link network initialization. Neural Networks. 2020, 130, 286-296.
    [10] A. Khosravi, S. Nahavandi, D. Creighton & A. F. Atiya. Lower upper bound estimation method for construction of neural network-based prediction intervals. IEEE transactions on neural networks. 2010, 22(3), 337-346.
    [11] N. A. Shrivastava, A. Khosravi & B. K. Panigrahi. Prediction interval estimation of electricity prices using PSO-tuned support vector machines. IEEE Transactions on Industrial Informatics. 2015, 11(2), 322-331.
    [12] C. Sheng, J. Zhao, W. Wang & H. Leung. Prediction intervals for a noisy nonlinear time series based on a bootstrapping reservoir computing network ensemble. IEEE Transactions on neural networks and learning systems. 2013, 24(7), 1036-1048.
    [13] C. Lian, C. P. Chen, Z. Zeng, W. Yao & H. Tang. Prediction intervals for landslide displacement based on switched neural networks. IEEE Transactions on Reliability. 2016, 65(3), 1483-1495.
    [14] H. Quan, D. Srinivasan & A. Khosravi. Short-term load and wind power forecasting using neural network-based prediction intervals. IEEE transactions on neural networks and learning systems. 2013, 25(2), 303-315.
    [15] A. Khosravi, E. Mazloumi, S. Nahavandi, D. Creighton & J. W. C. Van Lint. Prediction intervals to account for uncertainties in travel time prediction. IEEE Transactions on Intelligent Transportation Systems. 2011, 12(2), 537-547.

    展开全文
  • 计算数据的累计概率密度,采用三次样条插值计算分位点的值,区间预测,里面有具体程序及相关文献。
  • 提出了区间邻近点的概念,它在有效防止伪邻近点产生的同时也建立起了一个邻近点列表,可以方便地从该列表中找出某一状态的邻近点集合,并给出了混沌时间序列的一种局域区间预测方法。该方法避免了经典局域预测法中每...
  • 电气论文实现:电力负荷区间预测(python实现 。机器学习)

    个人电气博文目录链接:
    学好电气全靠它,个人电气博文目录(持续更新中…)

    代码图

    效果图

    论文解锁,是解锁这个专栏。可以看这个专栏的所有文章。

    讲解

        本文:简单写的模型(未对数据进行降噪,降噪可以看我的小波分解博客。未对区间预测效果进行度量。自己写个公式就可以度量好坏。【测试集中真实值落在区间内的个数百分比以及上下限的距离。通常距离越小、落在区间内的个数越多则越好。】。主要是我懒,懒得写哪些,本文的核心是讲解区间预测。
    小波降噪与重构例子 python
        使用语言:python
        用到的库:numpy,pandas,matplotlib,sklearn

    展开全文
  • 新股上市时合理定价区间预测.pptx
  • 基于深度学习的水电站水流量和发电量区间预测.pdf
  • Python实现区间预测

    千次阅读 2018-03-28 15:49:10
    #对于概率性的区间预测方法,在置信度一样的情况下,预测区间越窄越好 max0=np.max(data0[:, 1 ]) min0=np.min(data0[:, 1 ]) sum0= list ( map ( lambda x: (x[ 1 ]-x[ 0 ]) , zip (p_low,p_up))) sum1=np.sum...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 53,398
精华内容 21,359
关键字:

区间预测

友情链接: 基追踪.zip