精华内容
下载资源
问答
  • 实证研究以微信众筹项目为研究对象,包括腾讯慈善基金会,青松町等,实证研究采用方差多元分析,逻辑回归和数据挖掘等方法,分析了最终筹资和结果(成功或失败)的影响因素。建立模型以预测结果。 实证研究表明,...
  • 为分析并建立多因素影响预测井下机电事故发生的概率,收集了我国21个矿区的大量统计数据,对机电事故发生情况进行统计分析,得到影响机电事故率的因素包括人员素质、井下环境、机电检修频率和管理水平。分析过程中采用...
  • 从瓦斯因素、煤体结构及地质构造方面分析得出了影响该矿煤与瓦斯突出的因素包括瓦斯压力、瓦斯含量及瓦斯放散初速度等指标。以影响该矿煤与瓦斯突出的23组实测数据为基础,首先利用主成分分析模型对影响该矿的煤与...
  • 大学生课程学习是提高...提出了基于成绩分布教室座位分区划分方法和同伴影响的预测结果修正方法,提高了成绩预测的精度。利用真实数据集对所提出的预测模型进行了充分实验验证,百分制成绩平均预测误差在10分以内
  • 影响预测的因素很多 - 包括物理因素与心理因素,理性行为和非理性行为等。所有这些因素结合在一起共同导致股价波动,很难以高精度预测。 我们是否可以将机器学习作为该领域的游戏规则改变者吗?利用一些特性,比如...

    介绍

    预测股市的走势是最困难的事情之一。影响预测的因素很多 - 包括物理因素与心理因素,理性行为和非理性行为等。所有这些因素结合在一起共同导致股价波动,很难以高精度预测。

    我们是否可以将机器学习作为该领域的游戏规则改变者吗?利用一些特性,比如关于一个组织的最新公告,他们的季度收入结果等功能,机器学习技术有可能发掘出我们以前没有看到的模式和见解,并且可以用来做出准确无误的预测。

    在本文中,我们将使用有关上市公司股票价格的历史数据。我们将使用多种机器学习算法来预测该公司的未来股票价格,从平均算法和线性回归等简单的算法开始,然后转向Auto ARIMA和LSTM等高级技术。

    本文背后的核心思想是展示如何实现这些算法。我将简要介绍该技术并提供相关链接,以便在必要时了解这些概念。

    问题描述

    我们很快就会深入到本文的实现部分,但首先要确定我们要解决的问题。从广义上讲,股票市场分析分为两部分 - 基础分析和技术分析。

    • 基础分析是根据公司当前的商业环境和财务业绩分析公司未来的盈利能力。
    • 另一方面,技术分析包括阅读图表和使用统计数据来确定股票市场的趋势。

    你可能已经猜到了,我们的重点将放在技术分析部分。我们将使用Quandl的数据集(你可以在这里查找各种股票的历史数据),对于这个特定的项目,我使用了“ 塔塔全球饮料 ” 的数据。是时候让我们动起来了!

    注意:有关文章的数据集我将在文章最后放出

    首先我们先加载数据集,定义问题的目标变量:

    #导入包
    import pandas as pd
    import numpy as np

    #在笔记本上绘图
    import matplotlib.pyplot as plt
    %matplotlib inline

    #设置图的大小
    from matplotlib.pylab import rcParams
    rcParams[‘figure.figsize’] = 20,10

    #规范数据
    from sklearn.preprocessing import MinMaxScaler
    scaler = MinMaxScaler(feature_range=(0, 1))

    #读取文件
    df = pd.read_csv(‘NSE-TATAGLOBAL(1).csv’)

    #打印头部数据
    df.head()

    数据集中有多个变量 - date,open,high,low,last,close,totaltradequantity和turnover。

    • “ 开盘价(open)“和“收盘价(close)”列表示股票在特定日期交易的起始和最终价格。
    • 高(hight)、低(low)和最后(last)代表当天股票的最高,最低和最后价格。
    • 总交易数量(Total Trade Quantity)是当天买入或卖出的股票数量,而成交量(Lacs)是特定公司在特定日期的成交量。

    另一个需要注意的重要事项是,市场在周末和公共假期关闭。再次注意上表,一些日期值缺失 - 2/10/201,6/10/201,7/10/201。在这些日期中,2号是法定假日,6号和7号是周末。

    损益的计算通常由当天股票的收盘价确定,因此我们将收盘价视为目标变量。让我们绘制目标变量,以了解它在我们的数据中是如何形成的:

    #将索引设置为日期
    df[‘Date’] = pd.to_datetime(df.Date,format=’%Y-%m-%d’)
    df.index = df[‘Date’]

    #画图
    plt.figure(figsize=(16,8))
    plt.plot(df[‘Close’], label=‘Close Price history’)

    !](http://upload-images.jianshu.io/upload_images/13825820-1713f7366318e2b4.jpg?imageMogr2/auto-orient/strip|imageView2/2/w/1240)

    在接下来的部分中,我们将探索这些变量,并使用不同的技术来预测股票的每日收盘价。

    1.移动平均法

    介绍

    “平均”很容易成为我们日常生活中最常用的词汇之一。例如,计算平均分来确定整体性能,或者找出过去几天的平均温度以了解今天的温度 - 这些都是我们经常做的例行工作。因此,这是一个很好的起点,可以用于我们的数据集进行预测。

    每天的预计收盘价将是一组先前观测值的平均值。我们将使用移动平均技术而不是使用简单平均值,该技术为每个预测使用最新的一组值。换句话说,对于每个后续步骤,在从集合中移除最老的观测值的同时考虑预测值。下面是一个简单的图形,可以帮助你更清晰地理解这一点。

    我们将在我们的数据集上实现此技术。第一步是创建一个仅包含Date和Close price列的DataFrame,然后将其拆分为训练集和验证集以验证我们的预测。

    Python代码

    #使用日期和目标变量创建dataframe
    data = df.sort_index(ascending=True, axis=0)
    new_data = pd.DataFrame(index=range(0,len(df)),columns=[‘Date’, ‘Close’])

    for i in range(0,len(data)):
    new_data[‘Date’][i] = data[‘Date’][i]
    new_data[‘Close’][i] = data[‘Close’][i]

    在将数据拆分为训练集和验证集时,我们不能使用随机拆分,因为这会破坏时间组件。所以这里我把去年的数据和之前四年的数据进行了验证。

    #分隔为训练集和验证集
    train = new_data[:987]
    valid = new_data[987:]

    new_data.shape, train.shape, valid.shape
    ((1235, 2), (987, 2), (248, 2))

    train[‘Date’].min(), train[‘Date’].max(), valid[‘Date’].min(), valid[‘Date’].max()

    (Timestamp(‘2013-10-08 00:00:00’),
    Timestamp(‘2017-10-06 00:00:00’),
    Timestamp(‘2017-10-09 00:00:00’),
    Timestamp(‘2018-10-08 00:00:00’))

    下一步是为验证集创建预测,并使用实际值检查RMSE。

    #做出预测
    preds = []
    for i in range(0,248):
    a = train[‘Close’][len(train)-248+i:].sum() + sum(preds)
    b = a/248
    preds.append(b)

    结果

    #计算 rmse
    rms=np.sqrt(np.mean(np.power((np.array(valid[‘Close’])-preds),2)))
    rms

    104.51415465984348

    仅检查RMSE并不能帮助我们理解模型的执行方式。让我们把它形象化来获得更直观的理解。因此,这是预测值与实际值的关系图。

    #画图
    valid[‘Predictions’] = 0
    valid[‘Predictions’] = preds
    plt.plot(train[‘Close’])
    plt.plot(valid[[‘Close’, ‘Predictions’]])

    推论

    RMSE值接近105,但结果不是很有希望(可以从图中看出)。预测值与验证集中的观测值具有相同的范围(最初存在增加趋势,然后缓慢减小)。

    在下一节中,我们将介绍两种常用的机器学习技术 - 线性回归和kNN,并了解它们在我们股票市场数据上的表现。

    2.线性回归

    介绍

    可以在此数据上实现的最基本的机器学习算法是线性回归。线性回归模型返回一个确定自变量和因变量之间关系的方程。

    线性回归的方程可以写成:

    这里,x1,x2,… .Xň代表独立变量,而系数θ1,θ2,…θÑ表示的权重。

    对于我们的问题描述,我们没有一组自变量。我们只有日期而已。让我们使用日期列来提取诸如 - 日,月,年,星期一/星期五等特征,然后拟合线性回归模型。

    Python代码

    我们将首先按升序对数据集进行排序,然后创建一个单独的数据集,以便创建的任何新要素都不会影响原始数据。

    #将索引设置为日期值
    df[‘Date’] = pd.to_datetime(df.Date,format=’%Y-%m-%d’)
    df.index = df[‘Date’]

    #排序
    data = df.sort_index(ascending=True, axis=0)

    #创建单独的数据集
    new_data = pd.DataFrame(index=range(0,len(df)),columns=[‘Date’, ‘Close’])

    for i in range(0,len(data)):
    new_data[‘Date’][i] = data[‘Date’][i]
    new_data[‘Close’][i] = data[‘Close’][i]

    #创建功能
    from fastai.structured import add_datepart
    add_datepart(new_data, ‘Date’)
    new_data.drop(‘Elapsed’, axis=1, inplace=True) #elapsed will be the time stamp

    这会创建以下特征:

    ‘Year’, ‘Month’, ‘Week’, ‘Day’, ‘Dayofweek’, ‘Dayofyear’, ‘Ismonthend’, ‘Ismonthstart’, ‘Isquarterend’, ‘Isquarterstart’, ‘Isyearend’, and ‘Isyearstart’.

    注意:我使用了fastai库中的add_datepart。如果你没有安装它,只需使用命令pip install fastai。或者,你可以在python中使用简单的for循环创建这个功能。我在下面展示了一个例子。

    除此之外,我们可以添加我们自己认为与预测相关的特征。例如,我的假设是,本周的第一天和最后一天可能会影响股票的收盘价,并且远远超过其他日子。所以我创建了一个特征,可以确定某一天是周一/周五还是周二/周三/周四。这可以使用以下的代码行完成:

    new_data[‘mon_fri’] = 0
    for i in range(0,len(new_data)):
    if (new_data[‘Dayofweek’][i] == 0 or new_data[‘Dayofweek’][i] == 4):
    new_data[‘mon_fri’][i] = 1
    else:
    new_data[‘mon_fri’][i] = 0

    如果星期几等于0或4,则列值将为1,否则为0。同样的,你可以创建多个特征。如果你对可以帮助预测股票价格的功能有一些想法,请在评论区分享。

    我们现在将数据拆分为训练集和验证集,以检查模型的性能。

    #拆分为训练集与验证集
    train = new_data[:987]
    valid = new_data[987:]

    x_train = train.drop(‘Close’, axis=1)
    y_train = train[‘Close’]
    x_valid = valid.drop(‘Close’, axis=1)
    y_valid = valid[‘Close’]

    #实现线性回归
    from sklearn.linear_model import LinearRegression
    model = LinearRegression()
    model.fit(x_train,y_train)

    结果

    #做出预测并找rmse
    preds = model.predict(x_valid)
    rms=np.sqrt(np.mean(np.power((np.array(y_valid)-np.array(preds)),2)))
    rms

    121.16291596523156

    RMSE值高于之前的技术,这清楚地表明线性回归表现不佳。让我们看一下图表,并理解为什么线性回归做的不好:

    #画图
    valid[‘Predictions’] = 0
    valid[‘Predictions’] = preds

    valid.index = new_data[987:].index
    train.index = new_data[:987].index

    plt.plot(train[‘Close’])
    plt.plot(valid[[‘Close’, ‘Predictions’]])

    推论

    线性回归是一种简单的技术,并且很容易解释,但有一些明显的缺点。使用回归算法的一个问题是模型与日期列和月份列过度匹配。模型将考虑一个月前的同一日期或一年前的同一日期/月的值,而不是从预测的角度考虑以前的值。

    从上图可以看出,2016年1月和2017年1月,股价出现下跌。该模型已预测2018年1月的情况相同。线性回归技术可以很好地解决诸如大型超市的销售问题,在这些问题中独立特征对于确定目标值是有用的。

    3.K-近邻

    介绍

    这里可以使用的另一个有趣的ML算法是KNN(K近邻)。KNN基于自变量找到新数据点和旧数据点之间的相似性。让我用一个简单的例子解释一下。

    考虑11个人的身高和年龄。根据给定的特征(‘年龄Age’和’身高Height’),表格可以用图形格式表示,如下所示:

    为了确定ID#11的权重,K-NN考虑该ID的最近邻的权重。ID#11的权重预计是其邻居的平均值。如果我们现在考虑三个邻居(k = 3),ID#11的权重将是=(77 + 72 + 60)/ 3 = 69.66千克。

    PYthon代码

    #导入库
    from sklearn import neighbors
    from sklearn.model_selection import GridSearchCV
    from sklearn.preprocessing import MinMaxScaler
    scaler = MinMaxScaler(feature_range=(0, 1))

    使用上一节中相同的训练集和验证集:

    #尺度数据
    x_train_scaled = scaler.fit_transform(x_train)
    x_train = pd.DataFrame(x_train_scaled)
    x_valid_scaled = scaler.fit_transform(x_valid)
    x_valid = pd.DataFrame(x_valid_scaled)

    #使用gridsearch查找最佳参数
    params = {‘n_neighbors’:[2,3,4,5,6,7,8,9]}
    knn = neighbors.KNeighborsRegressor()
    model = GridSearchCV(knn, params, cv=5)

    #拟合模型并做出预测
    model.fit(x_train,y_train)
    preds = model.predict(x_valid)

    结果

    #查看RMSe值
    rms=np.sqrt(np.mean(np.power((np.array(y_valid)-np.array(preds)),2)))
    rms

    115.17086550026721

    RMSE值没有太大差异,但预测值和实际值的图应提供一个更清晰的理解。

    #画图
    valid[‘Predictions’] = 0
    valid[‘Predictions’] = preds
    plt.plot(valid[[‘Close’, ‘Predictions’]])
    plt.plot(train[‘Close’])

    推论

    RMSE值几乎与线性回归模型类似,并且图表也显示了相同的模式。与线性回归一样,KNN也确定了2018年1月的下降,因为这是过去几年的形式。我们可以有把握地说,回归算法在这个数据集上表现不佳。

    让我们继续看看一些时间序列预测技术,以了解它们在面对股票价格预测挑战时的表现。

    4.Auto ARIMA

    介绍

    ARIMA是一种非常流行的时间序列预测统计方法。ARIMA模型考虑了过去的值来预测未来的价值。ARIMA有三个重要参数:

    • p(用于预测下一个值的过去值)
    • q(用于预测未来值的过去预测误差)
    • d(差分的顺序)

    ARIMA的参数调整会消耗大量时间。因此,我们将使用auto ARIMA,它自动选择(p,q,d)提供最小错误的的最佳组合。

    Python代码

    from pyramid.arima import auto_arima

    data = df.sort_index(ascending=True, axis=0)

    train = data[:987]
    valid = data[987:]

    training = train[‘Close’]
    validation = valid[‘Close’]

    model = auto_arima(training, start_p=1, start_q=1,max_p=3, max_q=3, m=12,start_P=0, seasonal=True,d=1, D=1, trace=True,error_action=‘ignore’,suppress_warnings=True)
    model.fit(training)

    forecast = model.predict(n_periods=248)
    forecast = pd.DataFrame(forecast,index = valid.index,columns=[‘Prediction’])

    结果

    rms=np.sqrt(np.mean(np.power((np.array(valid[‘Close’])-np.array(forecast[‘Prediction’])),2)))
    rms

    44.954584993246954

    #画图
    plt.plot(火车[ ‘关闭’])
    plt.plot(有效[ ‘关闭’])
    plt.plot(预测[ ‘预测’])

    推论

    如前所述,auto ARIMA模型使用过去的数据来理解时间序列中的模式。使用这些值,模型获得了该系列中的增长趋势。虽然使用这种技术的预测远比先前实现的机器学习模型的预测好,但这些预测仍然没有接近实际值。

    从图中可以看出,该模型已经捕捉到了该系列中的一个趋势,但并没有关注季节性部分。在下一节中,我们将实现一个时间序列模型,而这个模型考虑了系列的趋势和季节性。

    5.Prophet

    介绍

    有许多时间序列技术可以在股票预测数据集上实现,但是大多数这些技术在拟合模型之前需要大量的数据预处理。由Facebook设计和开创的Prophet是一个时间序列预测库,它不需要数据预处理,实现起来也非常简单。Prophet的输入是一个包含两列的数据框:date和target(ds和y)。

    Prophet试图获取过去数据中的季节性,并在数据集很大时可以进行很好的工作。

    Python代码

    #导入 prophet
    from fbprophet import Prophet

    #创建 dataframe
    new_data = pd.DataFrame(index=range(0,len(df)),columns=[‘Date’, ‘Close’])

    for i in range(0,len(data)):
    new_data[‘Date’][i] = data[‘Date’][i]
    new_data[‘Close’][i] = data[‘Close’][i]

    new_data[‘Date’] = pd.to_datetime(new_data.Date,format=’%Y-%m-%d’)
    new_data.index = new_data[‘Date’]

    #准备数据
    new_data.rename(columns={‘Close’: ‘y’, ‘Date’: ‘ds’}, inplace=True)

    #训练和验证
    train = new_data[:987]
    valid = new_data[987:]

    #使用合适的模型
    model = Prophet()
    model.fit(train)

    #预测
    close_prices = model.make_future_dataframe(periods=len(valid))
    forecast = model.predict(close_prices)

    结果

    #查看rmse
    forecast_valid = forecast[‘yhat’][987:]
    rms=np.sqrt(np.mean(np.power((np.array(valid[‘y’])-np.array(forecast_valid)),2)))
    rms

    57.494461930575149

    #画图
    valid[‘Predictions’] = 0
    valid[‘Predictions’] = forecast_valid.values

    plt.plot(train[‘y’])
    plt.plot(valid[[‘y’, ‘Predictions’]])

    推论

    Prophet(与大多数时间序列预测技术一样)试图从过去的数据中获取趋势性和季节性。此模型通常在时间序列数据集上表现良好,但在这种情况下无法达到它的名誉。

    事实证明,股票价格没有特定的趋势性或季节性。它在很大程度上取决于市场目前的情况,从而价格会上涨和下跌。因此,像ARIMA,SARIMA和Prophet这样的预测技术对于这个特定问题不会显示出良好的结果。

    让我们继续尝试另一种先进技术 - 长短时记忆(LSTM)。

    6.长短时记忆(LSTM)

    介绍

    LSTM广泛用于序列预测问题,并且已被证明是非常有效的。他们非常有效的原因是因为LSTM能够存储过去重要的信息,并忘记不重要的信息。LSTM有三个门:

    • **输入门:**输入门将信息添加到单元格状态
    • **遗忘门:**它删除模型不再需要的信息
    • 输出门: LSTM的输出门选择要显示为输出的信息

    现在,让我们将LSTM实现为一个黑盒子,并检查它在我们的特定数据上的性能。

    Python代码

    #导入所需要的库
    from sklearn.preprocessing import MinMaxScaler
    from keras.models import Sequential
    from keras.layers import Dense, Dropout, LSTM

    #创建dataframe
    data = df.sort_index(ascending=True, axis=0)
    new_data = pd.DataFrame(index=range(0,len(df)),columns=[‘Date’, ‘Close’])
    for i in range(0,len(data)):
    new_data[‘Date’][i] = data[‘Date’][i]
    new_data[‘Close’][i] = data[‘Close’][i]

    #设置索引
    new_data.index = new_data.Date
    new_data.drop(‘Date’, axis=1, inplace=True)

    #创建训练集和测试集
    dataset = new_data.values

    train = dataset[0:987,:]
    valid = dataset[987:,:]

    #将数据集转换为X列和Y列
    scaler = MinMaxScaler(feature_range=(0, 1))
    scaled_data = scaler.fit_transform(dataset)

    x_train, y_train = [], []
    for i in range(60,len(train)):
    x_train.append(scaled_data[i-60:i,0])
    y_train.append(scaled_data[i,0])
    x_train, y_train = np.array(x_train), np.array(y_train)

    x_train = np.reshape(x_train, (x_train.shape[0],x_train.shape[1],1))

    创建并使用LSTM网络

    model = Sequential()
    model.add(LSTM(units=50, return_sequences=True, input_shape=(x_train.shape[1],1)))
    model.add(LSTM(units=50))
    model.add(Dense(1))

    model.compile(loss=‘mean_squared_error’, optimizer=‘adam’)
    model.fit(x_train, y_train, epochs=1, batch_size=1, verbose=2)

    #使用训练集中的过去的60个值预测246个值
    inputs = new_data[len(new_data) - len(valid) - 60:].values
    inputs = inputs.reshape(-1,1)
    inputs = scaler.transform(inputs)

    X_test = []
    for i in range(60,inputs.shape[0]):
    X_test.append(inputs[i-60:i,0])
    X_test = np.array(X_test)

    X_test = np.reshape(X_test, (X_test.shape[0],X_test.shape[1],1))
    closing_price = model.predict(X_test)
    closing_price = scaler.inverse_transform(closing_price)

    结果

    rms=np.sqrt(np.mean(np.power((valid-closing_price),2)))
    rms

    11.772259608962642

    #画图
    train = new_data[:987]
    valid = new_data[987:]
    valid[‘Predictions’] = closing_price
    plt.plot(train[‘Close’])
    plt.plot(valid[[‘Close’,‘Predictions’]])

    推论

    LSTM模型可以根据不同的参数进行调整,例如改变LSTM层的数量,添加dropout值或增加epoch的数量。但LSTM的预测是否足以确定股价是涨还是降?当然不是!

    正如我在文章开头提到的那样,股票价格受到有关公司的新闻以及其他因素的影响,如公司的非货币化或合并/分拆。还有一些无形因素,往往是事先无法预测的。

    结束笔记

    时间序列预测是一个非常有趣的领域,正如我在撰写这些文章时所认识到的那样。在社区中有一种看法,认为它是一个非常复杂的领域,虽然有些的确比较复杂,但是一旦掌握了基本技术,也就不那么困难了。

    本文作者使用了六种方法来进行了对股票涨跌的预测,并从结果中分析了每个算法用于时间序列模型的优劣,并且从图中可以看出LSTM方法是拟合最好的一种方法,但是股票市场需要考虑的因素有很多,并不是只需要几个关键的特征就可以预测的,我们可以根据以前的数据,对算法进行验证,但使用算法去预测未来的股票的涨跌,还是有一些风险的,所以还是要谨慎的去使用这些算法。至少现在没有一种算法可以百分之百的去预测未来股票的时间序列模型算法,还是先暂时的用算法去不断的训练,直到未来技术成熟的一天。

    Stock Prices Prediction Using Machine Learning and Deep Learning Techniques (with Python codes)

    展开全文
  • 本文针对企业员工一些特征来判断员工是否离职,利用RapidMiner软件构建员工离职预测模型,分析影响员工离职重要因素,比如员工月收入,是否加班,是否出差等,预测企业员工是否具有离职倾向,为企业提前做出判断...
  • 在该模型中,输入为影响氟石粉液化FMP各种因素包括粒径、均匀度、化学性质、真密度及堆积密度等,输出为FMP,预测结果表明,所建RBF神经网络模型预测精度较高,可应用于对氟石粉液化FMP预测。同时采用逐步反向...
  • 通过分析影响永磁机构动作时间的因素,研究了同步分合闸控制的关键技术,包括设计FIR数字滤波器以准确提取系统电压电流过零点、径向基函数神经网络(RBF)预测控制、机构老化与触头磨损的自适应补偿控制等.最后给出并...
  • 运用包括微震、钻屑法、围岩变形量、顶板离层、锚杆锚索应力综合监测技术手段,提高了冲击地压预测预报的精度。通过冲击地压多种监测技术研究分析,得出以下结论:微震事件主要沿着断层走向分布,其周期性与工作面...
  • 由于声场复杂性和某些因素的不可预测性,没有模拟可以百分白精确,但自90年以来,ease的预测被证明是有效而可靠。) ease软件在建筑声学、建筑扩声设计中有广泛应用。我们应用ease对扬子江药业大型会议厅...
  • 本软件不仅是一个强大数学学习工具,包括了从初中到大学几乎所有数学函数、平面解析几何、重要公式等以及他们相关图像,而且也是工程测量数理统计等部门最佳辅助运算工具,十几种统计分析预测模型及他们...
  • 一旦受到外部高频干扰影响,就可能导致模拟器件的精度下降,甚至可能无法控制电磁阀电路。这种状态在放大器中表现就是放大器输出精度超过误差预算和数据手册中容差,甚至在某些情况下可能会达到限值,从而导致控制...
  • 综合分析影响鹿台山煤矿3号煤层瓦斯赋存主要地质因素,采用多元线性回归、数量化理论Ⅰ、构造关联度分区等方法,筛选出影响2号煤层瓦斯含量地质变量包括煤层埋深、围岩透气性和褶皱平面变形系数3个主要地质指标,...
  • 什么是GIS ... 根据区域地理环境特点,综合考虑资源配置、市场潜力、交通条件、地形特征、环境影响因素,在区域范围内选择最佳位置,是GIS一个典型应用领域,充分体现了GIS空间分析功能。
  • matlab神经网络30个案例分析

    热门讨论 2011-06-01 20:06:07
    明显,这30个输入自变量相互之间存在一定关系,并非相互独立,因此,为了缩短建模时间、提高建模精度,有必要将30个输入自变量中起主要影响因素的自变量筛选出来参与最终建模。 第28章 基于灰色神经网络...
  • 它会严重影响回归线,最终影响预测值 多重共线性会增加系数估计值方差,使得在模型轻微变化下,估计非常敏感。 结果就是系数估计值不稳定, 在多个自变量情况下,我们可以使用向前选择法,向后剔除法和...
  • 对于线性或非线性连接条件,均可通过预测得到当前时刻车辆与桥梁间的相互作用力,采用精细积分方法分别对车辆、桥梁子系统直接进行求解,从而避免了传统迭代方法复杂、耗时的迭代过程,在保证计算精度的前提下显著提高了...
  • 原书名为《计算机体系结构:原理与演变》(Computer Organization & Architecture: Themes and Variations),书中不仅覆盖单机系统组成原理和系统结构各个方面,还包括计算机性能评价方法以及多发射、粗粒度...
  • 会计理论考试题

    2012-03-07 21:04:40
    29.显示卡速度对Windows98的系统性能影响的因素有___A____。 A、Windows98的GUI特点 B、背景图案 C、屏幕保护程序 D、画笔 30.下列计算机设备中,属于输入设备的是__D___。 A、音箱 B、绘图仪 C、打印机 D、扫描仪 ...

空空如也

空空如也

1
收藏数 20
精华内容 8
关键字:

影响预测精度的因素包括