精华内容
下载资源
问答
  • svmsim.m文件支持向量机预测函数,用于预测 svmmain.m为主程序 svmyiwei.m为一维测试函数主程序 svmerwei.m为二维测试函数主程序 后两者没有涉及到数据归一化,在训练样本与测试样本划分时采用随机的方法,调用了...
  • 本软件为基于最小二乘支持向量机预测,matlab源代码,内有详细使用教程,特别容易学,使用也简单,结果精度也较高,适合做研究用
  • 阐述了支持向量机在时间序列预测中应用的理论基础,建立了人口时间序列的支持向量机预测模型。计算结果表明,无论是在拟合过程还是在预测过程,支持向量机方法都具有很高的计算精度.因此,采用支持向量机方法对人口...
  • 针对工业过程中普遍存在的非线性被控对象, 提出一种基于最小二乘支持向量机建模的预测控制算法. 首 先, 用具有RBF 核函数的L S2SVM 离线建立被控对象的非线性模型; 然后, 在系统运行过程中, 将离线模型在每一...
  • 嵌入具有分类预测功能的支持向量机(SVM),同时引入莱维飞行全局搜索更新狼群位置,优化SVM核函数参数γ和惩罚因子C,构建了HGWO-SVM预测算法预测推焦车大车道内物体的运动轨迹。结果表明,与已有算法相比,该算法对行人、...
  • 本文基于SVM支持向量机算法,来实现降水量预测
  • python利用支持向量机SVM进行时间序列预测, 包括数据和python代码 python利用支持向量机SVM进行时间序列预测, 包括数据和python代码
  • 支持向量机用于回归预测的源代码。
  • 在分析煤层含气量影响因素的基础上,采用基于小样本理论的支持向量机(SVM)回归方法,建立了预测煤层含气量的计算模型。通过对沁水盆地南部目标煤层含气量影响因素分析,建立了煤变质程度、储层压力、温度及煤质特征支持...
  • 基于matlab的svm预测 代码
  • 分析了遥感月蒸发蒸腾量数据的动态变化趋势,把一维遥感月蒸发蒸腾量输入空间映射到高维输入空间,将蒸发蒸腾量时间序列重构为12维相空间,建立了基于支持向量机的蒸发蒸腾量预测模型。根据预测精度,确定了损失系数ε、...
  • 建立了基于支持向量机(Support Vector Machine,SVM)的煤自燃极限参数预测模型;经过与多项式函数及Sigmoid核函数的对比,选用径向基函数作为SVM核函数;提出了一种SVM参数优化的变步长搜索方法,先在一个大区域根据训练...
  • 基于基于支持向量机libsvm的回归预测分析拟合模型,利用数据做预测,数据代码都在压缩包里。
  • 最小二乘向量的代码预测和训练,最小二乘支持向量机matlab程序+使用教程。。
  • 用于支持向量机预测的matlab代码,需要libsvm。
  • svm预测Matlab代码MISVM:多实例支持向量机 由加里·多兰() 概述 MISVM包含用于多实例(MI)学习框架的众多支持向量机(SVM)算法的Python实现。 这些实现已创建,可在以下出版物中使用: Doran,Gary和Soumya Ray...
  • 对实际统计数据中存在的相关性、不确定性和非线性问题,提出贝叶斯支持向量机预测模型方法.构建基于高斯分布的权值分布模型描述信息的不确定性,基于先验概率分布和贝叶斯关系获得后验分布模型,利用极大似然方法和...
  • 基于包钢6号高炉的在线生产数据,首先建立铁水硅含量序列的自回归AR(p)模型,分析其滞后阶数...最后建立铁水硅含量的支持向量机回归预测模型。该模型对炉温预测的准确度达到88.2%,对在线监测高炉炉温具有一定的实用价值。
  • # 导入支持向量机 2、将上文的表格复制到excel里面,删除第一行表头,然后保存成csv,命名为data.csv保存在程序目录下。 3、读取csv并转为DataFrame carPrice = [] with open('data.csv', 'r', encoding=...

    首先附上我收集的2018年以来的广州车牌拍卖信息

     指标数量参与人数第一次报价第二次报价上次最低价上次平均价上上次最低价上上次平均价本次最低价
    2020年1月3634

    11917

    (数据缺失,取得是历史平均数)

    12181125911380015461132001591714800
    2019年12月76931472512495128611320015917100002030613800
    2019年11月57011105112500127641000020306202002416413200
    2019年10月90681035617365181342020024164218002377910000
    2019年9月81651592517891188952180023779188002204720200
    2019年8月63661722017204180561880022047141002896621800
    2019年7月54221314216082165811410028966400004284618800
    2019年6月5457793221129226414000042846386004039514100
    2019年5月3618978228637307363860040395360003795340000
    2019年4月36221179426753287093600037953330003624038600
    2019年3月36351227825493272873300036240339003919636000
    2019年2月36621093523552253523390039196370004098533000
    2019年1月36571260423772252963700040985368003958533900
    2018年12月36411316924141260663680039585331003543437000
    2018年11月36321487723546251653310035434297003220536800
    2018年10月36301633021612229742970032205255003165433100
    2018年9月36951512420202215162550031654121005615229700
    2018年8月45411152219450201811210056152520005728325500
    2018年7月3600640840251435835200057283413004422512100
    2018年6月3554927534894381474130044225321003445552000
    2018年5月35381257627014291173210034455253002693941300
    2018年4月35491070822339239412530026939228002456032100
    2018年3月35471021019367204892280024560210002521325300
    2018年2月35411010218089189342100025213180003231222800
    2018年1月3687796618405191261800032312307003404621000

    使用语言: Python,请先pip install好pandas和sklearn。

    1、import需要的包

    import pandas as pd
    from sklearn.svm import SVR
    # 导入支持向量机

    2、将上文的表格复制到excel里面,删除第一行表头,然后保存成csv,命名为data.csv保存在程序目录下。

    3、读取csv并转为DataFrame

    carPrice = []
    with open('data.csv', 'r', encoding='utf-8') as f:
        for line in f.readlines():
            l = line.split(',')
            carPrice.append({
                'zbs': int(l[1]),
                'bms': int(l[2]),
                'fp': int(l[3]),
                'sp': int(l[4]),
                'nlp': int(l[5]),
                'nap': int(l[6]),
                'nnlp': int(l[7]),
                'nnap': int(l[8]),
                'lp': int(l[9])
            })
    
    df = pd.DataFrame(carPrice)
    # 将数据转换成DataFrame,其实我觉得直接用pd.read_csv方法更快,这个程序从整理数据到写好也就用了几十分钟。
    

     4、进行机器学习,输出结果,本次将通过2018-2019年的数据,以及公布的2020年1月车牌拍卖相关数据,预测2020年1月车牌拍卖最低价格。

    X_train = df.drop(['lp'], axis=1)[1:]
    # 训练数据集
    y_train = df['lp'][1:]
    # 训练结果集
    X_test = df.drop(['lp'], axis=1)[:1]
    # 测试数据集
    
    clf = SVR(kernel='linear')
    clf.fit(X_train, y_train)
    preds = clf.predict(X_test)
    print('预测结果是:',preds,'元')

    5、输出结果

    预测结果是: [17110.34942555] 元

    Process finished with exit code 0

     

    总结:2020年1月广州车牌拍卖,最低价格为14800元……跟预测结果还是有2千多块钱的差距的。主要原因还是样本数量太少了……

    展开全文
  • 该工具箱主要用于商业用Matlab软件包使用。Matlab的工具箱已经在不同的计算机体系结构编译和测试,包括Linux和Windows。大部分函数可以处理的数据集可高达20,000或更多点的数据。LS- SVMlab对Matlab接口包括一个...
  • 将云模型和支持向量机(SVM)相结合,提出一种适合短期风电功率预测的云支持向量机模型。该模型采用云变换方法提取风速序列的定性特征,并通过SVM建立风速特征与风电功率间的关系。对未来24 h的风电功率预测结果显示...
  • 先去下载matlab的lssvm工具... % 子图1的注释 title('最小二乘支持向量机预测天然气结果','fontsize',12) %子图1的标题 %plotlssvm({train_Input',train_Output,type,gam,sig2,'RBF_kernel','preprocess'},{alpha,b});

    先去下载matlab的lssvm工具箱,网上可以搜到。这里不细说

    先用PSO算法进行参数寻优,也就是gamma和sig2两个参数,LS-SVM的原理不细说。

    pso.m

    clc;
    clear all;
    n = 2;   % n 是自变量的个数
    m = 1;    % m 是因变量的个数
    %% 读取训练数据
    for train_num=2:34;  %训练样本数
    train_Data = data(1:train_num,:);
    
    % 特征值归一化
    [train_Input,minI,maxI] = premnmx(train_Data(:,1:n)');
    
    % 构造输出矩阵
    [train_Output,minO,maxO] = premnmx(train_Data(:,n+1:end)');
    
    %% 读取测试数据
    test_Data = data(train_num+1:end,:);
    % 特征值归一化
    test_Input = tramnmx(test_Data(:,1:n)',minI,maxI);
    % 构造测试输出矩阵
    test_Output = tramnmx(test_Data(:,n+1:end)',minO,maxO);
    
    %PSO参数
    c1 = 2;  %PSO局部搜索能力
    c2 = 2; %PSO全局搜索能力
    sizepop = 20; %种群规模
    k = 100;%最大迭代次数
    w = 0.9;%惯性因子
    
    %确定优化参数的数目
    length = 2;
    param = rand(sizepop,length);
    speed = rand(sizepop,length);
    popmin = 0.01;
    popmax = 100;
    vmin = -1;
    vmax = 1;
    type='f';
    for i=1:sizepop
        gamma = param(i,1);
        sig2 = param(i,2);
        [alpha,b] = trainlssvm({train_Input',train_Output',type,gamma,sig2,'RBF_kernel'});
        predict = simlssvm({train_Input',train_Output',type,gamma,sig2,'RBF_kernel'},{alpha,b},test_Input');
        score = sqrt(sum((predict-test_Output').^2)/size(test_Output',1));
        fitness(i,:) = score;
        lbest(i,:) = param(i,:);
    end
    [value,index] = min(fitness);
    gbest = param(index,:);
    fitnessbest = value;
    %PSO优化参数
    for T=1:k
        for i=1:sizepop
            speed(i,:) = w*speed(i,:)+c1*rand*(lbest(i,:)-param(i,:))+c2*rand*(gbest-param(i,:));
            speed(i,find(speed(i,:)>vmax)) = vmax;
            speed(i,find(speed(i,:)<vmin)) = vmin;
            param(i,:) = param(i,:)+speed(i,:);
            param(i,find(param(i,:)>popmax)) = popmax;
            param(i,find(param(i,:)<popmin)) = popmin;
            pick = rand;
                if pick > 0.9
                    kk = ceil(2*pick);
                    param(i,kk) = pick;
                end
                gamma = param(i,1);
                sig2 = param(i,2);
    [alpha,b] = trainlssvm({train_Input',train_Output',type,gamma,sig2,'RBF_kernel'});
     predict = simlssvm({train_Input',train_Output',type,gamma,sig2,'RBF_kernel'},{alpha,b},test_Input');
    fit = sqrt(sum((predict-test_Output').^2)/size(test_Output',1));
    if fit<fitness(i,:)
        fitness(i,:) = fit;
        lbest(i,:) = param(i,:);
    end
    if fit<fitnessbest
        gbest = param(i,:);
        fitnessbest = fit;
    end
        end
        MSE(T,:) = fitnessbest;
        w = w - (w-0.4)*T/k;
    end
    gamma = gbest(1,1);
    sig2 = gbest(1,2);
    disp(['best gamma = ',num2str(gamma),' best sig2 = ',num2str(sig2)])
    [alpha,b] = trainlssvm({train_Input',train_Output',type,gamma,sig2,'RBF_kernel'});
    predict_test = simlssvm({train_Input',train_Output',type,gamma,sig2,'RBF_kernel'},{alpha,b},test_Input');
    RMSE = sqrt(sum((predict_test-test_Output').^2)/size(test_Output',1));
    disp(['RMSE = ',num2str(RMSE)]);
    figure(1)
    plot(predict_test,'-b')
    hold on
    plot(test_Output,'--r')
    end
    

    然后进行预测predict.m 

    clc;
    clear all;
    n = 2;   % n 是自变量的个数
    m = 1;    % m 是因变量的个数
    %% 读取训练数据
    train_num = 20;  %训练样本数
    train_Data = data(1:train_num,:);
    % 特征值归一化
    [train_Input,minI,maxI] = premnmx(train_Data(:,1:n)');
    % 构造输出矩阵
    [train_Output,minO,maxO] = premnmx(train_Data(:,n+1:end)');
    gam = 16.6576;
    sig2 = 0.56056;
    type = 'function estimation';
    tic; %计时开始
    % 用trainlssvm()函数对训练数据进行训练
    [alpha,b] = trainlssvm({train_Input',train_Output',type,gam,sig2,'RBF_kernel'});
    SVMtrain_Output = simlssvm({train_Input',train_Output',type,gam,sig2,'RBF_kernel','preprocess'},{alpha,b},train_Input');
    toc; %计时结束
    train_Output = postmnmx(train_Output',minO,maxO);
    SVMtrain_Output = postmnmx(SVMtrain_Output',minO,maxO);
    % 训练数据误差
    train_err = train_Output - SVMtrain_Output';
    n1 = length(SVMtrain_Output);
    train_RMSE = sqrt(sum((train_err).^2)/n1);
    
    %% 读取测试数据
    test_Data = data(train_num+1:end,:);
    % 特征值归一化
    test_Input = tramnmx(test_Data(:,1:n)',minI,maxI)';
    % 构造测试输出矩阵
    test_Output = tramnmx(test_Data(:,n+1:end)',minO,maxO)';
    
    SVMtest_Output = simlssvm({train_Input',train_Output,type,gam,sig2,'RBF_kernel','preprocess'},{alpha,b},test_Input);
    test_Output = postmnmx(test_Output,minO,maxO);
    SVMtest_Output = postmnmx(SVMtest_Output',minO,maxO);
    
    % 测试数据误差
    test_err = test_Output - SVMtest_Output';
    n2 = length(SVMtest_Output');
    test_RMSE = sqrt(sum((test_err).^2)/n2);
    
    %% 预测结果可视化
    figure(6);  % 绘制图1
    %subplot(2,1,1);  % 图1包含2行1列个子图形,首先绘制子图1
    plot(SVMtest_Output,':og');  % 用绿色的o绘制测试数据的预测输出值
    hold on;
    plot(test_Output','-*b');  % 用蓝色的*绘制测试数据的期望输出值
    legend('预测输出','期望输出');  % 子图1的注释
    title('最小二乘支持向量机预测天然气结果','fontsize',12)  %子图1的标题
    %plotlssvm({train_Input',train_Output,type,gam,sig2,'RBF_kernel','preprocess'},{alpha,b});
    
    
    

     

    展开全文
  • 最小二乘支持向量机(LSSVMtoolbox)--工具包
  • SVM支持向量机预测作业-房价预测模型.ppt
  • 【SVM预测】灰狼算法优化svm支持向量机预测matlab源码
  • 代码如下:# -*- coding: utf-8 -*- """ Created on Tue May 15 17:23:42 2018 @author: eagle ""...# =============================...# 不同核函数的支持向量机预测波士顿房价 # ========...

    代码如下:

    # -*- coding: utf-8 -*-
    """
    Created on Tue May 15 17:23:42 2018
    
    @author: eagle
    """
    # =============================================================================
    # 不同核函数的支持向量机预测波士顿房价
    # =============================================================================
    
    from sklearn.datasets import load_boston
    from sklearn.cross_validation import train_test_split
    import numpy as np
    from sklearn.preprocessing import StandardScaler
    
    from sklearn.svm import SVR
    
    from sklearn.metrics import r2_score,mean_squared_error,mean_absolute_error
    
    #加载房价数据
    boston = load_boston()      #共506条数据
    print(boston.DESCR)
    X = boston.data
    y = boston.target
    
    
    #训练数据和测试数据分割
    X_train,X_test,y_train,y_test = train_test_split(X,y,test_size = 0.25,random_state = 33)
    #print('The max target value is',np.max(boston.target)) #最大值
    #print('The min target value is',np.min(boston.target)) #最小值
    #print('The average target value is',np.mean(boston.target)) #平均值
    
    #标准化
    ss_X = StandardScaler()
    ss_y = StandardScaler()
    
    X_train = ss_X.fit_transform(X_train)
    X_test = ss_X.transform(X_test)
    y_train = ss_y.fit_transform(y_train.reshape(-1,1))
    y_test = ss_y.transform(y_test.reshape(-1,1))
    
    #不同核函数对比
    #线性核函数
    linear_svr = SVR(kernel='linear')
    linear_svr.fit(X_train,y_train)
    linear_y_predict = linear_svr.predict(X_test)
    
    #多项式核函数
    poly_svr = SVR(kernel='poly')
    poly_svr.fit(X_train,y_train)
    poly_y_predict = poly_svr.predict(X_test)
    
    #径向基核函数
    rbf_svr = SVR(kernel='rbf')
    rbf_svr.fit(X_train,y_train)
    rbf_y_predict = rbf_svr.predict(X_test)
    
    
    #评价
    #线性核函数
    print('The scroe of linear_svr is:',linear_svr.score(X_test,y_test))
    print('The r2-score of linear_svr is:',r2_score(y_test,linear_y_predict))
    print('The mean_squared_error of linear_svr is',mean_squared_error(ss_y.inverse_transform(y_test),ss_y.inverse_transform(linear_y_predict)))
    print('The mean_absolute_error of linear_svr is',mean_absolute_error(ss_y.inverse_transform(y_test),ss_y.inverse_transform(linear_y_predict)))
    
    #多项式核函数
    print('The scroe of poly_svr is:',poly_svr.score(X_test,y_test))
    print('The r2-score of poly_svr is:',r2_score(y_test,poly_y_predict))
    print('The mean_squared_error of poly_svr is',mean_squared_error(ss_y.inverse_transform(y_test),ss_y.inverse_transform(poly_y_predict)))
    print('The mean_absolute_error of poly_svr is',mean_absolute_error(ss_y.inverse_transform(y_test),ss_y.inverse_transform(poly_y_predict)))
    
    #径向基核函数
    print('The scroe of rbf_svr is:',rbf_svr.score(X_test,y_test))
    print('The r2-score of rbf_svr is:',r2_score(y_test,rbf_y_predict))
    print('The mean_squared_error of rbf_svr is',mean_squared_error(ss_y.inverse_transform(y_test),ss_y.inverse_transform(rbf_y_predict)))
    print('The mean_absolute_error of rbf_svr is',mean_absolute_error(ss_y.inverse_transform(y_test),ss_y.inverse_transform(rbf_y_predict)))

    采用支持向量机预测波士顿房价,可尝试采用多种不同的核函数,从线性核函数、多项式核函数、径向基核函数的对比性能来看,径向基核函数的效果是最好的。

    核函数将线性不可分的低维输入映射到高维可分的新特征空间。



    展开全文
  • 以工程实测数据作为学习样本,利用遗传算法优化支持向量机参数,建立了煤矿立井井筒非采动破裂的遗传-支持向量机预测模型,并对工程实例进行测试。研究结果表明,该模型预测精度高,回判估计的错误率低,为快速准确地预测...
  • 这个模型为用支持向量机来做预测,里面有详细的代码,希望可以帮到有需要的人
  • 在分析煤层含气量影响因素的基础上,采用基于小样本理论的支持向量机(SVM)回归方法,建立了预测煤层含气量的计算模型。通过对沁水盆地南部目标煤层含气量影响因素分析,建立了煤变质程度、储层压力、温度及煤质特征支持...
  • 作为一种新的机器学习方法,支持向量机的参数选择没有一个统一的模式和标准。为了克服这一缺点,对遗传算法进行改进,构造一种混沌云自适应模拟退火遗传算法(CCASAGA)对支持向量机回归参数进行优化。该算法将混沌...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 64,342
精华内容 25,736
关键字:

支持向量机预测