-
sklearn
2018-06-20 00:05:57from sklearn import datasets from sklearn import cross_validation from sklearn.naive_bayes import GaussianNB from sklearn.svm import SVC from sklearn.ensemble import RandomForestClassifier from sklear...from sklearn import datasets from sklearn import cross_validation from sklearn.naive_bayes import GaussianNB from sklearn.svm import SVC from sklearn.ensemble import RandomForestClassifier from sklearn import metrics dataset = datasets.make_classification(n_samples=1000, n_features=10) X,y = dataset kf = cross_validation.KFold(len(dataset[0]), n_folds=10, shuffle=True) acc = [0,0,0] f1 = [0,0,0] auc = [0,0,0] for train_index, test_index in kf: X_train, y_train = X[train_index], y[train_index] X_test, y_test = X[test_index], y[test_index] clf = GaussianNB() clf.fit(X_train, y_train) pred = clf.predict(X_test) acc[0] += metrics.accuracy_score(y_test, pred) f1[0] += metrics.f1_score(y_test, pred) auc[0] += metrics.roc_auc_score(y_test, pred) clf = SVC(C=1e-02, kernel='rbf', gamma=0.1) clf.fit(X_train, y_train) pred = clf.predict(X_test) acc[1] += metrics.accuracy_score(y_test, pred) f1[1] += metrics.f1_score(y_test, pred) auc[1] += metrics.roc_auc_score(y_test, pred) clf = RandomForestClassifier(n_estimators=10) clf.fit(X_train, y_train) pred = clf.predict(X_test) acc[2] += metrics.accuracy_score(y_test, pred) f1[2] += metrics.f1_score(y_test, pred) auc[2] += metrics.roc_auc_score(y_test, pred)
for i in range(0, 3): print("Accuracy:" + str(acc[i]/10)) print("F1-score:" + str(f1[i]/10)) print("AUC ROC:" + str(auc[i]/10)) print()
结果:(顺序分别为GaussianNB、SVC、RandomForestClassifier)
-
Sklearn-train_test_split随机划分训练集和测试集
2017-02-05 15:06:15sklearn.model_selection.train_test_split随机划分训练集和测试集 官网文档:...sklearn.model_selection.train_test_split随机划分训练集和测试集
官网文档:http://scikit-learn.org/stable/modules/generated/sklearn.model_selection.train_test_split.html#sklearn.model_selection.train_test_split
- 一般形式:
train_test_split是交叉验证中常用的函数,功能是从样本中随机的按比例选取train data和testdata,形式为:
X_train,X_test, y_train, y_test =
cross_validation.train_test_split(train_data,train_target,test_size=0.4, random_state=0)
- 参数解释:
train_data:所要划分的样本特征集
train_target:所要划分的样本结果
test_size:样本占比,如果是整数的话就是样本的数量
random_state:是随机数的种子。
随机数种子:其实就是该组随机数的编号,在需要重复试验的时候,保证得到一组一样的随机数。比如你每次都填1,其他参数一样的情况下你得到的随机数组是一样的。但填0或不填,每次都会不一样。
随机数的产生取决于种子,随机数和种子之间的关系遵从以下两个规则:
种子不同,产生不同的随机数;种子相同,即使实例不同也产生相同的随机数。
- 示例
fromsklearn.cross_validation import train_test_split train= loan_data.iloc[0: 55596, :] test= loan_data.iloc[55596:, :] # 避免过拟合,采用交叉验证,验证集占训练集20%,固定随机种子(random_state) train_X,test_X, train_y, test_y = train_test_split(train, target, test_size = 0.2, random_state = 0) train_y= train_y['label'] test_y= test_y['label']
公众号:剑指风险~持续关注风控技术与业务,不定期更新~
-
Python之Sklearn使用教程
2018-04-15 19:49:271.Sklearn简介 Scikit-learn(sklearn)是机器学习中常用的第三方模块,对常用的机器学习方法进行了封装,包括回归(Regression)、降维(Dimensionality Reduction)、分类(Classfication)、聚类(Clustering)等方法。当...1.Sklearn简介
Scikit-learn(sklearn)是机器学习中常用的第三方模块,对常用的机器学习方法进行了封装,包括回归(Regression)、降维(Dimensionality Reduction)、分类(Classfication)、聚类(Clustering)等方法。当我们面临机器学习问题时,便可根据下图来选择相应的方法。Sklearn具有以下特点:
-
简单高效的数据挖掘和数据分析工具
-
让每个人能够在复杂环境中重复使用
-
建立NumPy、Scipy、MatPlotLib之上
2.Sklearn安装
Sklearn安装要求
Python(>=2.7 or >=3.3)
、NumPy (>= 1.8.2)
、SciPy (>= 0.13.3)
。如果已经安装NumPy和SciPy,安装scikit-learn可以使用pip install -U scikit-learn
。3.Sklearn通用学习模式
Sklearn中包含众多机器学习方法,但各种学习方法大致相同,我们在这里介绍Sklearn通用学习模式。首先引入需要训练的数据,Sklearn自带部分数据集,也可以通过相应方法进行构造,
4.Sklearn datasets
中我们会介绍如何构造数据。然后选择相应机器学习方法进行训练,训练过程中可以通过一些技巧调整参数,使得学习准确率更高。模型训练完成之后便可预测新数据,然后我们还可以通过MatPlotLib
等方法来直观的展示数据。另外还可以将我们已训练好的Model进行保存,方便移动到其他平台,不必重新训练。from sklearn import datasets#引入数据集,sklearn包含众多数据集 from sklearn.model_selection import train_test_split#将数据分为测试集和训练集 from sklearn.neighbors import KNeighborsClassifier#利用邻近点方式训练数据 ###引入数据### iris=datasets.load_iris()#引入iris鸢尾花数据,iris数据包含4个特征变量 iris_X=iris.data#特征变量 iris_y=iris.target#目标值 X_train,X_test,y_train,y_test=train_test_split(iris_X,iris_y,test_size=0.3)#利用train_test_split进行将训练集和测试集进行分开,test_size占30% print(y_train)#我们看到训练数据的特征值分为3类 ''' [0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2] ''' ###训练数据### knn=KNeighborsClassifier()#引入训练方法 knn.fit(X_train,y_train)#进行填充测试数据进行训练 ###预测数据### print(knn.predict(X_test))#预测特征值 ''' [1 1 1 0 2 2 1 1 1 0 0 0 2 2 0 1 2 2 0 1 0 0 0 0 0 0 2 1 0 0 0 1 0 2 0 2 0 1 2 1 0 0 1 0 2] ''' print(y_test)#真实特征值 ''' [1 1 1 0 1 2 1 1 1 0 0 0 2 2 0 1 2 2 0 1 0 0 0 0 0 0 2 1 0 0 0 1 0 2 0 2 0 1 2 1 0 0 1 0 2] '''
4.Sklearn datasets
Sklearn提供一些标准数据,我们不必再从其他网站寻找数据进行训练。例如我们上面用来训练的
load_iris
数据,可以很方便的返回数据特征变量和目标值。除了引入数据之外,我们还可以通过load_sample_images()
来引入图片。除了sklearn提供的一些数据之外,还可以自己来构造一些数据帮助我们学习。
from sklearn import datasets#引入数据集 #构造的各种参数可以根据自己需要调整 X,y=datasets.make_regression(n_samples=100,n_features=1,n_targets=1,noise=1) ###绘制构造的数据### import matplotlib.pyplot as plt plt.figure() plt.scatter(X,y) plt.show()
5.Sklearn Model的属性和功能
数据训练完成之后得到模型,我们可以根据不同模型得到相应的属性和功能,并将其输出得到直观结果。假如通过线性回归训练之后得到线性函数
y=0.3x+1
,我们可通过_coef
得到模型的系数为0.3,通过_intercept
得到模型的截距为1。from sklearn import datasets from sklearn.linear_model import LinearRegression#引入线性回归模型 ###引入数据### load_data=datasets.load_boston() data_X=load_data.data data_y=load_data.target print(data_X.shape) #(506, 13)data_X共13个特征变量 ###训练数据### model=LinearRegression() model.fit(data_X,data_y) model.predict(data_X[:4,:])#预测前4个数据 ###属性和功能### print(model.coef_) ''' [ -1.07170557e-01 4.63952195e-02 2.08602395e-02 2.68856140e+00 -1.77957587e+01 3.80475246e+00 7.51061703e-04 -1.47575880e+00 3.05655038e-01 -1.23293463e-02 -9.53463555e-01 9.39251272e-03 -5.25466633e-01] ''' print(model.intercept_) #36.4911032804 print(model.get_params())#得到模型的参数 #{'copy_X': True, 'normalize': False, 'n_jobs': 1, 'fit_intercept': True} print(model.score(data_X,data_y))#对训练情况进行打分 #0.740607742865
6.Sklearn数据预处理
数据集的标准化对于大部分机器学习算法来说都是一种常规要求,如果单个特征没有或多或少地接近于标准正态分布,那么它可能并不能在项目中表现出很好的性能。在实际情况中,我们经常忽略特征的分布形状,直接去均值来对某个特征进行中心化,再通过除以非常量特征(non-constant features)的标准差进行缩放。
例如, 许多学习算法中目标函数的基础都是假设所有的特征都是零均值并且具有同一阶数上的方差(比如径向基函数、支持向量机以及L1L2正则化项等)。如果某个特征的方差比其他特征大几个数量级,那么它就会在学习算法中占据主导位置,导致学习器并不能像我们说期望的那样,从其他特征中学习。例如我们可以通过Scale将数据缩放,达到标准化的目的。
from sklearn import preprocessing import numpy as np a=np.array([[10,2.7,3.6], [-100,5,-2], [120,20,40]],dtype=np.float64) print(a) print(preprocessing.scale(a))#将值的相差度减小 ''' [[ 10. 2.7 3.6] [-100. 5. -2. ] [ 120. 20. 40 [[ 0. -0.85170713 -0.55138018] [-1.22474487 -0.55187146 -0.852133 ] [ 1.22474487 1.40357859 1.40351318]] '''
我们来看下预处理前和预处理预处理后的差别,预处理之前模型评分为
0.511111111111
,预处理后模型评分为0.933333333333
,可以看到预处理对模型评分有很大程度的提升。from sklearn.model_selection import train_test_split from sklearn.datasets.samples_generator import make_classification from sklearn.svm import SVC import matplotlib.pyplot as plt ###生成的数据如下图所示### plt.figure X,y=make_classification(n_samples=300,n_features=2,n_redundant=0,n_informative=2, random_state=22,n_clusters_per_class=1,scale=100) plt.scatter(X[:,0],X[:,1],c=y) plt.show() ###利用minmax方式对数据进行规范化### X=preprocessing.minmax_scale(X)#feature_range=(-1,1)可设置重置范围 X_train,X_test,y_train,y_test=train_test_split(X,y,test_size=0.3) clf=SVC() clf.fit(X_train,y_train) print(clf.score(X_test,y_test)) #0.933333333333 #没有规范化之前我们的训练分数为0.511111111111,规范化后为0.933333333333,准确度有很大提升
7.交叉验证
交叉验证的基本思想是将原始数据进行分组,一部分做为训练集来训练模型,另一部分做为测试集来评价模型。交叉验证用于评估模型的预测性能,尤其是训练好的模型在新数据上的表现,可以在一定程度上减小过拟合。还可以从有限的数据中获取尽可能多的有效信息。
机器学习任务中,拿到数据后,我们首先会将原始数据集分为三部分:训练集、验证集和测试集。 训练集用于训练模型,验证集用于模型的参数选择配置,测试集对于模型来说是未知数据,用于评估模型的泛化能力。不同的划分会得到不同的最终模型。
以前我们是直接将数据分割成70%的训练数据和测试数据,现在我们利用K折交叉验证分割数据,首先将数据分为5组,然后再从5组数据之中选择不同数据进行训练。
from sklearn.datasets import load_iris from sklearn.model_selection import train_test_split from sklearn.neighbors import KNeighborsClassifier ###引入数据### iris=load_iris() X=iris.data y=iris.target ###训练数据### X_train,X_test,y_train,y_test=train_test_split(X,y,test_size=0.3) #引入交叉验证,数据分为5组进行训练 from sklearn.model_selection import cross_val_score knn=KNeighborsClassifier(n_neighbors=5)#选择邻近的5个点 scores=cross_val_score(knn,X,y,cv=5,scoring='accuracy')#评分方式为accuracy print(scores)#每组的评分结果 #[ 0.96666667 1. 0.93333333 0.96666667 1. ]5组数据 print(scores.mean())#平均评分结果 #0.973333333333
那么是否n_neighbor=5便是最好呢,我们来调整参数来看模型最终训练分数。
from sklearn import datasets from sklearn.model_selection import train_test_split from sklearn.neighbors import KNeighborsClassifier from sklearn.model_selection import cross_val_score#引入交叉验证 import matplotlib.pyplot as plt ###引入数据### iris=datasets.load_iris() X=iris.data y=iris.target ###设置n_neighbors的值为1到30,通过绘图来看训练分数### k_range=range(1,31) k_score=[] for k in k_range: knn=KNeighborsClassifier(n_neighbors=k) scores=cross_val_score(knn,X,y,cv=10,scoring='accuracy')#for classfication k_score.append(scores.mean()) plt.figure() plt.plot(k_range,k_score) plt.xlabel('Value of k for KNN') plt.ylabel('CrossValidation accuracy') plt.show() #K过大会带来过拟合问题,我们可以选择12-18之间的值
我们可以看到n_neighbor在12-18之间评分比较高,实际项目之中我们可以通过这种方式来选择不同参数。另外我们还可以选择
2-fold Cross Validation
,Leave-One-Out Cross Validation
等方法来分割数据,比较不同方法和参数得到最优结果。我们将上述代码中的循环部分改变一下,评分函数改为
neg_mean_squared_error
,便得到对于不同参数时的损失函数。for k in k_range: knn=KNeighborsClassifier(n_neighbors=k) loss=-cross_val_score(knn,X,y,cv=10,scoring='neg_mean_squared_error')# for regression k_score.append(loss.mean())
8.过拟合问题
什么是过拟合问题呢?例如下面这张图片,黑色线已经可以很好的分类出红色点和蓝色点,但是在机器学习过程中,模型过于纠结准确度,便形成了绿色线的结果。然后在预测测试数据集结果的过程中往往会浪费很多时间并且准确率不是太好。
我们先举例如何辨别overfitting问题。Sklearn.learning_curve中的learning curve可以很直观的看出Model学习的进度,对比发现有没有过拟合。
from sklearn.model_selection import learning_curve from sklearn.datasets import load_digits from sklearn.svm import SVC import matplotlib.pyplot as plt import numpy as np #引入数据 digits=load_digits() X=digits.data y=digits.target #train_size表示记录学习过程中的某一步,比如在10%,25%...的过程中记录一下 train_size,train_loss,test_loss=learning_curve( SVC(gamma=0.1),X,y,cv=10,scoring='neg_mean_squared_error', train_sizes=[0.1,0.25,0.5,0.75,1] ) train_loss_mean=-np.mean(train_loss,axis=1) test_loss_mean=-np.mean(test_loss,axis=1) plt.figure() #将每一步进行打印出来 plt.plot(train_size,train_loss_mean,'o-',color='r',label='Training') plt.plot(train_size,test_loss_mean,'o-',color='g',label='Cross-validation') plt.legend('best') plt.show()
如果我们改变gamma的值,那么会改变相应的Loss函数。损失函数便在10左右停留,此时便能直观的看出过拟合。
下面我们通过修改gamma参数来修正过拟合问题。
from sklearn.model_selection import validation_curve#将learning_curve改为validation_curve from sklearn.datasets import load_digits from sklearn.svm import SVC import matplotlib.pyplot as plt import numpy as np #引入数据 digits=load_digits() X=digits.data y=digits.target #改变param来观察Loss函数情况 param_range=np.logspace(-6,-2.3,5) train_loss,test_loss=validation_curve( SVC(),X,y,param_name='gamma',param_range=param_range,cv=10, scoring='neg_mean_squared_error' ) train_loss_mean=-np.mean(train_loss,axis=1) test_loss_mean=-np.mean(test_loss,axis=1) plt.figure() plt.plot(param_range,train_loss_mean,'o-',color='r',label='Training') plt.plot(param_range,test_loss_mean,'o-',color='g',label='Cross-validation') plt.xlabel('gamma') plt.ylabel('loss') plt.legend(loc='best') plt.show()
通过改变不同的gamma值我们可以看到Loss函数的变化情况。从图中可以看到,如果gamma的值大于0.001便会出现过拟合的问题,那么我们构建模型时gamma参数设置应该小于0.001。
9.保存模型
我们花费很长时间用来训练数据,调整参数,得到最优模型。但如果改变平台,我们还需要重新训练数据和修正参数来得到模型,将会非常的浪费时间。此时我们可以先将model保存起来,然后便可以很方便的将模型迁移。
from sklearn import svm from sklearn import datasets #引入和训练数据 iris=datasets.load_iris() X,y=iris.data,iris.target clf=svm.SVC() clf.fit(X,y) #引入sklearn中自带的保存模块 from sklearn.externals import joblib #保存model joblib.dump(clf,'sklearn_save/clf.pkl') #重新加载model,只有保存一次后才能加载model clf3=joblib.load('sklearn_save/clf.pkl') print(clf3.predict(X[0:1])) #存放model能够更快的获得以前的结果
参考链接
此文档整理自莫烦sklearn视频教程,链接为https://morvanzhou.github.io/tutorials/machine-learning/sklearn/。
更多内容请关注公众号’谓之小一’,若有疑问可在公众号后台提问,随时回答,欢迎关注,内容转载请注明出处。
-
-
sklearn库的学习
2017-12-24 15:14:43sklearn入门,sklearn库结构网上有很多关于sklearn的学习教程,大部分都是简单的讲清楚某一个方面。其实最好的教程就是官方文档(http://scikit-learn.org/stable/),但是官方文档讲述的太过于详细,同时很多人对官方文档的理解和结构认识上都不能很好的把握。我写这篇文章的目的是想用一篇文章讲清楚整个sklearn库,我会讲清楚怎么样用这个库,而不是讲清楚每一个知识点。(授人以鱼不如授人以渔)(本文很多都是从实践的角度出发,也仅仅只代表我个人的认识)
本篇文章主要从两个方面出发:1,介绍sklearn官方文档的类容和结构;2,从机器学习重要步骤出发讲清楚sklearn的使用方法。一、sklearn官方文档的类容和结构
1,机器学习的认识:从实践的角度出发,机器学学习要做的工作就是在我们有的一个数据集上建立一个或者多个模型,然后对我们的模型进行优化和评估。我们将会在sklearn中看到下图各个模块到底是什么,怎么用。2,sklearn库官方文档结构:
下图表示:官方文档有很多模块:
tutorials:是一个官方教程,可以理解快速上手教程,但是看完感觉并没有很快。
user guide(用户指南):这里对每一个算法有详细的介绍
API:这里是库调用的方法
FAQ:常见问题
contributing:贡献,还介绍最新的一些代码,功能。
(下面三个就跟没有用了)
总结:一般的做法是API里面找到你要调用的方法,然后可以查看方法参数的情况和使用情况。也可以在指南里面找到具体的解释。3,sklearn库的结构:
(1)结构:
由图中,可以看到库的算法主要有四类:分类,回归,聚类,降维。其中:- 常用的回归:线性、决策树、SVM、KNN ;集成回归:随机森林、Adaboost、GradientBoosting、Bagging、ExtraTrees
- 常用的分类:线性、决策树、SVM、KNN,朴素贝叶斯;集成分类:随机森林、Adaboost、GradientBoosting、Bagging、ExtraTrees
- 常用聚类:k均值(K-means)、层次聚类(Hierarchical clustering)、DBSCAN
- 常用降维:LinearDiscriminantAnalysis、PCA
(2)图片中隐含的操作流程:
这个流程图代表:蓝色圆圈内是判断条件,绿色方框内是可以选择的算法。你可以根据自己的数据特征和任务目标去找到一条自己的操作路线,一步步做就好了。二、机器学习主要步骤中sklearn应用
1,数据集:面对自己的任务肯定有自己的数据集,但是对于学习来说,sklearn提供了一些数据,主要有两部分:现在网上一些常用的数据集,可以通过方法加载;另一种sklearn可以生成数据,可以生成你设定的数据。(设定规模,噪声等)下面是一段python实例:
from sklearn import datasets from sklearn.linear_model import LinearRegression import matplotlib.pyplot as plt #使用以后的数据集进行线性回归(这里是波士顿房价数据) loaded_data=datasets.load_boston() data_X=loaded_data.data data_y=loaded_data.target model=LinearRegression() model.fit(data_X,data_y) print(model.predict(data_X[:4,:])) print(data_y[:4]) #使用生成线性回归的数据集,最后的数据集结果用散点图表示 X,y=datasets.make_regression(n_samples=100,n_features=1,n_targets=1,noise=10) #n_samples表示样本数目,n_features特征的数目 n_tragets noise噪音 plt.scatter(X,y) plt.show()
2,数据预处理:数据预处理包括:降维、数据归一化、特征提取和特征转换(one-hot)等,这在sklearn里面有很多方法,具体查看api。这里用归一化(preprocessing.scale() )例子解释一下:
from sklearn import preprocessing #进行标准化数据时,需要引入个包 import numpy as np from sklearn.cross_validation import train_test_split from sklearn.datasets.samples_generator import make_classification from sklearn.svm import SVC import matplotlib.pyplot as plt X,y=make_classification(n_samples=300,n_features=2,n_redundant=0,n_informative=2,random_state=22,n_clusters_per_class=1,scale=100) #X=preprocessing.minmax_scale(X,feature_range=(-1,1)) X=preprocessing.scale(X) #0.966666666667 没有 0.477777777778 X_train,X_test,y_train,y_test=train_test_split(X,y,test_size=0.3) clf=SVC() clf.fit(X_train,y_train) print(clf.score(X_test,y_test)) plt.scatter(X[:,0],X[:,1],c=y) plt.show() a=np.array([[10,2.7,3.6], [-100,5,-2], [120,20,40]],dtype=np.float64) #每一列代表一个属性 print(a) #标准化之前a print(preprocessing.scale(a)) #标准化之后的a
3,选择模型并训练: sklearn里面有很多的机器学习方法,可以查看api找到你需要的方法,sklearn统一了所有模型调用的api,使用起来还是比较简单。
from sklearn import datasets from sklearn.linear_model import LinearRegression import matplotlib.pyplot as plt #使用以后的数据集进行线性回归 loaded_data=datasets.load_boston() data_X=loaded_data.data data_y=loaded_data.target model=LinearRegression() model.fit(data_X,data_y) print(model.predict(data_X[:4,:])) print(data_y[:4]) #参数 print(model.coef_) #如果y=0.1x+0.3 则此行输出的结果为0.1 print(model.intercept_) #此行输出的结果为0.3 print(model.get_params()) #模型定义时定义的参数,如果没有定义则返回默认值 print(model.score(data_X,data_y)) #给训练模型打分,注意用在LinearR中使用R^2 conefficient of determination打分
4,模型评分:
(1)模型的score方法:最简单的模型评估方法是调用模型自己的方法:#预测 y_predict = knnClf.predict(x_test) print("score on the testdata:",knnClf.score(x_test,y_test))
(2)sklearn的指标函数:库提供的一些计算方法,常用的有classification_report方法
下面是一个svm分类器,是关于图片分类的,具体数据这里没有给出,大家只需要关注模型的评估就好。
def svmClassify(x_train, x_test, y_train, y_test): id = range(1, x_test.shape[0]+1) print("start run svm!") #训练 svc = svm.SVC(kernel='rbf', C=10,probability=True) svc.fit(x_train, y_train) #预测 y_predict = svc.predict(x_test) print("svm mode's score on the test data:",svc.score(x_test,y_test)) print("svm mode's evaluate:",classification_report(y_test,y_predict)) # print(svc.coef_) # 如果y=0.1x+0.3 则此行输出的结果为0.1 # print(svc.intercept_) # 此行输出的结果为0.3 print(svc.get_params()) # 模型定义时定义的参数,如果没有定义则返回默认值 #可能性计算 probablity = svc.predict_proba(x_test) list_pro = [] for i in range(probablity.shape[0]): pro = max(list(probablity[i])) list_pro.append(pro) #输出 index = np.array(id).reshape(-1,1) result = pd.DataFrame(np.column_stack((np.array(id).reshape(-1, 1), np.array(y_test).reshape(-1, 1),np.array(y_predict).reshape(-1,1),np.array(list_pro).reshape(-1,1))), columns=['ImageId','test_label','predict_lable','probablity']) result.to_csv("result/svm_result.csv", index=False, header=True, encoding='gbk') diff_index = [] for i in range(result.shape[0]): # print(result['test_label'][i], result['predict_lable'][i],) diff_index.append(result['test_label'][i] != result['predict_lable'][i]) print(diff_index) diff = result[diff_index] diff_x = x_test_original[diff_index] diff.to_csv('result/svm_result_diff.csv', index=False, header=True, encoding='gbk') # 查看每个错误 for i in range(len(diff_index)): # print("label is:",diff['test_label'][i],"predict is:",diff['predict_lable'][i]) print("test label is :", diff.iloc[i]['test_label'], 'predict label is :', diff.iloc[i]['predict_lable']) x = diff_x[i] img = x.reshape(28, 28) image_show(img)
(3)sklearn也支持自己开发评价方法
5,模型的保存于恢复:模型的保存与恢复可以采用python的pickle,也可以用joblib的方法。
from sklearn import svm from sklearn import datasets clf=svm.SVC() iris=datasets.load_iris() X,y=iris.data,iris.target clf.fit(X,y) #method1:pickle import pickle #save with open('save/clf.pickle','wb')as f: pickle.dump(clf,f) #restore with open('save/clf.pickle','rb') as f: clf=pickle.load(f) print(clf.predict(X[0:1])) #method2:joblib from sklearn.externals import joblib #save joblib.dump(clf,'save/clf.pkl') clf3=joblib.load('save/clf.pkl') print(clf3.predict(X[0:1]))
这是一篇入门的文章,希望入门的人有一个很好的引导,接下来我也会跟新一些重要的内容。下一篇,我打算讲解交叉验证这个很重要的模块。
-
python安装sklearn模块
2018-03-16 16:56:06转载自:http://blog.csdn.net/qq_21904665/article/details/52681176 第一步:更新pip python -m pip install –upgrade pip 第二步:安装 scipy 在网址http://www.lfd.uci.edu/~gohlke/pythonlibs/ ... ... -
anaconda升级sklearn版本
2017-09-05 21:18:15调用sklearn的model_selection时,发现sklearn中没有model_selection的模块。经过检查,发现anaconda中的sklearn版本太低,为0.17版本。于是,开始了sklearn的升级之旅。1.查看原有版本首先使用conda list命令,查看... -
sklearn中的交叉验证(Cross-Validation)
2017-05-14 01:49:30这个repo 用来记录一些python技巧、书籍、学习链接等,...今天主要记录一下sklearn中关于交叉验证的各种用法,主要是对sklearn官方文档 Cross-validation: evaluating estimator performance进行讲解,英文水平好... -
sklearn说明
2021-01-13 16:01:18sklearn学习使用1. sklearn简介2. 安装sklearn3. sklearn自带的数据集未完待续ing 1. sklearn简介 sklearn官网 是scikit-learn的缩写 是基于Python语言的机器学习工具 简单高效的数据挖掘和数据分析工具 可供大家... -
使用sklearn的cross_val_score进行交叉验证
2018-06-15 18:21:36在构建模型时,调参是极为重要的一个步骤,因为只有选择最佳的参数才能构建一个最优的模型。但是应该如何确定参数的值呢?所以这里记录一下选择参数的方法,以便后期复习以及分享。...sklearn 的 cross_val_sc... -
sklearn用法
2020-06-05 12:12:43from sklearn.datasets import make_blobs, from sklearn.datasets import make_circles, from sklearn.metrics import silhouette_score 聚类评估 算法: from sklearn.cluster import KMeans,DBSCAN -
ModuleNotFoundError: No module named 'sklearn.cross_validation'
2018-10-21 15:46:35from sklearn.cross_validation import KFold from sklearn.cross_validation import train_test_split sklearn更新后在执行以上代码时可能会出现这样的问题: ModuleNotFoundError: No module named 'sklearn.... -
安装 sklearn_sklearn 安装说明
2020-12-24 06:17:34klearn 安装说明第一步:进入root用户:cen@localhost ~]$ su root 密码:000000第二步:安装sklearn 输入命令:pip install sklearn(base) [root@localhost cen]# pip install sklearnCollecting sklearn ... -
sklearn中文文档
2018-12-19 17:05:34scikit-learn(sklearn) 官方文档中文版,scikit-learn中文文档-学习笔记一 sklearn -
sklearn分类
2018-01-13 22:02:21sklearn分类 -
SklearnAPI
2019-11-22 10:56:18sklearn.datasets.load_*(数据集名) 大规模数据 Sklearn.datasets.fetch_* 特征抽取 字典特征提取 sklearn.feature_extraction.DictVectorizer 文本特征提取 sklearn.feature_extraction.tex... -
sklearn错误
2019-04-16 16:51:001、No module named 'sklearn.cross_validation' sklearn.cross_validation会报错,关键在于新版本的sklearn没有cross_validation模块 有该模块时都转变为sklearn.model_selection 2、No module named 'sklearn... -
Sklearn安装
2017-11-22 08:42:12安装sklearn -
sklearn下载
2020-06-02 10:48:45下载sklearn时出现: 解决办法: pip install sklearn -i http://pypi.douban.com/simple/ --trusted-host pypi.douban.com -
sklearn KNeighborsRegressor
2018-12-29 18:24:54import pandas as pd import numpy as np import matplotlib.pyplot...from sklearn.neighbors import KNeighborsRegressor df = pd.read_csv("data/cs-training.csv") 将名字都改为 snake_case def ca... -
python安装sklearn下载位置_python安装sklearn2pmml和jpmml-sklearn
2020-12-23 20:48:041、安装或更新sklearn:pip install -U scikit-learn2、安装sklearn-pandas:pip install sklearn-pandas3、安装sklearn2pmml:pipinstall --user --upgrade git+https://github.com/jpmml/sklearn2... -
Sklearn中的CV与KFold详解
2018-01-31 17:35:42关于交叉验证,我在之前的文章中已经进行了简单的介绍,而现在我们则通过几个更加详尽的例子.详细的介绍 CV %matplotlib inline import numpy as np from sklearn.model_selection ...from sklearn import s... -
sklearn练习
2018-06-26 20:18:59from sklearn import metrics from sklearn import datasets from sklearn.model_selection import KFold from sklearn.naive_bayes import GaussianNB from sklearn.svm import SVC from sk... -
sklearn初探(一):sklearn安装
2020-04-26 23:04:21sklearn初探(一):sklearn安装 安装最新版本 Scikit-learn 要求: Python (>= 3.5), NumPy (>= 1.11.0), SciPy (>= 0.17.0), joblib (>= 0.11). Scikit-learn绘图功能(即,函数以“plot_”开头,需要... -
sklearn 命令行安装_sklearn 安装说明
2020-12-28 19:08:50klearn 安装说明第一步:进入root用户:cen@localhost ~]$ su root密码:000000第二步:安装sklearn输入命令:pip install sklearn(base) [root@localhost cen]# pip install sklearnCollecting sklearnCollecting ... -
sklearn pipeline
2018-09-25 17:15:36众所周知,有很多数据转换步骤需要按照正确的步骤执行,sklearn提供了Pipeline类来处理这种顺序的操作步骤 from sklearn.pipeline import Pipeline from sklearn.preprocessing import StandardScaler num_pipeline ... -
Sklearn——Sklearn的介绍与安装
2020-03-29 10:15:32文章目录1.Sklearn简介2.Sklean安装2.1.pip安装2.2.conda安装 1.Sklearn简介 Scikit learn 也简称 sklearn, 是机器学习领域当中最知名的 python 模块之一. Sklearn 包含了很多种机器学习的方式: Classification 分类... -
sklearn classification
2018-08-04 16:10:41from sklearn.model_selection import cross_val_score from sklearn.feature_extraction.text import CountVectorizer, TfidfTransformer from sklearn.ensemble import RandomForestClassi... -
sklearn01
2018-11-12 16:17:00sklearn.cross_validation import train_test_split的cross_validation模块在0.18版本中被弃用,现在已经被model_selection代替。from sklearn.model_selection import train_test_split from sklearn.lda... -
sklearn版本
2019-06-08 18:57:0010.19.0以前的sklearn版本才有cross_validation包,这个时候不要用model_selection导入StratifiedKFold,要用cross_validation,0.20.0换成了别的, from sklearn.cross_validation import StratifiedKFold 转载于...
-
hbase开发依赖包.zip
-
【数据分析-随到随学】数据可视化
-
国家注册渗透测试工程师(Web安全)
-
Linux下安装mysql-5.7.24
-
2000套各行各业年度工作总结报告PPT模板
-
解决已利用pip安装plotly库但运行仍显示ImportError: No module named ‘plotly‘方法(附带模拟掷骰子代码)
-
FFmpeg4.3黄金系列课程:c++版
-
FANUC机器人有关动作速度倍率的相关系统变量-解释说明.docx
-
现代文到文言文翻译器
-
跟我练内测小分队学习礼包
-
Ajax的实现步骤,post与get方法应用案例
-
Qt登录注册与数据库操作.zip
-
Cocos Creator游戏开发-连连看 (接入腾讯优量汇广告)
-
MySQL5.7版本
-
hadoop自动化运维工具Ambari应用实践
-
基于X210的裸机时钟温度显示器-第3/3季
-
thinkphp5.1博客后台实战视频
-
RationalDMIS 2020 重要参数设置
-
(新)备战2021软考系统集成基础知识套餐
-
循环结构(1)do...while while循环