-
2021-10-14 14:58:54
相关性过滤
K方过滤
- 针对离散型标签(即分类问题)的相关性过滤
- feature_selection.chi2~非负特征和标签之间的卡方统计量,并以此从高到低为特征排名。
- feature_selection.SelectKBest~来选出前K个分数最高的特征的类
- 除去最可能独立于标签的特征
- 如果卡方检验检测到某个特征中所有的值都相同,会提示我们使用方差先进行方差过滤。
- 使用threshold=中位数时完成的方差过滤的数据来做卡方检验(反而差了当然是用原数据,比如K=300结果差了说明要保留的特征增加应该调大K值,如果怎么调都不行果断放弃。)
from sklearn.ensemble import RandomForestClassifier as RFC from sklearn.model_selection import cross_val_score from sklearn.feature_selection import chi2 from sklearn.feature_selection import SelectKBest
#假设在这里我一直我需要300个特征 X_fschi = SelectKBest(chi2, k=300).fit_transform(X_fsvar, y) #X_fsvar见上一篇文章 #(依赖的统计量,选前k个特征高的,特征数量) X_fschi.shape
(42000,300)
cross_val_score(RFC(n_estimators=10,random_state=0),X_fschi,y,cv=5).mean() #随机森林5折交叉验证的均值结果
0.9344761904761905
选取超参数K
画学习曲线,K越大越好,数据中所有的特征都是与标签相关的。但是运行这条曲线的时间同样也是非常地长。实际操作也不推荐。
%matplotlib inline import matplotlib.pyplot as plt score = [] for i in range(390,200,-10): X_fschi = SelectKBest(chi2, k=i).fit_transform(X_fsvar, y) once = cross_val_score(RFC(n_estimators=10,random_state=0),X_fschi,y,cv=5).mean() score.append(once) plt.plot(range(350,200,-10),score) plt.show()
一种更好的选择k的方法:看p值选择k
检验的原假设是”两组数据是相互独立的”。卡方检验返回卡方值和P值两个统计量,其中卡方值很难界定有效的范围,而p值,我们一般使用0.01或0.05作为显著性水平,即p值判断的边界。
<0.05相关,>0.05就是独立。chivalue, pvalues_chi = chi2(X_fsvar,y)#k方值,p值 chivalue #392 too #k取多少?我们想要消除所有p值大于设定值,比如0.05或0.01的特征: k = chivalue.shape[0] - (pvalues_chi > 0.05).sum() k#392 - 0
392
为了快可以牺牲一点模型的表现F检验
捕捉每个特征与标签之间的线性关系的过滤方法
有两个类:- feature_selection.f_classif(F检验分类)
- feature_selection.f_regression(F检验回归)
- 正态分布下效果非常稳定
- F检验,其原假设是”数据不存在显著的线性关系“。它返回F值和p值两个统计量。和卡方过滤一样,我们希望选取p值小于0.05或0.01的特征,这些特征与标签时显著线性相关的。
#非常类似 from sklearn.feature_selection import f_classif F, pvalues_f = f_classif(X_fsvar,y) F pvalues_f k = F.shape[0] - (pvalues_f > 0.05).sum() k
互信息法
有两类:
-
feature_selection.mutual_info_classif(互信息分类)
-
feature_selection.mutual_info_regression(互信息回归)
-
捕捉每个特征与标签之间的任意关系,返回“每个特征与目标之间的互信息量的估计”
-
估计量在[0,1]之间取值,为0则表示两个变量独立,为1则表示两个变量完全相关。
from sklearn.feature_selection import mutual_info_classif as MIC result = MIC(X_fsvar,y) result k = result.shape[0] - sum(result <= 0) k
更多相关内容 -
特征选择—相关性过滤
2021-04-11 07:17:39相关性过滤: 根据方差过部分滤完特征后(并不是说方差很大的数据就一定有用),就要考虑相关性了。使用相关性过滤后筛选出与标签相关且有意义的特征。 卡方过滤: 作用:专门针对离散型标签,即分类问题的相关性...相关性过滤:
根据方差过部分滤完特征后(并不是说方差很大的数据就一定有用),就要考虑相关性了。使用相关性过滤后筛选出与标签相关且有意义的特征。
卡方过滤:
作用:专门针对离散型标签,即分类问题的相关性过滤。
大致流程:计算每个非负特征和标签之间的卡方统计量,并且按照卡方统计量由高到低为特征排名,选出前k个分数最高的特征# feature_selection.chi2:计算每个非负特征和标签之间的卡方统计量,标签按照该统计量由高到低为特征排名 # feature_selection.SelectKBest:根据输入的评分标准选出k个特征 from sklearn.ensemble import RandomForestClassifier as RFC from sklearn.model_selection import cross_val_score from sklearn.feature_selection SelectKBest from sklearn.feature_selection import chi2 xFChi = SelectKBest(chi2,k=300).fit_transform(xFVar,y)
选取超参数k:
方法一:绘制学习曲线,缺点计算慢score = [] for i in range(780,200,-10): item = SelectKBest(chi2,k=i).fit_transform(dataX,dataY) # 筛选特征 item_rfc = cross_val_score(RFC(n_estimators=10,random_state=0),item,dataY,cv=2).mean() score.append(item_rfc) plt.plot(range(780,200,-10),score) plt.show()
方法二:看P值
缺点:可能会去除掉一些重要特征
卡方检验的本质是推测两组数据之间的差异,其检验的原假设是“两组数据相互独立”,卡方检验返回卡方值和P值两个统计量,其中卡方值难界定有效范围。而p值,一般使用0.01或0.05作为显著性水平,即p值判断的边界。
从特征工程的角度,希望选取卡方值很大,p值小于0.05的特征,即和标签相关联的特征
chiVal,pVal=chi2(x_fvar,y) chiVal # 卡方值 pVal # p值 #消除p值>设定值,如0.01或者0.05的特征 k = chiVal.shape[0] - (pVal>0.05).sum()
F检验
作用:F检验又称ANOVA,用来捕捉每个特征与标签之间的线性关系的过滤方法,feature_selection.f_classif用于离散型变量,feature_selection.f_regression用于处理连续型变量
大致流程:寻找两组数据之间的线性关系,其原假设是“数据不存在显著的线性关系”,返回f值和p值。选取p值小于0.05或者0.01的特征,这些特征与标签是显著相关的。
注意:F检验在数据服从正态分布是效果非常稳定,因此可先将数据转换成服从服从正态分布的数据from sklearn.feature_selection import f_classif F,pVal = f_classif(x_fvar,y) F pVal k = F.shape[0] - (pVal > 0.05).sum()
互信息法:
互信息法是用来捕捉每个特征与标签之间的任意关系(包括线性和非线性关系)的过滤方法。和F检验相似,它既可以做回归也可以做分类,并且包含两个类feature_selection.mutual_info_classif(互信息分类)和feature_selection.mutual_info_regression(互信息回归)。
这两个类的用法和参数都和F检验一模一样,不过互信息法比F检验更加强大,F检验只能够找出线性关系,而互信息法可以找出任意关系。
互信息法不返回p值或F值类似的统计量,它返回“每个特征与目标之间的互信息量的估计”,这个估计量在[0,1]之间取值,为0则表示两个变量独立,为1则表示两个变量完全相关。以互信息分类为例的代码如下:from sklearn.feature_selection import mutual_info_classif as MIC result = MIC(X_fsvar,y) k = result.shape[0] - sum(result <= 0) #X_fsmic = SelectKBest(MIC, k=填写具体的k).fit_transform(X_fsvar, y) #cross_val_score(RFC(n_estimators=10,random_state=0),X_fsmic,y,cv=5).mean()
-
【机器学习】【特征选择】3.相关性过滤
2020-09-01 21:37:48相关性过滤 方差挑选完毕之后,我们就要考虑下一个问题:相关性了 希望选出与标签相关且有意义的特征 三种常用的方法来评判特征与标签之间的相关性:卡方,F检验,互信息。 卡方过滤 专门针对离散型标签(即分类问题...相关性过滤
方差挑选完毕之后,我们就要考虑下一个问题:相关性了
希望选出与标签相关且有意义的特征
三种常用的方法来评判特征与标签之间的相关性:卡方,F检验,互信息。
卡方过滤
专门针对离散型标签(即分类问题)的相关性过滤
卡方检验类feature_selection.chi2计算每个非负特征和标签之间的卡方统计量,并依照卡方统计量由高到低为特征排名
可以标准化后再做
再结合feature_selection.SelectKBest 这个可以输入**”评分标准“来选出前K个分数最高**的特征的类,
我们可以借此除去最可能独立于标签,与分类目的无关的特征。
如果卡方检验检测到某个特征中所有的值都相同,会提示我们使用方差先进行方差过滤
from sklearn.ensemble import RandomForestClassifier as RFC from sklearn.model_selection import cross_val_score from sklearn.feature_selection import SelectKBest from sklearn.feature_selection import chi2 #假设在这里我一直我需要300个特征 X_fschi = SelectKBest(chi2, k=300).fit_transform(X_fsvar, y) #SelectKBest(所依赖的统计量, k=选择前K个特征数量) #X_fsvar中位数方差过滤过的了的数据 X_fschi.shape cross_val_score(RFC(n_estimators=10,random_state=0),X_fschi,y,cv=5).mean() #交叉验证后求均值 ————————————————————————————————————————————————————————————————————————————————————————————————————— 0.933309866 #比方差过滤要坏
模型的效果降低了,这说明我们在设定k=300的时候删除了与模型相关且有效的特征,K值设置得太小
如果模型的表现提升,则说明我们的相关性过滤是有效的,是过滤掉了模型的噪音的
更好的选择k的方 法:看p值选择k
卡方检验的本质是推测两组数据之间的差异,其检验的原假设是”两组数据是相互独立的”
卡方检验返回卡方值和 P值两个统计量,其中卡方值很难界定有效的范围,而p值一般使用0.01或0.05作为显著性水平
从特征工程的角度,我们希望选取卡方值很大,p值小于0.05的特征,即和标签是相关联的特征。
而调用 SelectKBest之前,我们可以直接从chi2实例化后的模型中获得各个特征所对应的卡方值和P值。
chivalue, pvalues_chi = chi2(X_fsvar,y) #chi2实例化后的模型中获得各个特征所对应的卡方值和P值。 chivalue pvalues_chi #k取多少?我们想要消除所有p值大于设定值,比如0.05或0.01的特征: k = chivalue.shape[0] - (pvalues_chi > 0.05).sum() #特征总个数-大于设定P值 k = (pvalues_chi <= 0.05).sum()应该也可以 #X_fschi = SelectKBest(chi2, k=填写具体的k).fit_transform(X_fsvar, y) #cross_val_score(RFC(n_estimators=10,random_state=0),X_fschi,y,cv=5).mean()
F检验
F检验,又称ANOVA,方差齐性检验,是用来捕捉每个特征与标签之间的线性关系的过滤方法
它即可以做回归也可以做分类。
包含**feature_selection.f_classif(F检验分类)和feature_selection.f_regression(F检验回归)**两个类
中F检验分类用于标签是离散型变量的数据,而F检验回归用于标签是连续型变量的数据。
两个类需要和类SelectKBest连用
F检验在数据服从正态分布时效果会非常稳定
F检验的本质是寻找两组数据之间的线性关系,其原假设是”数据不存在显著的线性关系“
我们希望选取p值小于0.05或0.01的特征,这些特征与标签时显著线性相关的,
而p值大于 0.05或0.01的特征则被我们认为是和标签没有显著线性关系的特征,应该被删除
from sklearn.feature_selection import f_classif F, pvalues_f = f_classif(X_fsvar,y) F#和卡方值类似 pvalues_f k = F.shape[0] - (pvalues_f > 0.05).sum() k #X_fsF = SelectKBest(f_classif, k=填写具体的k).fit_transform(X_fsvar, y) #cross_val_score(RFC(n_estimators=10,random_state=0),X_fsF,y,cv=5).mean()
互信息法
互信息法是用来捕捉每个特征与标签之间的任意关系(包括线性和非线性关系)的过滤方法
可以做回归也可以做分类,
并且包含两个类**feature_selection.mutual_info_classif(互信息分类)**和 feature_selection.mutual_info_regression(互信息回归)。
它返回“每个特征与目标之间的互信息量的估计”,这个估计量在**[0,1]之间** 取值,为0则表示两个变量独立,为1则表示两个变量完全相关。
from sklearn.feature_selection import mutual_info_classif as MIC result = MIC(X_fsvar,y) k = result.shape[0] - sum(result <= 0) #X_fsmic = SelectKBest(MIC, k=填写具体的k).fit_transform(X_fsvar, y) #cross_val_score(RFC(n_estimators=10,random_state=0),X_fsmic,y,cv=5).mean()
统计量的方法会更加高效
方差——>互信息法
from sklearn.feature_selection import mutual_info_classif as MIC result = MIC(X_fsvar,y) k = result.shape[0] - sum(result <= 0) #X_fsmic = SelectKBest(MIC, k=填写具体的k).fit_transform(X_fsvar, y) #cross_val_score(RFC(n_estimators=10,random_state=0),X_fsmic,y,cv=5).mean()
统计量的方法会更加高效
方差——>互信息法
-
sklearn中的数据预处理和特征工程(八)特征选择 之 Filter过滤法(二) 相关性过滤
2020-11-29 01:00:35相关性过滤方差挑选完毕之后,我们就要考虑下一个问题:相关性了。我们希望选出与标签相关且有意义的特征,因为这样的特征能够为我们提供大量信息。如果特征与标签无关,那只会白白浪费我们的计算内存,可能还会给...相关性过滤
方差挑选完毕之后,我们就要考虑下一个问题:相关性了。
我们希望选出与标签相关且有意义的特征,因为这样的特征能够为我们提供大量信息。如果特征与标签无关,那只会白白浪费我们的计算内存,可能还会给模型带来噪
音。在sklearn当中,我们有三种常用的方法来评判特征与标签之间的相关性:卡方,F检验,互信息。
3 卡方过滤
卡方过滤是专门针对离散型标签(即分类问题)的相关性过滤。卡方检验类feature_selection.chi2计算每个非负特征和标签之间的卡方统计量,并依照卡方统计量由高到低为特征排名。再结合feature_selection.SelectKBest这个可以输入”评分标准“来选出前K个分数最高的特征的类,我们可以借此除去最可能独立于标签,与我们分类目的无关的特征。
另外,如果卡方检验检测到某个特征中所有的值都相同,会提示我们使用方差先进行方差过滤。并且,刚才我们已经验证过,当我们使用方差过滤筛选掉一半的特征后,模型的表现时提升的。因此在这里,我们使用threshold=中位数时完成的方差过滤的数据来做卡方检验(如果方差过滤后模型的表现反而降低了,那我们就不会使用方差过滤后的数据,而是使用原数据):
from sklearn.ensemble importRandomForestClassifier as RFCfrom sklearn.model_selection importcross_val_scorefrom sklearn.feature_selection importSelectKBestfrom sklearn.feature_selection importchi2#假设在这里我一直我需要300个特征
X_fschi = SelectKBest(chi2, k=300).fit_transform(X_fsvar, y)
X_fschi.shape
#验证一下模型的效果如何
cross_val_score(RFC(n_estimators=10,random_state=0),X_fschi,y,cv=5).mean()
可以看出,模型的效果降低了,这说明我们在设定k=300的时候删除了与模型相关且有效的特征,我们的K值设置得太小,要么我们需要调整K值,要么我们必须放弃相关性过滤
。当然,如果模型的表现提升,则说明我们的相关性过滤是有效的,是过滤掉了模型的噪音的,这时候我们就保留相关性过滤的结果。
2 选取超参数K
那如何设置一个最佳的K值呢?在现实数据中,数据量很大,模型很复杂的时候,我们也许不能先去跑一遍模型看
看效果,而是希望最开始就能够选择一个最优的超参数k。那第一个方法,就是我们之前提过的学习曲线:
#======【TIME WARNING: 5 mins】======#
%matplotlib inlineimportmatplotlib.pyplot as plt
score=[]for i in range(390,200,-10):
X_fschi= SelectKBest(chi2, k=i).fit_transform(X_fsvar, y)
once= cross_val_score(RFC(n_estimators=10,random_state=0),X_fschi,y,cv=5).mean()
score.append(once)
plt.plot(range(350,200,-10),score)
plt.show()
通过这条曲线,我们可以观察到,随着K值的不断增加,模型的表现不断上升,这说明,K越大越好,数据中所有的特征都是与标签相关的。但是运行这条曲线的时间同样也是非常地长,接下来我们就来介绍一种更好的选择k的方法:看p值选择k。
卡方检验的本质是推测两组数据之间的差异,其检验的原假设是”两组数据是相互独立的”。卡方检验返回卡方值和P值两个统计量,其中卡方值很难界定有效的范围,而p值,我们一般使用0.01或0.05作为显著性水平,即p值判断的边界,具体我们可以这样来看:
从特征工程的角度,我们希望选取卡方值很大,p值小于0.05的特征,即和标签是相关联的特征。而调用SelectKBest之前,我们可以直接从chi2实例化后的模型中获得各个特征所对应的卡方值和P值。
chivalue, pvalues_chi =chi2(X_fsvar,y)
chivalue
pvalues_chi#k取多少?我们想要消除所有p值大于设定值,比如0.05或0.01的特征:
k = chivalue.shape[0] - (pvalues_chi > 0.05).sum()#X_fschi = SelectKBest(chi2, k=填写具体的k).fit_transform(X_fsvar, y)#cross_val_score(RFC(n_estimators=10,random_state=0),X_fschi,y,cv=5).mean()
可以观察到,所有特征的p值都是0,这说明对于digit recognizor这个数据集来说,方差验证已经把所有和标签无关的特征都剔除了,或者这个数据集本身就不含与标签无关的特征。
在这种情况下,舍弃任何一个特征,都会舍弃对模型有用的信息,而使模型表现下降,因此在我们对计算速度感到满意时,我们不需要使用相关性过滤来过滤我们的数据。如果我们认为运算速度太缓慢,那我们可以酌情删除一些特征,但前提是,我们必须牺牲模型的表现。接下来,我们试试看用其他的相关性过滤方法验证一下我们在这个数据集上的结论。
3 F检验
F检验,又称ANOVA,方差齐性检验,是用来捕捉每个特征与标签之间的线性关系的过滤方法。它即可以做回归也可以做分类,因此包含feature_selection.f_classif(F检验分类)和feature_selection.f_regression(F检验回归)两个类。其中F检验分类用于标签是离散型变量的数据,而F检验回归用于标签是连续型变量的数据。
和卡方检验一样,这两个类需要和类SelectKBest连用,并且我们也可以直接通过输出的统计量来判断我们到底要设置一个什么样的K。需要注意的是,F检验在数据服从正态分布时效果会非常稳定,因此如果使用F检验过滤,我们会先将数据转换成服从正态分布的方式。
F检验的本质是寻找两组数据之间的线性关系,其原假设是”数据不存在显著的线性关系“。它返回F值和p值两个统计量。和卡方过滤一样,我们希望选取p值小于0.05或0.01的特征,这些特征与标签时显著线性相关的,而p值大于0.05或0.01的特征则被我们认为是和标签没有显著线性关系的特征,应该被删除。以F检验的分类为例,我们继续在数字数据集上来进行特征选择:
from sklearn.feature_selection importf_classif
F, pvalues_f=f_classif(X_fsvar,y)
F
pvalues_f
k= F.shape[0] - (pvalues_f > 0.05).sum()#X_fsF = SelectKBest(f_classif, k=填写具体的k).fit_transform(X_fsvar, y)#cross_val_score(RFC(n_estimators=10,random_state=0),X_fsF,y,cv=5).mean()
得到的结论和我们用卡方过滤得到的结论一模一样:没有任何特征的p值大于0.01,所有的特征都是和标签相关的,因此我们不需要相关性过滤。
4 互信息法
互信息法是用来捕捉每个特征与标签之间的任意关系(包括线性和非线性关系)的过滤方法。和F检验相似,它既可以做回归也可以做分类,并且包含两个类feature_selection.mutual_info_classif(互信息分类)和feature_selection.mutual_info_regression(互信息回归)。这两个类的用法和参数都和F检验一模一样,不过
互信息法比F检验更加强大,F检验只能够找出线性关系,而互信息法可以找出任意关系。
互信息法不返回p值或F值类似的统计量,它返回“每个特征与目标之间的互信息量的估计”,这个估计量在[0,1]之间取值,为0则表示两个变量独立,为1则表示两个变量完全相关。以互信息分类为例的代码如下:
from sklearn.feature_selection importmutual_info_classif as MIC
result=MIC(X_fsvar,y)
k= result.shape[0] - sum(result <=0)#X_fsmic = SelectKBest(MIC, k=填写具体的k).fit_transform(X_fsvar, y)#cross_val_score(RFC(n_estimators=10,random_state=0),X_fsmic,y,cv=5).mean()
所有特征的互信息量估计都大于0,因此所有特征都与标签相关。
当然了,无论是F检验还是互信息法,大家也都可以使用学习曲线,只是使用统计量的方法会更加高效。当统计量判断已经没有特征可以删除时,无论用学习曲线如何跑,删除特征都只会降低模型的表现。当然了,如果数据量太庞大,模型太复杂,我们还是可以牺牲模型表现来提升模型速度,一切都看大家的具体需求。
-
数据预处理-相关性过滤(卡方过滤)
2019-09-25 11:47:25方差挑选完毕之后,我们就要考虑下一个问题:相关性了。我们希望选出与标签相关且有意义的特征,因为这样的特征能够为我们提供大量信息。如果特征与标签无关,那只会白白浪费我们的计算内存,可能还会给模型带来噪音... -
sklearn中的数据预处理和特征工程----【4】相关性过滤
2021-06-11 16:48:28文章目录卡方过滤F检验互信息法过滤法总结 寻找与标签有相关性的特征。 卡方过滤 专门针对离散型标签(分类问题)相关过滤 类 feature_selection.chi2 计算每个非负(不能计算负数,要进行归一化或者标准化)特征... -
数据预处理-相关性过滤(F检验和互信息法)
2019-09-25 12:17:37F检验,又称ANOVA,方差齐性检验,是用来捕捉每个特征与标签之间的线性关系的过滤方法。它即可以做回归也可以做分类,因此包含feature_selection.f_classif(F检验分类) 和 feature_selection.f_regression(F检验... -
特征选择-Filter过滤法后续(相关,互信息法)
2020-12-01 14:20:373.1.2 相关性过滤方差挑选完毕之后,我们就要考虑下一个问题:相关性了。我们希望选出与标签相关且有意义的特征,因为这样的特征能够为我们提供大量信息。如果特征与标签无关,那只会白白浪费我们的计算内存,可能还... -
论文研究-考虑负相关性信息的协同过滤算法研究.pdf
2019-07-22 23:41:52为了研究Pearson负相关性信息对协同过滤算法的影响, 提出了一种考虑负相关性信息的协同过滤算法。该算法选取正相关用户作为最近邻居, 负相关用户作为最远邻居, 使用参数调节最近邻居和最远邻居在推荐过程中的作用。... -
通过空间相关性的图像过滤器:一种新颖的去噪过滤器,它使用颜色之间的空间相关性度量。-matlab开发
2021-05-30 15:05:28基于图像过滤算法的核心概念是颜色之间空间相关性的度量:如果两种颜色在图像中最常出现在附近,则我们说这两种颜色在空间上相关,相对于其他颜色对。 在离散情况下,这种空间相关性的度量由邻接矩阵表示,该矩阵... -
基于用户评分差异性和相关性的协同过滤推荐算法.pdf
2021-08-22 21:16:59基于用户评分差异性和相关性的协同过滤推荐算法.pdf -
基于改进项目相关性度量的协同过滤推荐算法.pdf
2021-08-22 21:26:16基于改进项目相关性度量的协同过滤推荐算法.pdf