-
2022-04-11 09:34:50
modelnet40_normal_resampled
链接:https://pan.baidu.com/s/1xX9shGGBQzR_sdP_ss_zwQ
提取码:lgjw更多相关内容 -
Python sklearn 实现过采样和欠采样
2021-02-03 04:05:05resampled_smote).items()) Out[29]: [(0, 4674), (1, 4674), (2, 4674)] X_resampled_adasyn, y_resampled_adasyn = ADASYN().fit_sample(X, y) sorted(Counter(y_resampled_adasyn).items()) Out[30]: [(0, 4674),...Imblearn package study
准备知识
1 Compressed Sparse RowsCSR 压缩稀疏的行
过采样Over-sampling
1 实用性的例子
11 朴素随机过采样
12 从随机过采样到SMOTE与ADASYN
13 SMOTE的变体
14 数学公式
下采样Under-sampling
1 原型生成prototype generation
2 原型选择prototype selection
21 Controlled under-sampling techniques
22 Cleaning under-sampling techniques
221 Tomeks links
222 Edited data set using nearest neighbours
223 Condensed nearest neighbors and derived algorithms
224 Instance hardness threshold
过采样与下采样的结合
Ensemble的例子
1 例子
2 Chaining ensemble of samplers and estimators
数据载入
1 不平衡数据集
2 生成不平衡数据
参考资料
Imblearn package study
1. 准备知识
Sparse input
For sparse input the data is converted to the Compressed Sparse Rows representation (see scipy.sparse.csr_matrix) before being fed to the sampler. To avoid unnecessary memory copies, it is recommended to choose the CSR representation upstream.
1.1 Compressed Sparse Rows(CSR) 压缩稀疏的行
稀疏矩阵中存在许多0元素, 按矩阵A进行存储会占用很大的空间(内存).
CSR方法采取按行压缩的办法, 将原始的矩阵用三个数组进行表示:
data = np.array([1, 2, 3, 4, 5, 6])
indices = np.array([0, 2, 2, 0, 1, 2])
indptr = np.array([0, 2, 3, 6])
data数组: 存储着矩阵A中所有的非零元素;
indices数组: data数组中的元素在矩阵A中的列索引
indptr数组: 存储着矩阵A中每行第一个非零元素在data数组中的索引.
from scipy import sparse
mtx = sparse.csr_matrix((data,indices,indptr),shape=(3,3))
mtx.todense()
Out[27]:
matrix([[1, 0, 2],
[0, 0, 3],
[4, 5, 6]])
为什么会有针对不平衡数据的研究? 当我们的样本数据中, 正负样本的数据占比极其不均衡的时候, 模型的效果就会偏向于多数类的结果. 具体的可参照官网利用支持向量机进行可视化不同正负样本比例情况下的模型分类结果.
2. 过采样(Over-sampling)
2.1 实用性的例子
2.1.1 朴素随机过采样
针对不平衡数据, 最简单的一种方法就是生成少数类的样本, 这其中最基本的一种方法就是: 从少数类的样本中进行随机采样来增加新的样本, RandomOverSampler 函数就能实现上述的功能.
from sklearn.datasets import make_classification
from collections import Counter
X, y = make_classification(n_samples=5000, n_features=2, n_informative=2,
n_redundant=0, n_repeated=0, n_classes=3,
n_clusters_per_class=1,
weights=[0.01, 0.05, 0.94],
class_sep=0.8, random_state=0)
Counter(y)
Out[10]: Counter({0: 64, 1: 262, 2: 4674})
from imblearn.over_sampling import RandomOverSampler
ros = RandomOverSampler(random_state=0)
X_resampled, y_resampled = ros.fit_sample(X, y)
sorted(Counter(y_resampled).items())
Out[13]:
[(0, 4674), (1, 4674), (2, 4674)]
以上就是通过简单的随机采样少数类的样本, 使得每类样本的比例为1:1:1.
2.1.2 从随机过采样到SMOTE与ADASYN
相对于采样随机的方法进行过采样, 还有两种比较流行的采样少数类的方法: (i) Synthetic Minority Oversampling Technique (SMOTE); (ii) Adaptive Synthetic (ADASYN) .
SMOTE: 对于少数类样本a, 随机选择一个最近邻的样本b, 然后从a与b的连线上随机选取一个点c作为新的少数类样本;
ADASYN: 关注的是在那些基于K最近邻分类器被错误分类的原始样本附近生成新的少数类样本
from imblearn.over_sampling import SMOTE, ADASYN
X_resampled_smote, y_resampled_smote = SMOTE().fit_sample(X, y)
sorted(Counter(y_resampled_smote).items())
Out[29]:
[(0, 4674), (1, 4674), (2, 4674)]
X_resampled_adasyn, y_resampled_adasyn = ADASYN().fit_sample(X, y)
sorted(Counter(y_resampled_adasyn).items())
Out[30]:
[(0, 4674), (1, 4674), (2, 4674)]
2.1.3 SMOTE的变体
相对于基本的SMOTE算法, 关注的是所有的少数类样本, 这些情况可能会导致产生次优的决策函数, 因此SMOTE就产生了一些变体: 这些方法关注在最优化决策函数边界的一些少数类样本, 然后在最近邻类的相反方向生成样本.
SMOTE函数中的kind参数控制了选择哪种变体, (i) borderline1, (ii) borderline2, (iii) svm:
from imblearn.over_sampling import SMOTE, ADASYN
X_resampled, y_resampled = SMOTE(kind='borderline1').fit_sample(X, y)
print sorted(Counter(y_resampled).items())
Out[31]:
[(0, 4674), (1, 4674), (2, 4674)]
2.1.4 数学公式
SMOTE算法与ADASYN都是基于同样的算法来合成新的少数类样本: 对于少数类样本a, 从它的最近邻中选择一个样本b, 然后在两点的连线上随机生成一个新的少数类样本, 不同的是对于少数类样本的选择.
原始的SMOTE: kind='regular' , 随机选取少数类的样本.
The borderline SMOTE: kind='borderline1' or kind='borderline2'
此时, 少数类的样本分为三类: (i) 噪音样本(noise), 该少数类的所有最近邻样本都来自于不同于样本a的其他类别; (ii) 危险样本(in danger), 至少一半的最近邻样本来自于同一类(不同于a的类别); (iii) 安全样本(safe), 所有的最近邻样本都来自于同一个类.
这两种类型的SMOTE使用的是危险样本来生成新的样本数据, 对于 Borderline-1 SMOTE, 最近邻中的随机样本b与该少数类样本a来自于不同的类; 不同的是, 对于 Borderline-2 SMOTE , 随机样本b可以是属于任何一个类的样本;
SVM SMOTE: kind='svm', 使用支持向量机分类器产生支持向量然后再生成新的少数类样本.
3. 下采样(Under-sampling)
3.1 原型生成(prototype generation)
给定数据集S, 原型生成算法将生成一个子集S’, 其中|S’| < |S|, 但是子集并非来自于原始数据集. 意思就是说: 原型生成方法将减少数据集的样本数量, 剩下的样本是由原始数据集生成的, 而不是直接来源于原始数据集.
ClusterCentroids函数实现了上述功能: 每一个类别的样本都会用K-Means算法的中心点来进行合成, 而不是随机从原始样本进行抽取.
from imblearn.under_sampling import ClusterCentroids
cc = ClusterCentroids(random_state=0)
X_resampled, y_resampled = cc.fit_sample(X, y)
print sorted(Counter(y_resampled).items())
Out[32]:
[(0, 64), (1, 64), (2, 64)]
ClusterCentroids函数提供了一种很高效的方法来减少样本的数量, 但需要注意的是, 该方法要求原始数据集最好能聚类成簇. 此外, 中心点的数量应该设置好, 这样下采样的簇能很好地代表原始数据.
3.2 原型选择(prototype selection)
与原型生成不同的是, 原型选择算法是直接从原始数据集中进行抽取. 抽取的方法大概可以分为两类: (i) 可控的下采样技术(the controlled under-sampling techniques) ; (ii) the cleaning under-sampling techniques(不好翻译, 就放原文, 清洗的下采样技术?). 第一类的方法可以由用户指定下采样抽取的子集中样本的数量; 第二类方法则不接受这种用户的干预.
3.2.1 Controlled under-sampling techniques
RandomUnderSampler函数是一种快速并十分简单的方式来平衡各个类别的数据: 随机选取数据的子集.
from imblearn.under_sampling import RandomUnderSampler
rus = RandomUnderSampler(random_state=0)
X_resampled, y_resampled = rus.fit_sample(X, y)
print sorted(Counter(y_resampled).items())
Out[33]:
[(0, 64), (1, 64), (2, 64)]
通过设置RandomUnderSampler中的replacement=True参数, 可以实现自助法(boostrap)抽样.
import numpy as np
np.vstack({tuple(row) for row in X_resampled}).shape
Out[34]:
(192L, 2L)
很明显, 使用默认参数的时候, 采用的是不重复采样;
from imblearn.under_sampling import RandomUnderSampler
rus = RandomUnderSampler(random_state=0, replacement=True)
X_resampled, y_resampled = rus.fit_sample(X, y)
print sorted(Counter(y_resampled).items())
Out[33]:
[(0, 64), (1, 64), (2, 64)]
np.vstack({tuple(row) for row in X_resampled}).shape
Out[34]:
(181L, 2L)
NearMiss函数则添加了一些启发式(heuristic)的规则来选择样本, 通过设定version参数来实现三种启发式的规则.
from imblearn.under_sampling import NearMiss
nm1 = NearMiss(random_state=0, version=1)
X_resampled_nm1, y_resampled = nm1.fit_sample(X, y)
print sorted(Counter(y_resampled).items())
Out[35]:
[(0, 64), (1, 64), (2, 64)]
下面通过一个例子来说明这三个启发式的选择样本的规则, 首先我们假设正样本是需要下采样的(多数类样本), 负样本是少数类的样本.
NearMiss-1: 选择离N个近邻的负样本的平均距离最小的正样本;
NearMiss-2: 选择离N个负样本最远的平均距离最小的正样本;
NearMiss-3: 是一个两段式的算法. 首先, 对于每一个负样本, 保留它们的M个近邻样本; 接着, 那些到N个近邻样本平均距离最大的正样本将被选择.
3.2.2 Cleaning under-sampling techniques
3.2.2.1 Tomek’s links
TomekLinks : 样本x与样本y来自于不同的类别, 满足以下条件, 它们之间被称之为TomekLinks; 不存在另外一个样本z, 使得d(x,z) < d(x,y) 或者 d(y,z) < d(x,y)成立. 其中d(.)表示两个样本之间的距离, 也就是说两个样本之间互为近邻关系. 这个时候, 样本x或样本y很有可能是噪声数据, 或者两个样本在边界的位置附近.
TomekLinks函数中的auto参数控制Tomek’s links中的哪些样本被剔除. 默认的ratio='auto' 移除多数类的样本, 当ratio='all'时, 两个样本均被移除.
3.2.2.2 Edited data set using nearest neighbours
EditedNearestNeighbours这种方法应用最近邻算法来编辑(edit)数据集, 找出那些与邻居不太友好的样本然后移除. 对于每一个要进行下采样的样本, 那些不满足一些准则的样本将会被移除; 他们的绝大多数(kind_sel='mode')或者全部(kind_sel='all')的近邻样本都属于同一个类, 这些样本会被保留在数据集中.
print sorted(Counter(y).items())
from imblearn.under_sampling import EditedNearestNeighbours
enn = EditedNearestNeighbours(random_state=0)
X_resampled, y_resampled = enn.fit_sample(X, y)
print sorted(Counter(y_resampled).items())
Out[36]:
[(0, 64), (1, 262), (2, 4674)]
[(0, 64), (1, 213), (2, 4568)]
在此基础上, 延伸出了RepeatedEditedNearestNeighbours算法, 重复基础的EditedNearestNeighbours算法多次.
from imblearn.under_sampling import RepeatedEditedNearestNeighbours
renn = RepeatedEditedNearestNeighbours(random_state=0)
X_resampled, y_resampled = renn.fit_sample(X, y)
print sorted(Counter(y_resampled).items())
Out[37]:
[(0, 64), (1, 208), (2, 4551)]
与RepeatedEditedNearestNeighbours算法不同的是, ALLKNN算法在进行每次迭代的时候, 最近邻的数量都在增加.
from imblearn.under_sampling import AllKNN
allknn = AllKNN(random_state=0)
X_resampled, y_resampled = allknn.fit_sample(X, y)
print sorted(Counter(y_resampled).items())
Out[38]:
[(0, 64), (1, 220), (2, 4601)]
3.2.2.3 Condensed nearest neighbors and derived algorithms
CondensedNearestNeighbour 使用1近邻的方法来进行迭代, 来判断一个样本是应该保留还是剔除, 具体的实现步骤如下:
集合C: 所有的少数类样本;
选择一个多数类样本(需要下采样)加入集合C, 其他的这类样本放入集合S;
使用集合S训练一个1-NN的分类器, 对集合S中的样本进行分类;
将集合S中错分的样本加入集合C;
重复上述过程, 直到没有样本再加入到集合C.
from imblearn.under_sampling import CondensedNearestNeighbour
cnn = CondensedNearestNeighbour(random_state=0)
X_resampled, y_resampled = cnn.fit_sample(X, y)
print sorted(Counter(y_resampled).items())
Out[39]:
[(0, 64), (1, 24), (2, 115)]
显然, CondensedNearestNeighbour方法对噪音数据是很敏感的, 也容易加入噪音数据到集合C中.
因此, OneSidedSelection 函数使用 TomekLinks 方法来剔除噪声数据(多数类样本).
from imblearn.under_sampling import OneSidedSelection
oss = OneSidedSelection(random_state=0)
X_resampled, y_resampled = oss.fit_sample(X, y)
print(sorted(Counter(y_resampled).items()))
Out[39]:
[(0, 64), (1, 174), (2, 4403)]
NeighbourhoodCleaningRule 算法主要关注如何清洗数据而不是筛选(considering)他们. 因此, 该算法将使用
EditedNearestNeighbours和 3-NN分类器结果拒绝的样本之间的并集.
from imblearn.under_sampling import NeighbourhoodCleaningRule
ncr = NeighbourhoodCleaningRule(random_state=0)
X_resampled, y_resampled = ncr.fit_sample(X, y)
print sorted(Counter(y_resampled).items())
Out[39]:
[(0, 64), (1, 234), (2, 4666)]
3.2.2.4 Instance hardness threshold
InstanceHardnessThreshold是一种很特殊的方法, 是在数据上运用一种分类器, 然后将概率低于阈值的样本剔除掉.
from sklearn.linear_model import LogisticRegression
from imblearn.under_sampling import InstanceHardnessThreshold
iht = InstanceHardnessThreshold(random_state=0,
estimator=LogisticRegression())
X_resampled, y_resampled = iht.fit_sample(X, y)
print(sorted(Counter(y_resampled).items()))
Out[39]:
[(0, 64), (1, 64), (2, 64)]
4. 过采样与下采样的结合
在之前的SMOTE方法中, 当由边界的样本与其他样本进行过采样差值时, 很容易生成一些噪音数据. 因此, 在过采样之后需要对样本进行清洗. 这样, 第三节中涉及到的TomekLink 与 EditedNearestNeighbours方法就能实现上述的要求. 所以就有了两种结合过采样与下采样的方法: (i) SMOTETomek and (ii) SMOTEENN.
from imblearn.combine import SMOTEENN
smote_enn = SMOTEENN(random_state=0)
X_resampled, y_resampled = smote_enn.fit_sample(X, y)
print sorted(Counter(y_resampled).items())
Out[40]:
[(0, 4060), (1, 4381), (2, 3502)]
from imblearn.combine import SMOTETomek
smote_tomek = SMOTETomek(random_state=0)
X_resampled, y_resampled = smote_tomek.fit_sample(X, y)
print sorted(Counter(y_resampled).items())
Out[40]:
[(0, 4499), (1, 4566), (2, 4413)]
5. Ensemble的例子
5.1 例子
一个不均衡的数据集能够通过多个均衡的子集来实现均衡, imblearn.ensemble模块能实现上述功能.
EasyEnsemble 通过对原始的数据集进行随机下采样实现对数据集进行集成.
from imblearn.ensemble import EasyEnsemble
ee = EasyEnsemble(random_state=0, n_subsets=10)
X_resampled, y_resampled = ee.fit_sample(X, y)
print X_resampled.shape
print sorted(Counter(y_resampled[0]).items())
Out[40]:
(10L, 192L, 2L)
[(0, 64), (1, 64), (2, 64)]
EasyEnsemble 有两个很重要的参数: (i) n_subsets 控制的是子集的个数 and (ii) replacement 决定是有放回还是无放回的随机采样.
与上述方法不同的是, BalanceCascade(级联平衡)的方法通过使用分类器(estimator参数)来确保那些被错分类的样本在下一次进行子集选取的时候也能被采样到. 同样, n_max_subset 参数控制子集的个数, 以及可以通过设置bootstrap=True来使用bootstraping(自助法).
from imblearn.ensemble import BalanceCascade
from sklearn.linear_model import LogisticRegression
bc = BalanceCascade(random_state=0,
estimator=LogisticRegression(random_state=0),
n_max_subset=4)
X_resampled, y_resampled = bc.fit_sample(X, y)
print X_resampled.shape
print sorted(Counter(y_resampled[0]).items())
Out[41]:
(4L, 192L, 2L)
[(0, 64), (1, 64), (2, 64)]
5.2 Chaining ensemble of samplers and estimators
在集成分类器中, 装袋方法(Bagging)在不同的随机选取的数据集上建立了多个估计量. 在scikit-learn中这个分类器叫做BaggingClassifier. 然而, 该分类器并不允许对每个数据集进行均衡. 因此, 在对不均衡样本进行训练的时候, 分类器其实是有偏的, 偏向于多数类.
from sklearn.model_selection import train_test_split
from sklearn.metrics import confusion_matrix
from sklearn.ensemble import BaggingClassifier
from sklearn.tree import DecisionTreeClassifier
X_train, X_test, y_train, y_test = train_test_split(X, y, random_state=0)
bc = BaggingClassifier(base_estimator=DecisionTreeClassifier(),
random_state=0)
bc.fit(X_train, y_train)
y_pred = bc.predict(X_test)
confusion_matrix(y_test, y_pred)
Out[35]:
array([[ 0, 0, 12],
[ 0, 0, 59],
[ 0, 0, 1179]], dtype=int64)
BalancedBaggingClassifier 允许在训练每个基学习器之前对每个子集进行重抽样. 简而言之, 该方法结合了EasyEnsemble采样器与分类器(如BaggingClassifier)的结果.
from imblearn.ensemble import BalancedBaggingClassifier
bbc = BalancedBaggingClassifier(base_estimator=DecisionTreeClassifier(),
ratio='auto',
replacement=False,
random_state=0)
bbc.fit(X, y)
y_pred = bbc.predict(X_test)
confusion_matrix(y_test, y_pred)
Out[39]:
array([[ 12, 0, 0],
[ 0, 55, 4],
[ 68, 53, 1058]], dtype=int64)
6. 数据载入
imblearn.datasets 包与sklearn.datasets 包形成了很好的互补. 该包主要有以下两个功能: (i)提供一系列的不平衡数据集来实现测试; (ii) 提供一种工具将原始的平衡数据转换为不平衡数据.
6.1 不平衡数据集
fetch_datasets 允许获取27个不均衡且二值化的数据集.
from collections import Counter
from imblearn.datasets import fetch_datasets
ecoli = fetch_datasets()['ecoli']
ecoli.data.shape
print sorted(Counter(ecoli.target).items())
Out[40]:
[(-1, 301), (1, 35)]
6.2 生成不平衡数据
make_imbalance 方法可以使得原始的数据集变为不平衡的数据集, 主要是通过ratio参数进行控制.
from sklearn.datasets import load_iris
from imblearn.datasets import make_imbalance
iris = load_iris()
ratio = {0: 20, 1: 30, 2: 40}
X_imb, y_imb = make_imbalance(iris.data, iris.target, ratio=ratio)
sorted(Counter(y_imb).items())
Out[37]:
[(0, 20), (1, 30), (2, 40)]
#当类别不指定时, 所有的数据集均导入
ratio = {0: 10}
X_imb, y_imb = make_imbalance(iris.data, iris.target, ratio=ratio)
sorted(Counter(y_imb).items())
Out[38]:
[(0, 10), (1, 50), (2, 50)]
#同样亦可以传入自定义的比例函数
def ratio_multiplier(y):
multiplier = {0: 0.5, 1: 0.7, 2: 0.95}
target_stats = Counter(y)
for key, value in target_stats.items():
target_stats[key] = int(value * multiplier[key])
return target_stats
X_imb, y_imb = make_imbalance(iris.data, iris.target,
ratio=ratio_multiplier)
sorted(Counter(y_imb).items())
Out[39]:
[(0, 25), (1, 35), (2, 47)]
以上就是在研究不平衡(不均衡)数据时所查询的一些资料, 内容更多的是来自于Imblearn包的官方用户手册, 主要涉及一些下采样、过采样的方法与技术.
-
Python处理不平衡数据
2021-01-29 17:45:02所谓的不平衡数据集指的是数据集各个类别的样本量极不均衡。...本文主要介绍从数据角度出发的不平衡数据集的处理方法以及对应的python库(imblearn)。1.过采样从少数类的样本中进行随机采样来增加...所谓的不平衡数据集指的是数据集各个类别的样本量极不均衡。以二分类问题为例,假设正类的样本数量远大于负类的样本数量,通常情况下通常情况下把多数类样本的比例接近100:1这种情况下的数据称为不平衡数据。不平衡数据的学习即需要在分布不均匀的数据集中学习到有用的信息。
本文主要介绍从数据角度出发的不平衡数据集的处理方法以及对应的python库(imblearn)。
1.过采样
从少数类的样本中进行随机采样来增加新的样本,对应Python库中函数为RandomOverSampler:
from imblearn.over_sampling import RandomOverSampler
ROS = RandomOverSampler(random_state=0)
X_resampled, y_resampled = ROS.fit_sample(X, y)
2.欠采样
与过采样相反,欠采样是从多数类样本中随机选择少量样本,再合并原有少数类样本作为新的训练数据集。
随机欠采样有两种类型分别为有放回和无放回两种,无放回欠采样在对多数类某样本被采样后不会再被重复采样,有放回采样则有可能。
对应Python库中函数为RandomUnderSampler,通过设置RandomUnderSampler中的replacement=True参数, 可以实现自助法(boostrap)抽样。
from imblearn.under_sampling import RandomUnderSampler
RUS = RandomUnderSampler(random_state=0)
X_resampled, y_resampled = RUS.fit_sample(X, y)
3.SMOTE采样
SMOTE算法的基本思想是对少数类样本进行分析并根据少数类样本人工合成新样本添加到数据集中,具体下图所示,算法流程如下:
1、对于少数类中每一个样本x,计算该点与少数类中其他样本点的距离,得到最近的k个近邻(即对少数类点进行KNN算法)。
2、根据样本不平衡比例设置一个采样比例以确定采样倍率,对于每一个少数类样本x,从其k近邻中随机选择若干个样本,假设选择的近邻为x'。
3、对于每一个随机选出的近邻x',分别与原样本按照如下的公式构建新的样本:
xnew=x+rand(0,1) ∗ (x′−x)
但是SMOTE算法缺点也十分明显:一方面是增加了类之间重叠的可能性(由于对每个少数类样本都生成新样本,因此容易发生生成样本重叠(Overlapping)的问题),
另一方面是生成一些没有提供有益信息的样本
对应Python库中函数为SMOTE:
from imblearn.over_sampling import SMOTE
X_resampled_smote, y_resampled_smote = SMOTE().fit_sample(X, y)
-
python处理样本类别分布不均衡
2021-03-07 18:49:36model_smote = SMOTE() # 建立SMOTE模型对象 x_smote_resampled, y_smote_resampled = model_smote.fit_sample(x, y) # 输入数据并作过抽样处理 x_smote_resampled = pd.DataFrame(x_smote_resampled, columns=['col...如果是分类问题,不同的分类,样本量差距过大会影响到建模结果,建模的时候,不同分类样本量相差不要过大 ,
-
过采样 把少的数据 通过重复的处理,变多
-
欠采样 把多的分类取出一部分 把样本数量变少
imblearn 通过pip install 需要注意,不能有缺失值。如果有缺失值,会出现报错
import pandas as pd from imblearn.over_sampling import SMOTE # 过抽样处理库SMOTE from imblearn.under_sampling import RandomUnderSampler # 欠抽样处理库RandomUnderSampler # 导入数据文件 df = pd.read_table('data2.txt', sep='\t', names=['col1', 'col2', 'col3', 'col4', 'col5', 'label']) # 读取数据文件 x, y = df.iloc[:, :-1],df.iloc[:, -1] # 切片,得到输入x,标签y groupby_data_orgianl = df.groupby('label').count() # 对label做分类汇总 print(groupby_data_orgianl) # 打印输出原始数据集样本分类分布 ''' col1 col2 col3 col4 col5 label 0 475 475 475 475 475 1 525 525 525 525 525 '''
使用SMOTE方法进行过抽样处理
# 使用SMOTE方法进行过抽样处理 model_smote = SMOTE() # 建立SMOTE模型对象 x_smote_resampled, y_smote_resampled = model_smote.fit_sample(x, y) # 输入数据并作过抽样处理 x_smote_resampled = pd.DataFrame(x_smote_resampled, columns=['col1', 'col2', 'col3', 'col4', 'col5']) # 将数据转换为数据框并命名列名 y_smote_resampled = pd.DataFrame(y_smote_resampled, columns=['label']) # 将数据转换为数据框并命名列名 smote_resampled = pd.concat([x_smote_resampled, y_smote_resampled], axis=1) # 按列合并数据框 groupby_data_smote = smote_resampled.groupby('label').count() # 对label做分类汇总 print(groupby_data_smote) # 打印输出经过SMOTE处理后的数据集样本分类分布 ''' col1 col2 col3 col4 col5 label 0 525 525 525 525 525 1 525 525 525 525 525 '''
使用RandomUnderSampler方法进行欠抽样处理
# 使用RandomUnderSampler方法进行欠抽样处理 model_RandomUnderSampler = RandomUnderSampler() # 建立RandomUnderSampler模型对象 x_RandomUnderSampler_resampled, y_RandomUnderSampler_resampled = model_RandomUnderSampler.fit_sample( x, y) # 输入数据并作欠抽样处理 x_RandomUnderSampler_resampled = pd.DataFrame(x_RandomUnderSampler_resampled, columns=['col1', 'col2', 'col3', 'col4', 'col5']) # 将数据转换为数据框并命名列名 y_RandomUnderSampler_resampled = pd.DataFrame(y_RandomUnderSampler_resampled, columns=['label']) # 将数据转换为数据框并命名列名 RandomUnderSampler_resampled = pd.concat( [x_RandomUnderSampler_resampled, y_RandomUnderSampler_resampled], axis=1) # 按列合并数据框 groupby_data_RandomUnderSampler = RandomUnderSampler_resampled.groupby( 'label').count() # 对label做分类汇总 print(groupby_data_RandomUnderSampler) # 打印输出经过RandomUnderSampler处理后的数据集样本分类分布 ''' col1 col2 col3 col4 col5 label 0 475 475 475 475 475 1 475 475 475 475 475 '''
-
-
Python中 实现过采样和下采样
2019-02-12 15:22:23X_resampled_adasyn, y_resampled_adasyn = ADASYN().fit_sample(X, y) sorted(Counter(y_resampled_adasyn).items()) Out[ 30 ]: [ (0, 4674), (1, 4674), (2, 4674) ] 2.1.3 SMOTE 的变体 相对于基本的 ... -
Python imblearn 解决 类别不平衡问题
2019-11-12 13:05:46SMOTE算法是用的比较多的一种上采样算法,SMOTE算法的原理并不是太复杂,用python从头实现也只有几十行代码,但是python的imblearn包提供了更方便的接口,在需要快速实现代码的时候可直接调用imblearn。... -
python – 对numpy中的大型3D图像进行下采样
2020-11-25 23:39:30fy=scale, interpolation=cv2.INTER_AREA) resampled_zs.append(z_slice_resized) # Or save to disk to save RAM and use np.memmap for xz scaling temp_arr = np.dstack(resampled_zs) # We seem to be in yxz ... -
python量化交易第二章
2022-02-01 12:39:17使用上,JQData适用Windows、Mac、Linux多种操作系统,支持python2、python3和以及任意编程语言。 2.2安装使用JQData (1)安装jqdatasdk包 (2)登录JQData: from jqdatasdk import * auth('ID','Password') #ID... -
Python查找函数定义
2021-04-12 09:07:20This can lead to aliasing artifacts when the image is resampled because the displayed image size will usually not match the size of *X* (see :doc:`/gallery/images_contours_and_fields/image_anti... -
Python 对不均衡数据进行Over sample(重抽样)
2021-04-27 06:24:08resampled = vstack([X_resampled,X[y == key],X[y == key][indx]]) print np.shape(y_resampled),np.shape(y[y == key]),np.shape(y[y == key][indx]) y_resampled = list(y_resampled)+list(y[y == key])+list(y[y... -
案例:基于逻辑回归、随机森林、Bagging概率投票组合模型的异常检测(python_028)
2020-12-08 04:51:18异常检测的应用场景,分为两种情况:(1)异常订单的分析。包括异常订单的主要特征、品类集中度、...本文的案例来自宋天龙老师的《python数据分析与数据化运营》第6章。主要学习技术包括:基本预处理:使用DictVector... -
Python不平衡数据处理库imblearn安装和使用
2022-05-05 11:27:09一般直接pip安装即可,安装不成功可能是因为 没有安装imblearn需要的Python模块,对应安装即可 pip install -U imbalanced-learn imblearn中的过采样方法:Over-sampling methods — Version 0.9.0 (imbalanced-... -
不平衡数据采样方法介绍以及python实现(imblearn包)
2022-04-14 11:05:23不平衡数据采样方法介绍以及python实现——imblearn包 -
手把手教你用python实现机器学习预测疾病
2021-05-28 11:47:15CNN层分类用于皮肤癌检测 让我们从导入库开始 import numpy as np from skimage import io import matplotlib.pyplot as plt 现在,我将简单地上传图像,以使用python中的skimage库来训练我们的机器学习模型。... -
Borderline-SMOTE算法介绍及Python实现【内附源代码】
2021-12-29 19:04:59机器学习之Borderline-SMOTE算法介绍及Python实现,内附源代码鸭!~ -
python中读取栅格数据_使用rasterio处理python中的地理空间栅格数据
2020-09-01 12:20:54python中读取栅格数据This article is meant to provide a quick introduction into how to use the Python package Rasterio for common tasks related to geospatial raster data. This is mainly a collection of... -
python中如何进行信号处理?
2021-03-05 19:50:32python中scipy库可以用于科学计算,其中它的不同子模块相应于不同的应用。例如像scipy.signal模块就是信号处理工具,即使用scipy.signal.detrend()移除信号的线性趋势,scipy.signal.resample()使用FFT重采样n个点。... -
科学网—[转载]python抽样方法详解及实现 - 张书会的博文
2021-02-03 08:25:06from imblearn.under_sampling import TomekLinks nm1 = TomekLinks(sampling_strategy='all',random_state=0) X_resampled_nm1, y_resampled = nm1.fit_sample(X, y) print(sorted(Counter(y_resampled).... -
处理医疗影像的Python利器:PyDicom
2020-11-24 12:05:02Pydicom是一个用于处理DICOM格式文件的Python包,可以处理包括如医学图像(CT等)、报告等。Pydicom支持DICOM格式的读取:可以将dicom文件读入python结构,同时支持修改后的数据集可以再次写入DICOM格式文件。但需要... -
python中resample函数实现重采样和降采样
2019-04-11 15:32:52函数原型 resample(self, rule, how=None, axis=0, fill_method=None, closed=None, label=None, convention=‘start’, kind=None, loffset=None, limit=None, base=0, on=None, level=None) 比较关键的是rule,... -
Python地理数据处理 十三:栅格数据处理(一)
2021-03-10 12:59:39columns = in_band.XSize * 2 # 创建输出数据集 gtiff_driver = gdal.GetDriverByName('GTiff') out_ds = gtiff_driver.Create('band1_resampled.tif', out_columns, out_rows) # 编辑地理变换 # 像素变为原来的 1/4... -
python数据预处理 :样本分布不均的解决(过采样和欠采样)
2020-12-03 19:00:29from imblearn.over_sampling import RandomOverSampler ros = RandomOverSampler(random_state=0) X_resampled, y_resampled = ros.fit_sample(X, y) sorted(Counter(y_resampled).items()) # [(0, 2532), (1, 2532... -
python imblearn 处理样本不平衡,svm验证
2020-07-22 18:18:022.python处理 2.1 生成数据集 from collections import Counter from sklearn.datasets import make_classification x,y = make_classification(n_samples=100000,n_features=10,n_informative=2,n_redundant=2, n_... -
Python-如何将具有相同时间戳但不同日期的值按小时分组
2021-07-16 14:42:592017-03-31 22:00:00 7 2017-03-31 23:00:00 2 The date is a datetimeIndex y resampled all values in intervals of one hour. What I need is to be able to group by hour all rows, what i mean is to group ... -
python中的.nc文件处理 | 05 NetCDF数据的进一步分析
2021-02-10 05:06:15String in the ‘#offset’ to specify the step-size along the resampled dimension ‘AS’: year start ‘QS-DEC’: quarterly, starting on December 1 ‘MS’: month start ‘D’: day ‘H’: hour ‘Min’: ... -
python有关数据预处理的库
2020-12-06 13:26:384、imblearn.over_sampling #SMOTE过采样 from imblearn.over_sampling import SMOTE, ADASYN X_resampled, y_resampled = SMOTE().fit_resample(X, y) print(sorted(Counter(y_resampled).items())) SMOTE: 对于... -
algotrade中文版python可交易国内股票 开源框架 python 量化利器
2020-12-10 08:01:17cn-master/ pyalgotrade-cn-master/.gitignore pyalgotrade-cn-master/.travis.yml pyalgotrade-cn-master/CHANGELOG pyalgotrade-cn-master/Desktop.ini pyalgotrade-cn-master/LICENSE.txt pyalgotrade-cn-master/MANIFEST.in pyalgotrade-cn-master/README pyalgotrade-cn-master/README.md pyalgotrade-cn-master/build_sdist.sh pyalgotrade-cn-master/cleanup.sh pyalgotrade-cn-master/coverage.cfg pyalgotrade-cn-master/dataframefeed/ pyalgotrade-cn-master/dataframefeed/000004.csv pyalgotrade-cn-master/dataframefeed/200019.csv pyalgotrade-cn-master/dataframefeed/README.txt pyalgotrade-cn-master/dataframefeed/constant.py pyalgotrade-cn-master/dataframefeed/data.py pyalgotrade-cn-master/dataframefeed/data_sql.py pyalgotrade-cn-master/dataframefeed/pyalg_2.py pyalgotrade-cn-master/dataframefeed/pyalg_test.py pyalgotrade-cn-master/dataframefeed/pyalg_utils.py pyalgotrade-cn-master/dataframefeed/utils/ pyalgotrade-cn-master/dataframefeed/utils/__init__.py pyalgotrade-cn-master/dataframefeed/utils/dataFrameBarfeed.py pyalgotrade-cn-master/dataframefeed/utils/dataFramefeed.py pyalgotrade-cn-master/doc/ pyalgotrade-cn-master/doc/Makefile pyalgotrade-cn-master/doc/_templates/ pyalgotrade-cn-master/doc/_templates/layout.html pyalgotrade-cn-master/doc/bar.rst pyalgotrade-cn-master/doc/barfeed.rst pyalgotrade-cn-master/doc/bitcoin.rst pyalgotrade-cn-master/doc/bitcoincharts.rst pyalgotrade-cn-master/doc/bitcoincharts_example.rst pyalgotrade-cn-master/doc/bitcoincharts_ref.rst pyalgotrade-cn-master/doc/bitstamp.rst pyalgotrade-cn-master/doc/bitstamp_example.rst pyalgotrade-cn-master/doc/bitstamp_ref.rst pyalgotrade-cn-master/doc/broker.rst pyalgotrade-cn-master/doc/code.rst pyalgotrade-cn-master/doc/compinvpart1.rst pyalgotrade-cn-master/doc/conf.py pyalgotrade-cn-master/doc/dataseries.rst pyalgotrade-cn-master/doc/eventprofiler.rst pyalgotrade-cn-master/doc/feed.rst pyalgotrade-cn-master/doc/images/ pyalgotrade-cn-master/doc/images/execution_running_1.png pyalgotrade-cn-master/doc/images/queue_execution.png pyalgotrade-cn-master/doc/index.rst pyalgotrade-cn-master/doc/intro.rst pyalgotrade-cn-master/doc/marketsession.rst pyalgotrade-cn-master/doc/optimizer.rst pyalgotrade-cn-master/doc/plotter.rst pyalgotrade-cn-master/doc/sample_bbands.rst pyalgotrade-cn-master/doc/sample_market_timing.rst pyalgotrade-cn-master/doc/sample_quandl.rst pyalgotrade-cn-master/doc/sample_rsi2.rst pyalgotrade-cn-master/doc/sample_sma_crossover.rst pyalgotrade-cn-master/doc/sample_statarb_erniechan.rst pyalgotrade-cn-master/doc/sample_vwap_momentum.rst pyalgotrade-cn-master/doc/samples.rst pyalgotrade-cn-master/doc/stratanalyzer.rst pyalgotrade-cn-master/doc/strategy.rst pyalgotrade-cn-master/doc/talib.rst pyalgotrade-cn-master/doc/technical.rst pyalgotrade-cn-master/doc/tools.rst pyalgotrade-cn-master/doc/tutorial.rst pyalgotrade-cn-master/doc/twitter.rst pyalgotrade-cn-master/doc/twitter_example.rst pyalgotrade-cn-master/doc/twitter_ref.rst pyalgotrade-cn-master/doc/xignite.rst pyalgotrade-cn-master/doc/xignite_example.rst pyalgotrade-cn-master/doc/xignite_ref.rst pyalgotrade-cn-master/gadget/ pyalgotrade-cn-master/gadget/pg2pg.py pyalgotrade-cn-master/histdata/ pyalgotrade-cn-master/histdata/day/ pyalgotrade-cn-master/histdata/day/000001SZ.csv pyalgotrade-cn-master/histdata/min/ pyalgotrade-cn-master/histdata/min/000001SZ.csv pyalgotrade-cn-master/pyalgotrade/ pyalgotrade-cn-master/pyalgotrade/__init__.py pyalgotrade-cn-master/pyalgotrade/bar.py pyalgotrade-cn-master/pyalgotrade/barfeed/ pyalgotrade-cn-master/pyalgotrade/barfeed/__init__.py pyalgotrade-cn-master/pyalgotrade/barfeed/common.py pyalgotrade-cn-master/pyalgotrade/barfeed/csvfeed.py pyalgotrade-cn-master/pyalgotrade/barfeed/dbfeed.py pyalgotrade-cn-master/pyalgotrade/barfeed/googlefeed.py pyalgotrade-cn-master/pyalgotrade/barfeed/membf.py pyalgotrade-cn-master/pyalgotrade/barfeed/ninjatraderfeed.py pyalgotrade-cn-master/pyalgotrade/barfeed/quandlfeed.py pyalgotrade-cn-master/pyalgotrade/barfeed/resampled.py pyalgotrade-cn-master/pyalgotrade/barfeed/sqlitefeed.py pyalgotrade-cn-master/pyalgotrade/barfeed/yahoofeed.py pyalgotrade-cn-master/pyalgotrade/bitcoincharts/ pyalgotrade-cn-master/pyalgotrade/bitcoincharts/__init__.py pyalgotrade-cn-master/pyalgotrade/bitcoincharts/barfeed.py pyalgotrade-cn-master/pyalgotrade/bitstamp/ pyalgotrade-cn-master/pyalgotrade/bitstamp/__init__.py pyalgotrade-cn-master/pyalgotrade/bitstamp/barfeed.py pyalgotrade-cn-master/pyalgotrade/bitstamp/broker.py pyalgotrade-cn-master/pyalgotrade/bitstamp/common.py pyalgotrade-cn-master/pyalgotrade/bitstamp/httpclient.py pyalgotrade-cn-master/pyalgotrade/bitstamp/livebroker.py pyalgotrade-cn-master/pyalgotrade/bitstamp/livefeed.py pyalgotrade-cn-master/pyalgotrade/bitstamp/wsclient.py pyalgotrade-cn-master/pyalgotrade/broker/ pyalgotrade-cn-master/pyalgotrade/broker/__init__.py pyalgotrade-cn-master/pyalgotrade/broker/backtesting.py pyalgotrade-cn-master/pyalgotrade/broker/fillstrategy.py pyalgotrade-cn-master/pyalgotrade/broker/slippage.py pyalgotrade-cn-master/pyalgotrade/dataseries/ pyalgotrade-cn-master/pyalgotrade/dataseries/__init__