-
2019-11-09 09:37:33
实现
from sklearn.datasets import load_iris from sklearn.model_selection import train_test_split from sklearn.preprocessing import StandardScaler from sklearn.neighbors import KNeighborsClassifier # 加载数据 iris = load_iris() # 分割数据为训练集合测试集 x_train, x_test, y_train, y_test = train_test_split(iris.data, iris.target, test_size=0.25) # 特征工程(标准化) std = StandardScaler() x_train = std.fit_transform(x_train) x_test = std.transform(x_test) knn = KNeighborsClassifier(n_neighbors=5) knn.fit(x_train, y_train) y_predict = knn.predict(x_test) print("预测的目标分类为: ", y_predict) print("准确率:", knn.score(x_test, y_test))
更多相关内容 -
Python机器学习k-近邻算法(K Nearest Neighbor)实例详解
2020-09-20 08:01:48主要介绍了Python机器学习k-近邻算法(K Nearest Neighbor),结合实例形式分析了k-近邻算法的原理、操作步骤、相关实现与使用技巧,需要的朋友可以参考下 -
Python:k近邻算法实例
2019-05-17 00:28:47def classify0(inX, dataSet, labels, k): #numpy函数shape[0]返回dataSet的行数 dataSetSize = dataSet.shape[0] #在列向量方向上重复inX共1次(横向),行向量方向上重复inX共dataSetSize次(纵向) #Numpy的 tile...原始数据(训练集)如下:
#导入模块numpy并以np作为别名 import numpy as np #def定义函数,Python 使用def 开始函数定义,紧接着是函数名,括号内部为函数的参数, #内部为函数的 具体功能实现代码,如果想要函数有返回值, #在 expressions 中的逻辑代码中用return 返回。 def createDataSet(): #四组二维特征 group = np.array([[1,101],[5,89],[108,5],[115,8]]) #四组特征的标签 labels = ['爱情片','爱情片','动作片','动作片'] return group, labels #if __name__ == '__main__':表示组合前边函数,if __name__=="__main__": 语句之前和之后的 #代码都被执行两个等号,两个下划线组成一个下划线,_和__不一样 if __name__ == '__main__': #创建数据集 group, labels = createDataSet() #打印数据集 print(group) print(labels)
#导入operator模块,下文的operator.itemgetter()要用到 import operator def classify0(inX, dataSet, labels, k): #numpy函数shape[0]返回dataSet的行数 dataSetSize = dataSet.shape[0] #在列向量方向上重复inX共1次(横向),行向量方向上重复inX共dataSetSize次(纵向) #Numpy的 tile() 函数,就是将原矩阵横向、纵向地复制。tile 是瓷砖的意思, #顾名思义,这个函数就是把数组像瓷砖一样铺展开来。 diffMat = np.tile(inX, (dataSetSize, 1)) - dataSet #二维特征相减后平方 sqDiffMat = diffMat**2 #sum()所有元素相加,sum(0)列相加,sum(1)行相加 sqDistances = sqDiffMat.sum(axis=1) #开方,计算出距离 distances = sqDistances**0.5 #返回distances中元素从小到大排序后的索引值 sortedDistIndices = distances.argsort() #定一个记录类别次数的字典 classCount = {} for i in range(k): #取出前k个元素的类别 voteIlabel = labels[sortedDistIndices[i]] #dict.get(key,default=None),字典的get()方法,返回指定键的值,如果值不在字典中返回默认值。 #计算类别次数 classCount[voteIlabel] = classCount.get(voteIlabel,0) + 1 #python3中用items()替换python2中的iteritems() #key=operator.itemgetter(1)根据字典的值进行排序 #key=operator.itemgetter(0)根据字典的键进行排序 #reverse降序排序字典 #sortedClassCount输出结果是:“分类名称,次数” sortedClassCount = sorted(classCount.items(),key=operator.itemgetter(1),reverse=True) #返回次数最多的类别,即所要分类的类别 #sortedClassCount[0][0]表示返回第一个数组的第一个分类名称 return sortedClassCount[0][0] if __name__ == '__main__': #创建数据集 group, labels = createDataSet() #测试集 test = [101,20] #kNN分类 test_class = classify0(test, group, labels, 3) #打印分类结果 print(test_class)
代码注释:
①Numpy的 tile() 函数,就是将原矩阵横向、纵向地复制。tile 是瓷砖的意思,顾名思义,这个函数就是把数组像瓷砖一样铺展开来。
横向铺展:
纵向铺展:
②def 的使用
3.argsort()函数使用
先将[6,-1,7,2,8]按由小到大排序,分别为[-1,2,6,7,8], -1在数组mat中的位置是1;2 在数组mat中的位置是3,依次得到0,2,4。
我们发现argsort()函数是将mat中的元素从小到大排列,提取其对应的index(索引),然后输出到y
4 对于labels[sortedDistIndices[i]]这行代码,解释如下
sortedDistIndices等同于序号3中的‘y’, i从0开始取值...,sortedDistIndices[]会输出如下:
labels[]会输出如下:
5.词典中get()函数使用
6.循环语句 for i in range(k)
7.Python 字典(Dictionary) items() 函数以列表返回可遍历的(键, 值) 元组数组。
8. sorted()函数
9. sortedClassCount[0][0]的关于[0][0]解释
-
机器学习——K-近邻算法实例实战
2021-10-05 11:05:51一、使用k近邻算法改进约会网站的配对效果 1.1 实例分析 我的朋友海伦一直使用在线约会网站寻找适合自己的约会对象。尽管约会网站会推荐不同的 人选,但她没有从中找到喜欢的人。经过一番总结,她发现曾交往过三种...目录
实例一:使用k近邻算法改进约会网站的配对效果
1.1 实例分析
我的朋友海伦一直使用在线约会网站寻找适合自己的约会对象。尽管约会网站会推荐不同的
人选,但她没有从中找到喜欢的人。经过一番总结,她发现曾交往过三种类型的人:- 不喜欢的人
- 魅力一般的人
- 极其魅力的人
尽管发现了上述规律,但海伦依然无法将约会网站推荐的匹配对象归入恰当的分类。她觉得可以在周一到周五约会那些魅力一般的人,而周末更喜欢与那些极具魅力的人为伴。海伦希望我们的分类软件可以更好地帮助她将匹配对象划分到确切的分类中。此外海伦还收集了一些约会网站未曾记录的数据信息,她认为这些数据更有助于匹配对象的归类。
1.2 流程步骤
(1) 收集数据:提供文本文件。
(2) 准备数据:使用Python解析文本文件。
(3) 分析数据:使用Matplotlib画二维扩散图。
(4) 训练算法:此步驟不适用于k近邻算法。
(5) 测试算法:使用海伦提供的部分数据作为测试样本。测试样本和非测试样本的区别:测试样本是已经完成分类的数据,如果预测分类与实际类别不同,则标记为一个错误。
(6) 使用算法:产生简单的命令行程序,然后海伦可以输入一些特征数据以判断对方是否为自己喜欢的类型。1.3 准备数据:从文本文件中解析数据
约会数据收集存放在文本文件datingTestSet2.txt中,每个样本数据占据一行,总共有1000行。样本主要包含以下3中特征:
- 每年获得的飞行常客里程数
- 玩视频游戏所耗时间百分比
- 每周消费的冰淇淋公斤数
在将上述特征数据输入到分类器之前,必须将待处理数据的格式改变为分类器可以接受的格式。在kNN.py中创建名为fileMatrix的函数,以此来处理输入格式问题。该函数的输入为文件名字符串,输出为训练样本矩阵和类标签向量。
代码实现:
def fileMatrix(filename): file = open(filename) arrayOLines = file.readlines() numberOfLines = len(arrayOLines) returnMat = zeros((numberOfLines, 3)) classLabelVector = [] index = 0 for line in arrayOLines: line = line.strip() listFromLine = line.split('\t') returnMat[index,:] = listFromLine[0:3] classLabelVector.append(int(listFromLine[-1])) index += 1 return returnMat,classLabelVector
知识总结:
①readlines():用于读取文件中的一行,包含最后的换行符“\n”。方法读取整个文件所有行,保存在一个列表(list)变量中,每行作为一个元素,但读取大文件会比较占内存。
②readline():用于读取文件中的所有行,它和调用不指定 size 参数的 read() 函数类似,该方法每次读出一行内容,所以,读取时占用内存小,比较适合大文件,该方法返回一个字符串对象。
③read():从文件当前位置起读取size个字节,若无参数
size
,则表示读取至文件结束为止,它范围为字符串对象④zeros():返回给定形状和类型的新数组,用0填充;zeros((2,3)),返回两行三列值为0的数组。
⑤strip():方法用于移除字符串头尾指定的字符(默认为空格或换行符)或字符序列。该方法只能删除开头或是结尾的字符,不能删除中间部分的字符。
⑥split() :通过指定分隔符对字符串进行切片,返回分割后的字符串列表。
⑦数组切片:逗号“,”分隔各个维度,“:”表示各个维度内的切片,只有:表示取这个维度的全部值。
一维数组
X[i:j] 表示获取X[i]到X[j-1]
X[:-n]取到最后n个字符
X[-n:]取最后n个字符
X[i:j:k]下标i,j与上面的一样,k表示步长,默认为1
X[::-1]是从最后一个元素到第一个元素反向复制一遍
二维数组
X[:,0] 取所有行的第0个数据,即第二维下标位0的所有数据,第0列(数组从0开始)
X[:,1] 取所有行的第1个数据,即第二维下标位1的所有数据,第1列(数组从0开始)
X[:,1:]第一维全部取,即所有行,列上从第一列开始往后取,不取第0列
X[1,:] 是取第1维中下标为1的元素的所有数据,第1行列全部取
X[:2,1:]第一维取下标2之前的元素,即第2行之前,下标为0和1的两行,列从第一列开始取
1.4 分析数据:用Matplotlib创建散点图
Matplotlib 是 Python 的绘图库,类似 MATLAB 的绘图工具。它可与 NumPy 一起使用,提供了一种有效的 MatLab 开源替代方案, 它也可以和图形工具包一起使用。
代码实现:
def showdatas(datingDatMat, datingLabels, numScatter, xylabel): fig = plt.figure() font = {'family': 'MicroSoft YaHei'} matplotlib.rc("font", **font) ax = fig.add_subplot(111) ax.scatter(datingDatMat[:, numScatter[0]], datingDatMat[:, numScatter[1]], 15.0 * array(datingLabels), 15.0 * array(datingLabels)) ax.set_xlabel(xylabel[1]) ax.set_ylabel(xylabel[2]) plt.title(xylabel[0]) plt.show() datingDatMat, datingLabels = fileMatrix('datingTestSet2.txt') numScatter = array([[0, 1], [0, 2], [1, 2]]) xylabel = array([['每年获得飞行常客里程数与玩视频游戏所消耗占比', '每年获得的飞行常客里程数', '玩视频游戏所消耗时间占'], ['每年获得飞行常客里程数与每周消费的冰激淋公升数', '每年获得的飞行常客里程数', '每周消费的冰激淋公升数'], ['玩视频游戏所消耗时间占比与每周消费的冰激淋公升数', '玩视频游戏所消耗时间占比','每周消费的冰激淋公升数']]) showdatas(datingDatMat, datingLabels, numScatter[0], xylabel[0]) showdatas(datingDatMat, datingLabels, numScatter[1], xylabel[1]) showdatas(datingDatMat, datingLabels, numScatter[2], xylabel[2])
操作过程中遇到的问题是,散点图的标题及横纵坐标中文显示不出来,应该是散点图默认字体不支持显示中文,所以解决办法是自己设置字体MicroSoft YaHei微软雅黑。
散点图展示:
1.5 准备数据:数据归一化
表1 约会网站原始数据改进之后的样本数据 序号 玩视频游戏所耗时间百分比 每年获得的飞行常客里程数 每周消费的冰淇淋公斤数 样本分类 1 0.8 400 0.5 1 2 12 134000 039 3 3 0 20000 1.1 2 4 67 32000 0.1 2 若计算样本1和样本4之间的距离,按照K-近邻算法的工作原理使用如下面的公式:
容易发现,上面方程中数字差值最大的属性对计算结果的影响最大,也就是说,每年获得的飞行常客里程数对于计算结果的影响将远远大于其他两个特征:玩视频游戏所耗时间百分比和每周消费的冰淇淋公斤数的影响。而差生这种现象的唯一原因,仅仅是因为飞行常客里程数远大于其他特征值。但海伦认为这三种特征是同等重要的,因此作为三个等权重的特征之前,飞行常客里程数并不应该如此严重地影响到计算结果。
在处理这种不同取值范围的特征值时,我们通常采用的方法是将数据归一化,如将取值范围处理为0到1或者-1到1之间。这样的再次使用公式计算起来的话,就不会存在个别数值的差非常大的情况。我们可以使用下面的公式将任意取值范围的特征值转化为0到1区间内的值:
newValue = (oldValue-min)/(max-min)
其中min和max分别是数据集中的最小特征值和最大特征值。虽然改变数值取值范围增加了分类器的复杂程度,但为了得到准确结果,我们必须这样做。编写一个autoNorm函数,该函数会自动的将数字特征值转化为0到1的区间。
代码实现:
def autoNorm(dataSet): minVals = dataSet.min(0) maxVals = dataSet.max(0) ranges = maxVals - minVals normDataSet = zeros(shape(dataSet)) m = dataSet.shape[0] normDataSet = dataSet - tile(minVals, (m, 1)) #相减 normDataSet = normDataSet/tile(ranges, (m, 1)) #特征值相除 return normDataSet, ranges, minVals
运行结果:
datingDatMat, datingLabels = fileMatrix('datingTestSet2.txt') normData, ranges, minVals = autoNorm(datingDatMat) print('normData') print(normData) print('ranges') print(ranges) print('minVals') print(minVals)
1.6 测试算法:作为完整程序验证分类器
机器学习算法一个很重要的工作就是评估算法的正确率,通常我们只提供已有数据的90%作为训练样本来训练分类器,而使用其余的10%数据去测试分类器,检测分类器的正确率。10%数据应该是随机选择的。
代码实现:
def datingClassTest(): hoRatio = 0.1 #10%的测试数据 datingDatMat, datingLabels = fileMatrix('datingTestSet2.txt') #从文件读数据 normMat, ranges, minVals = autoNorm(datingDatMat) #数据的归一化 m = normMat.shape[0] numTestVecs = int(m*hoRatio) #测试数据数量 errorCount = 0.0 #错误数量统计 for i in range(numTestVecs): classifierResult = classify(normMat[i, :], normMat[numTestVecs:m, :], datingLabels[numTestVecs:m], 3) print("分类器返回的结果是:%d,真实结果是:%d"%(classifierResult, datingLabels[i])) if(classifierResult != datingLabels[i]): errorCount += 1.0 print('分类器处理约会数据集的错误率是:%f'%(errorCount/float(numTestVecs)))
实验结果:
我们可以从中看到,在1000条数据中将前100条数据分别使用分类器去进行分类,然后与数据的真实类别进行比较,分类器处理约会数据的错误率为:0.05,即错误率是5%,正确率就是95%,已经能够满足要求了。
1.7 使用算法:构建完整可用系统
以上的步骤,我们已经在数据上对分类器进行了测试,现在终于可用使用这个分类器为海伦来对人们分类了。通过构建完整可用系统,给出完整的程序,海伦会在约会网站上找到某个人并输入他的信息,程序会给出她对对方喜欢程度的预测值。
代码实现:
def classifyPerson(): resultList = ['不喜欢的人', '魅力一般的人', '极具魅力的人'] precentTats = float(input('玩视频游戏所耗时间百分比:')) #用户输入三个特征 ffMiles = float(input('每年获得的飞行常客里程数:')) iceCream = float(input('每周消费的冰淇淋公升数:')) datingDatMat, datingLabels = fileMatrix('datingTestSet2.txt') #文件数据读入 normMat, ranges, minVals = autoNorm(datingDatMat) inArr = array([precentTats, ffMiles, iceCream]) #生成测试集 norminArr = (inArr-minVals)/ranges #数据归一化 classifierResult = classify(norminArr, normMat, datingLabels, 5) #分类器分类 print('这个人可能是你%'%(resultList[classifierResult-1]))
实验结果:
1.8 实例一:实验总结
在使用K-近邻算法改进约会网站的配对效果的实例中,我体会到了KNN算法的思想,同时也感觉到了python语言的简便性和强大性,比如对于KNN算法的核心部分代码,计算距离远近,数组dataSet训练样本集可以兼容计算任意维度距离,因为前一次博客简单实现KNN算法,只用了简单的分类电影类型例子,只有两个特征值,即用二维数组计算就好,而约会网站的配对有三个特征值,距离值是三个维度的,还担心之前写的KNN算法不能用,但是经过仔细研究思考后发现,因为python语言的强大性,array()函数,可以创建二维数组,即利用数学矩阵知识,就可以解决问题。
实例二:手写识别系统
2.1 实例分析
使用K-近邻分类器的手写识别系统。简单起见,这里构造的系统只能识别数字0到9。需要识别的数字已经使用图形处理软件,处理成具有相同的色彩和大小:宽高是32像素x32像素的黑白图像。当前使用文本格式存储图像,即使不能有效的利用空间,但是为了方便理解,还是将图像转换成文本格式。
2.2 流程步骤
(1)收集数据:提供文本文件。
(2)处理数据:编写imgVector()函数,将图像格式转换成分类器使用的向量格式。
(3)分析数据:在Python命令提示符中检查数据,确保它符合要求。
(4)训练算法:此步骤不适用于k-近邻算法。
(5)测试算法:编写函数使用提供的部分数据集作为测试样本,对学习算法进行测试。
(6)使用算法:本例没有完成此步骤
2.3 准备数据:将图像转换为测试向量
目录trainingDigits中包含了大约2000个例子,每个数字大约有200个样本;测试文件testDigits中包含了大约900个测试数据。两组数据没有重叠。使用trainingDigits中的数据训练分类器,使用testDigits的数据测试分类器效果。为了使用kNN算法分类器必须将一个32x32的二进制矩阵转换为1x1024的向量,以便我们使用分类器处理数字图像信息。
如下,三幅图是手写数据集的例子:
代码实现:
#定义imgVector()函数,将32*32的二进制矩阵转换成1*1024的矩阵并返回 def imgVector(filename): returnVect = zeros((1, 1024)) file = open(filename) for i in range(32): lineStr = file.readline() for j in range(32): returnVect[0, 32*i+j] = int(lineStr[j]) return returnVect
输出测试:
testVector = imgVector('testDigits/8_13.txt') print(testVector[0, 0:31]) print(testVector[0, 32:63])
2.4 测试算法:使用K-近邻算法识别手写数字
现在这一步,需要构造handWriteClassTest( )函数进行分类器测试。为了处理大量的文本文件我们需要from os import listdir用于列出指定目录的文件名,读取多个数字文本文件。
代码实现:
#K-近邻算法 def classify(inX, dataSet, labels, k): dataSetSize = dataSet.shape[0] diffMat = tile(inX, (dataSetSize, 1)) - dataSet sqDiffMat = diffMat ** 2 sqDistances = sqDiffMat.sum(axis=1) distances = sqDistances ** 0.5 sortedDistIndicies = distances.argsort() classCount = {} for i in range(k): voteILabel = labels[sortedDistIndicies[i]] classCount[voteILabel] = classCount.get(voteILabel, 0) + 1 sortedClassCount = sorted(classCount.items(), key=operator.itemgetter(1), reverse=True) return sortedClassCount[0][0]
# 手写识别系统测试代码 def handWriteClassTest(): hwLabels = [] trainingFileList = listdir('trainingDigits') #获取trainingDigits文件子目录的列表 m = len(trainingFileList) #获得训练样本集总数 trainingMat = zeros((m, 1024)) #初始化训练样本集 for i in range(m): #循环将trainingDigits目录下的训练样本集的文本文件放入矩阵traningMat中,真实值放入hwLabels中 fileNameStr = trainingFileList[i] fileStr = fileNameStr.split('.')[0] #将获得的字符串按分隔符'.'分隔并取第一个字符串即去掉拓展名的文件名 classNumStr = int(fileStr.split('_')[0]) #获取训练样本集的真实值,非numpy数据需要指定数据类型int hwLabels.append(classNumStr) #将得到的单个真实值按加入到真实值列表hwLabels中 trainingMat[i, :] = imgVector('trainingDigits/%s' % fileNameStr) #把32行*32列的二进制文本文件转换成1行*1024列矩阵并按行存储到训练数据总矩阵中 testFileList = listdir('testDigits') #获取testDigits文件子目录的列表 errorCount = 0.0 #预测错误计数器 mTest = len(testFileList) #测试样本集总量 for i in range(mTest): fileNameStr = trainingFileList[i] fileStr = fileNameStr.split('.')[0] classNumStr = int(fileStr.split('_')[0]) vectorUnderTest = imgVector('trainingDigits/%s' % fileNameStr) classifierResult = classify(vectorUnderTest, trainingMat, hwLabels, 3) #用K-近邻算法对测试样本集分类 print("分类器得到得预测值为:%d ,真实值为:%d " % (classifierResult, classNumStr)) if(classifierResult != classNumStr): #判断预测是否正确,如果错误预测,则errorCount加1 errorCount += 1.0 print("测试总数:%d,预测错误总数:%d,错误率为:%f" % (mTest, errorCount, errorCount/float(mTest)))
实验结果:
. . . . . .
. . . . . .
2.5 实例二:实验总结
上面的实例二实验中,可以知道当K = 3时,使用K-近邻算法识别手写数据集的错误率大约为百分之一。但是从运行效果看,实际使用这个算法的时候,算法的执行效率并不高。我们需要进行2000次距离计算,每个距离计算包括了1024个维度的浮点数,总计执行900次,此外,我们还要为测试向量准备很大的存储空间。
我觉得中手写数字识别的系统可以做的更好一点,比如做出一个程序界面,给窗口在画板上手写数字,然后程序能够识别出手写数字,后期继续吧自己的想法实现!
-
k近邻算法实例
2016-03-01 20:04:58本例程序用k近邻算法来对约会对象的喜好程度进行预测分析k近邻算法是机器学习里面一个比较基础的算法,下面是一个pytho实例,用k近邻算法来对约会对象的主观喜好程度进行预测分类。
算法步骤:
(1)获取解析样本数据(本例使用datingTestSet.txt 可以到Github下载)
(2)数据预处理(不同特征的数据值的大小对于距离的影响较大,所以要对不同特征的数据值进行处理,换算成区间(0,1)的数据值)
(3) 分类器测试(本程序的测试误差为5%)
(4) 对于一个新的测试数据,输入分类器进行分类,获取结果
from numpy import * import operator #假设网站已对路人甲约会对象的数据进行了收集,放在datingTestSet.txt文件下,从左到右分别为: #(1)约会对象每年获得飞行常客里数 (2)约会对象玩视频游戏所耗的时间百分比 #(3) 约会对象每周消费的冰淇淋公升数 (4) 路人甲对该约会对象的喜好程度(含不喜欢的人,有点喜欢,非常喜欢三个评价) #本例程序用来预测路人甲对新约会对象的喜好程度,误差为5% #分类器 inX(测试数据) dataSet(样本数据集) labels(样本的类别) k(选择距离最小的k个点) def classify0(inX, dataSet, labels, k): #获取样本数据大小 dataSetSize = dataSet.shape[0] #计算测试数据与各个样本数据之间的距离distances diffMat = tile(inX, (dataSetSize, 1)) - dataSet sqDiffMat = diffMat**2 sqDistances = sqDiffMat.sum(axis=1) distances = sqDistances**0.5 #distances进行排序,将索引值返回给sortedDistIndicies sortedDistIndicies = distances.argsort() classCount={} #获取k个离测试数据最近的样本数据的labels,labels可能重复 for i in range(k): voteIlabel = labels[sortedDistIndicies[i]] classCount[voteIlabel] = classCount.get(voteIlabel, 0) + 1 #将k个labels按个数进行排序,选择重复次数最大labels的返回 sortedClassCount = sorted(classCount.iteritems(), key = operator.itemgetter(1), reverse=True) return sortedClassCount[0][0] #将文本数据转换成matrix def FileToMatrix(fileName): f = open(fileName) arrayLines = f.readlines() numberOfLines = len(arrayLines) resultMat = zeros((numberOfLines, 3)) classLabelVector = [] index = 0 for line in arrayLines: line = line.strip() listFromLine = line.split('\t') resultMat[index, :] = listFromLine[0:3] #给不同label索引值 if listFromLine[-1] == 'largeDoses': classLabelVector.append(3) elif listFromLine[-1] == 'smallDoses': classLabelVector.append(2) else: classLabelVector.append(1) index += 1 return resultMat, classLabelVector #由于不同的特征数值大小不一, 对结果会造成干扰,所以要对特征数值进行归一化 newValue = (oldValue - min)/(max-min) def autoNorm(dataSet): minVals = dataSet.min(0) maxVals = dataSet.max(0) ranges = maxVals-minVals normDataSet = zeros(shape(dataSet)) m = dataSet.shape[0] normDataSet = dataSet - tile(minVals, (m, 1)) normDataSet = normDataSet / tile(ranges, (m, 1)) return normDataSet, ranges, minVals #测试分类器,选取10%的样本进行测试 def datingClassTest(): hoRatio = 0.1 #获取全部样本 datingDateMat, datingLabels = FileToMatrix('datingTestSet.txt') normMat, ranges, minVals = autoNorm(datingDateMat) m = normMat.shape[0] #选择前10%的样本数据 numTestVecs = int(m*hoRatio) #错误分类样本数 errorCount = 0 for i in range(numTestVecs): #将用分类器获得的label与原样本中的label进行对比,错误的话计数加一 classifierResult = classify0(normMat[i, :], normMat[numTestVecs:m, :], datingLabels[numTestVecs:m],3) if classifierResult!=datingLabels[i]: errorCount+=1.0 print "the total error rate is : %f" % (errorCount/float(numTestVecs)) def classifyPerson(): resultList = ['not at all' ,'in small doses' ,'in large doses'] #随便输入一组测试数据 percentTats = float(8.326976) ffMiles = float(40920) iceCream = float(0.953952) datingDataMat ,datingLabels = FileToMatrix('datingTestSet.txt') normMat ,ranges ,minVals = autoNorm(datingDataMat) inArr = array([ffMiles ,percentTats ,iceCream]) classifierResult = classify0((inArr-minVals)/ranges ,normMat ,datingLabels ,3) print "You will probably like this person:",resultList[classifierResult-1]
参考书籍《机器学习实战》-Peter Harrington
-
python k-近邻算法实例分享
2021-01-20 04:30:59这个算法主要工作是测量不同特征值之间的距离,有个这个距离,就可以进行分类了。 简称kNN。 已知:训练集,以及每个训练集的标签。 接下来:和训练集中的数据对比,计算最相似的k个距离。选择相似数据中最多的那个... -
K-近邻算法的python实现代码分享
2020-12-25 03:12:16用官方的话来说,所谓K近邻算法,即是给定一个训练数据集,对新的输入实例,在训练数据集中找到与该实例最邻近的K个实例(也就是上面所说的K个邻居), 这K个实例的多数属于某个类,就把该输入实例分类到这个类中。... -
k近邻算法-酒店入住位置预测(数据集)
2020-02-27 01:11:32k-近邻算法-预测入住位置(数据集) kaggle下载很麻烦 下载txt文档,里面是百度网盘的链接,永久有效 k-近邻算法-预测入住位置(数据集) kaggle下载很麻烦 下载txt文档,里面是百度网盘的链接,永久有效 -
k-近邻算法实例
2018-09-09 13:22:39版权声明:(谢厂节的博客)博主文章绝大部分非原创,转载...简单地说,k-近邻算法采用测量不同特征值之间的距离方法进来分类 特点: 优点:精度高、对异常值不敏感、无数据输入假定 缺点:计算复杂度高、空间复杂... -
k近邻算法的Python实现
2018-07-19 13:58:46可以直接运行的Python程序,里面包含了数据集和测试集,有利于初学者入门。 -
OpenCV学习笔记(十五)——k近邻算法
2021-12-16 15:31:18K 近邻算法是最简单的机器学习算法之一,主要用于将对象划分到已知类中,在生活中被广泛使用。 -
用python实现k近邻算法的示例代码
2020-12-25 11:35:50K近邻算法(或简称kNN)是易于理解和实现的算法,而且是你解决问题的强大工具。 什么是kNN kNN算法的模型就是整个训练数据集。当需要对一个未知数据实例进行预测时,kNN算法会在训练数据集中搜寻k个最相似实例。对... -
K近邻算法(Python实现)
2021-09-27 23:06:31K近邻算法是对事物进行分类的机器学习算法。简单来说就是给定一组样本,对新的输入样本,在已有样本中找到与该实例最邻近的K个例子, 当这K个例子的大多属于某个类别时,就把该输入样本分类到这个类之中。 举例来... -
python实现K近邻算法
2021-07-22 11:20:54k近邻算法是机器学习中一种基础的分类与回归算法,通过输入新实例的特征向量,计算与新实例距离最为接近的k个训练集样本,之后在k个训练集样本中通过一定的选举策略确定出新实例的类别或者数值,从而达到分类或者... -
机器学习之K近邻算法原理+应用实例
2021-10-24 16:07:52K最近邻(K-Nearest Neighbor,KNN)分类算法是最简单的机器学习算法之一,其基本思路与“近朱者赤,近墨者黑”的原理类似,当对未分类样本进行分类时,首先判断其与已分类样本之间的特征相似度,然后将其划分到大多数... -
K 近邻算法
2017-09-18 22:00:17所谓K近邻算法,即是给定一个训练数据集,对新的输入实例,在训练数据集中找到与该实例最邻近的K个实例(也就是上面所说的K个邻居), 这K个实例的多数属于某个类,就把该输入实例分类到这个类中。 -
python K近邻算法的kd树实现_k近邻算法kd树
2020-11-23 09:25:31python K近近邻邻算算法法的的kd树树实实现现 这篇文章主要介绍了python K近邻算法的...k近邻算法的输入为实例的特征向量对应特征空间的点 输出为实例的类别可以取多类 k近邻算法不具有显式的学习过程实际上k近邻算法是 -
python K近邻算法的kd树实现
2021-01-20 04:33:40k近邻算法的输入为实例的特征向量,对应特征空间的点;输出为实例的类别,可以取多类。 k近邻算法不具有显式的学习过程,实际上k近邻算法是利用训练数据集对特征向量空间进行划分。将划分的空间模型作为其分类模型... -
机器学习—K-近邻算法[入门]
2020-12-22 07:39:30k-近邻算法(k-Nearest Neighbour algorithm),又称为KNN算法,是数据挖掘技术中原理最简单的算法。 KNN的工作原理:给定一个已知标签类别的训练数据集,输入没有标签的新数据后,在训练数据集中找到与新数据最邻 ... -
sklearn实例 - K近邻算法讲解与实战分析
2019-01-09 16:40:04K最近邻(k-Nearest Neighbor,KNN)分类算法,是一个理论上比较成熟的方法,也是最简单的机器学习算法之一。该方法的思路是:如果一个样本在特征空间中的k个最相似(即特征空间中最邻近)的样本中的大多数属于某一个... -
k-近邻算法的简单实例
2021-02-06 00:05:41k-近邻算法概述 定义:k-近邻算法采用测量不同特征值之间的距离方法进行分类 。 优点:精度高,对异常值不敏感,无数据输入假定 。 缺点:计算复杂度高,空间复杂度高 。 适用数据范围:数值型和标称型。 工作原理:... -
利用k-近邻算法实现手写体分类代码及数据集
2017-12-14 21:17:10k-近邻算法实例及数据集,包含测试集和训练集,代码中knn.py为主体代码,test.py为画散点图详细代码,example_1为test.py生产的散点图 -
python机器学习-k近邻(KNN)算法实例
2018-08-23 11:55:54本篇主要是自己复习和总结机器学习算法中最...——K最近邻(k-Nearest Neighbor,KNN),k近邻算法可以应用于分类场景与回归场景,是一个理论上比较不成熟的方法,也是最简单的机器学习算法之一。该方法的思路是:如... -
K - 近邻算法.zip
2019-09-06 11:59:09本实例参照机器学习实战一书在python3上将K-近邻算法进行实现,里面包括喜好分类和手写数字识别 -
K近邻算法总结
2022-01-06 10:03:42原理,特征归一化,分类示例,k值选择,距离度量方式,kd树,优缺点。 -
k近邻算法_机器学习基础算法之——K近邻算法
2020-11-18 18:12:48K近邻算法简介 K近邻算法原理K近邻(KNN)算法,是给定一个训练数据集,对新的输入实例,在训练数据集中找到与该实例最邻近的K个实例,这K个实例的多数属于某个类,就把该输入实例分类到这个类中。(这就是现实生活中... -
K近邻算法,内涵详细代码
2017-12-07 20:26:32K近邻算法,内涵详细代码,KNN是通过测量不同特征值之间的距离进行分类。它的的思路是:如果一个样本在特征空间中的k个最相似(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别。 -
K近邻算法
2022-03-03 09:03:30一、K近邻算法简介 K近邻算法(K-Nearest Neighbor)简称KNN算法,是最简单的预测模型之一,它没有多少数学上的假设,也不要求任何复杂的处理,它所要求的只有以下两点 1.某种距离计算概念 2.彼此接近的点具有相似的...