精华内容
下载资源
问答
  • MATLAB实现KNN算法(MNIST数据集)

    千次阅读 2020-05-15 14:51:44
    MATLAB实现KNN算法(MNIST数据集) MOOC地址:人工智能之模式识别 k-近邻分类器又称为 KNN 算法(K Nearest Neighbors Algorithm),它是指需要从训练集中找出待识别样本的 k 个最近邻,然后依据这 k 个最近邻分别...

    基于MOOC人工智能之模式识别的课程完成的第五次作业
    MATLAB实现KNN算法(MNIST数据集)
    MOOC地址:人工智能之模式识别
    k-近邻分类器又称为 KNN 算法(K Nearest Neighbors Algorithm),它是指需要从训练集中找出待识别样本的 k 个最近邻,然后依据这 k 个最近邻分别所属的类别来决定应当把待识别样本划分到哪个类别中。
    在这里插入图片描述
    k-近邻分类器原理简单,无需对样本集进行回归分析或者概率分布统计,实现起来十分方便。
    距离度量、k 值的选择及分类决策规则是 k 近邻算法的三个基本要素。
    根据选择的距离度量(如曼哈顿距离或欧氏距离,Minkowski 明可夫斯基),可计算测试样本与训练集中的每个实例点的距离,根据 k 值选择 k 个最近邻点,最后根据分类决策规则将测试实例分类。
    KNN.m 程序代码主要实现了数据集读入,KNN 分类器训练,测试及结果输出几个部分。数据集仍使用之前的MNIST数据集。

    %knn.m
    clc 
    clear variables
      
    load ('../test_images.mat');
    load ('../test_labels.mat');
    load ('../train_images.mat');
    load ('../train_labels.mat');
    % 选取数据容量
    train_num = 2000;
    test_num = 200;
    data_train = mat2vector(train_images(:,:,1:train_num),train_num);% 转换为行向量
    data_test = mat2vector(test_images(:,:,1:test_num),test_num);
    % 参数说明:knn要求在一个范围内选取近邻样本,这个容量需要手动给出
    % 其他参数如距离计算模式,距离权重均为默认,如欧式距离,等权值等。
    % 具体结果可以在运行后查看knn_model来详细观察
    knn_model = fitcknn(data_train,train_labels1(1:train_num),'NumNeighbors',10);
    result = predict(knn_model,data_test);
    acc = 0.;
    for i = 1:test_num
        if result(i)==test_labels1(i)
            acc = acc+1;
        end
    end
    fprintf('精确度为:%5.2f%%\n',(acc/test_num)*100);
    

    k 值的选择会对 k 近邻法的结果产生重大影响。在应用中,k 值一般取一个比较小的数值,通常采用交叉验证法来选取最优的 k 值。我们可以看一下 K 值的选择如何影响识别精度。
    在这里插入图片描述

    展开全文
  • KNN算法Matlab实现

    2019-01-16 18:06:16
    Matlab实现了KNN算法中最近邻元素的查找,算出的结果与Spss完全一致
  • KNN算法MATLAB中的实现 By:Yang Liu 运行结果: 图中结果表示测试数据(0.5,2.3)最终分到了第二类。

    KNN算法在MATLAB中的实现

    By:Yang Liu
    在这里插入图片描述
    在这里插入图片描述
    运行结果:
    在这里插入图片描述
    在这里插入图片描述
    图中结果表示测试数据(0.5,2.3)最终分到了第二类。

    展开全文
  • KNN算法matlab实现

    2019-05-07 16:10:53
    模式识别KNN算法实现,基于Matlab的实现,以及剪辑近邻法的matlab实现。
  • KNN算法MATLAB实现

    2020-07-10 20:47:52
    邻近算法,或者说K最近邻(KNN,K-NearestNeighbor)分类算法是数据挖掘分类技术最简单的方法之一。所谓K最近邻,就是K个最近的邻居的意思,说的是每个样本都可以用它最接近的K个邻近值来代表。近邻算法就是将数据...
  • 一、简介 K最近邻(k-Nearest Neighbor,KNN)分类算法,是一个理论上比较成熟的方法,也是最简单的机器学习算法之一。该方法的思路是:如果一个样本在特征空间的k个最相似(即特征空间最邻近)的...3 KNN算法的步骤

    一、简介

    K最近邻(k-Nearest Neighbor,KNN)分类算法,是一个理论上比较成熟的方法,也是最简单的机器学习算法之一。该方法的思路是:如果一个样本在特征空间中的k个最相似(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别。
    1 定义
    如果一个样本在特征空间中的k个最相似(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别,即由你的“邻居”来推断出你的类别.
    2 距离公式
    两个样本的距离可以通过如下公式计算,又叫欧式距离
    在这里插入图片描述

    3 KNN算法的步骤
    (1)计算已知类别数据集中每个点与当前点的距离;
    (2)选取与当前点距离最小的K个点;
    (3)统计前K个点中每个类别的样本出现的频率;
    (4)返回前K个点出现频率最高的类别作为当前点的预测分类。

    4 KNN原理
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    5 KNN的优缺点
    在这里插入图片描述
    6 KNN性能问题
    NN的性能问题也是KNN的缺点之一。使用KNN,可以很容易的构造模型,但在对待分类样本进行分类时,为了获得K近邻,必须采用暴力搜索的方式,扫描全部训练样本并计算其与待分类样本之间的距离,系统开销很大。

    二、源代码

    clc
    clear all;
    close all;
    
    %% 载入各情感的特征向量矩阵
    load A_fear.mat;
    load F_happiness.mat;
    load N_neutral.mat;
    load T_sadness.mat;
    load W_anger.mat;
    NumberOfTrain=size(fearVec,2)/2; %一半测试用,一半训练用
    trainVector=[fearVec(:,1:NumberOfTrain),hapVec(:,1:NumberOfTrain),neutralVec(:,1:NumberOfTrain),sadnessVec(:,1:NumberOfTrain),angerVec(:,1:NumberOfTrain)]; % 构建训练样本集
    testVector=[fearVec(:,(NumberOfTrain+1):size(fearVec,2)),hapVec(:,(NumberOfTrain+1):size(hapVec,2)),neutralVec(:,(NumberOfTrain+1):size(neutralVec,2)),sadnessVec(:,(NumberOfTrain+1):size(sadnessVec,2)),angerVec(:,(NumberOfTrain+1):size(angerVec,2))]; % 构建测试样本集
    k=9; %k 最近邻
    distanceMatrix=zeros(size(trainVector,2),size(testVector,2)); % 每一列表示某个测试语音与所有训练集样本的距离
    %% 计算每个测试样本和训练样本集各样本的距离
    for i=1:size(testVector,2)
        for j=1:size(trainVector,2)
            distanceMatrix(j,i)=norm(testVector(:,i)-trainVector(:,j)); %计算欧氏距离
        end
    end
    %% 统计分类结果 (根据相应的特征向量在数组trainVector或testVector中所处的位置来辨别类型)
    totalTestNumber=size(fearVec,2)-NumberOfTrain;
    emtionCounter=zeros(1,5);
    n1=NumberOfTrain;
    n2=n1+NumberOfTrain;
    n3=n2+NumberOfTrain;
    n4=n3+NumberOfTrain;
    n5=n4+NumberOfTrain;
    p1=size(fearVec,2)-NumberOfTrain;
    p2=p1+size(hapVec,2)-NumberOfTrain;
    p3=p2+size(neutralVec,2)-NumberOfTrain;
    p4=p3+size(sadnessVec,2)-NumberOfTrain;
    p5=p4+size(angerVec,2)-NumberOfTrain;
    if(n5~=size(trainVector,2)||p5~=size(testVector,2))
        disp('data error')
        return;
    end
    
    for i=1:size(distanceMatrix,2)
        flag=zeros(1,5);
        [sortVec,index]=sort(distanceMatrix(:,i));
        % 统计K个近邻中各类别的数量
        for j=1:k
            if(n1>=index(j)&&index(j)>=1)
                flag(1)=flag(1)+1;
            elseif(n2>=index(j)&&index(j)>n1)
                flag(2)=flag(2)+1;
            elseif(n3>=index(j)&&index(j)>n2)
                flag(3)=flag(3)+1;
            elseif(n4>=index(j)&&index(j)>n3)
                flag(4)=flag(4)+1;
            else
                flag(5)=flag(5)+1;
            end
        end
        [~,index1]=sort(flag);
        % 如果K个近邻中数量最多的类别与该样本实际的类别一致,则认为算法识别正确,相应counter加一。
        if((p1>=i&&i>=1)&&index1(5)==1)
            emtionCounter(index1(5))=emtionCounter(index1(5))+1;
           
        elseif((p2>=i&&i>p1)&&index1(5)==2)
            emtionCounter(index1(5))=emtionCounter(index1(5))+1;
            
        elseif((p3>=i&&i>p2)&&index1(5)==3)
            emtionCounter(index1(5))=emtionCounter(index1(5))+1;
            
        elseif((p4>=i&&i>p3)&&index1(5)==4)
            emtionCounter(index1(5))=emtionCounter(index1(5))+1;
           
        elseif((p5>=i&&i>p4)&&index1(5)==5)
            emtionCounter(index1(5))=emtionCounter(index1(5))+1;
           
        end
    
    end
    function feature=featvector(filename)
    [y,fs]=wavread(filename); 
    L=length(y);
    ys=y;
    for i=1:(length(y)-1)
        if (abs(y(i))<1e-3)  %  剔除较小值,计算短时能量时使用  %
            ys(i)=ys(i+1);
            L=L-1;
        end
    end 
    y1=ys(1:L);
    s=enframe(y,hamming(256),128); %  分帧加窗  %
    s1=enframe(y1,hamming(256),128); 
    [nframe,framesize]=size(s);  
    [nframe1,framesize1]=size(s1);
    E=zeros(1,nframe1);  
    Z=zeros(1,nframe);
    F=zeros(1,nframe);
    for i=1:nframe
        Z(i)=sum(abs(sign(s(i,framesize:2)-s(i,framesize-1:1))))/2;  %  过零率  %
    end
    for i=1:nframe1
        E(i)=sum(s1(i,:).*s1(i,:)); %  短时能量  %
    end
    s1=x2-x1;s2=x3-x4;
    E_Reg_coff=s1/s2;
    x=0;
    for i=1:nframe1
        t=E(i)-(mean(E)-s1/s2*x4/nframe1)-s1/s2*i;
        x=x+t^2/nframe1;
    end
    E_Sqr_Err=x;
    feature(1:7,1)=[max(E);min(E);mean(E);var(E);E_shimmer;E_Reg_coff;E_Sqr_Err];%  短时能量相关特征  %
    
    %  能量比  %
    feature(8,1)=Eratio;
    
    end
    

    三、运行结果

    在这里插入图片描述

    四、备注

    完整代码或者代写添加QQ 1564658423

    展开全文
  • KNN算法及其MATLAB代码

    2020-09-16 14:47:04
    一、KNN算法原理 1.算法概述 k近邻(k-Nearest Neighbor,简称kNN)学习是一种常用的监督学习方法,其工作机制非常简单:给定测试样本,基于某种距离度量找出训练集中与其最靠近的k个训练样本,然后基于这k个"邻居...

    一、KNN算法原理

    1.算法概述

    k近邻(k-Nearest Neighbor,简称kNN)学习是一种常用的监督学习方法,其工作机制非常简单:给定测试样本,基于某种距离度量找出训练集中与其最靠近的k个训练样本,然后基于这k个"邻居"的信息来进行预测。通常,在分类任务中可使用"投票法"即选择这k个样本中出现最多的类别标记作为预测结果;在回归任务中时使用"平均法",即将这k个样本的实值输出标记的平均值作为预测结果;还可基于距离远近进行加权平均或加权投票,距离越近的样本权重越大。

    kNN算法的指导思想是“近朱者赤,近墨者黑”,由你的邻居来推断出你的类别。

    以二分类为例,k近邻分类示意图如图1所示。

    图1 k近邻分类示意图

     

    虚线显示出等距线;测试样本在k=1或k=5时被判别为正例,k=3时被判别为负例。

    2.算法的计算步骤

    1)算距离:给定测试对象,计算它与训练集中每个对象的距离;

    2)找邻居:圈定距离最近的k个训练对象,作为测试对象的近邻;

    3)做分类:根据这k个近邻归属的主要类别,来对测试对象分类。

    3.算法的优缺点

    优点:简单,易于理解,易于实现,无需估计参数,无需训练;适合对稀有事件进行分类;特别适合于多分类问题(multi-modal,对象具有多个类别标签)。

    缺点:懒惰算法,对测试样本分类时的计算量大,内存开销大,评分慢;可解释性较差,无法给出决策树那样的规则。

    4.算法存在的常见问题

    1)K值设定的大小

    k太小,分类结果易受噪声点影响;k太大,近邻中又可能包含太多的其它类别的点。

    k值通常是采用交叉检验来确定(以k=1为基准)

    经验规则:k一般低于训练样本数的平方根。

    2)类别判定

    投票法没有考虑近邻的距离的远近,距离更近的近邻也许更应该决定最终的分类,所以采用加权投票法(对距离加权,距离越近的样本权重越大)。

    3)选择合适的距离衡量

    高维度对距离衡量的影响:当变量数越多,欧式距离的区分能力就越差;

    变量值域对距离的影响:值域越大的变量常常会在距离计算中占据主导作用,因此应先对变量进行标准化。

    常用的距离度量公式如图2所示。

    图2 常用的距离度量公式

     

    4)训练样本是否要一视同仁

    在训练集中,有些样本可能是更值得依赖的,可以给不同的样本施加不同的权重,加强依赖样本的权重,降低不可信赖样本的影响。

    5)性能问题

    KNN是一种懒惰算法,平时不好好学习,考试(对测试样本分类)时才临阵磨枪(临时去找k个近邻);

    懒惰的后果:构造模型很简单,但在对测试样本分类时系统开销大,因为要扫描全部训练样本并计算距离;

    已经有一些方法提高计算的效率,例如压缩训练样本量等。

    6)能否大幅减少训练样本量,同时又保持分类精度?

    浓缩技术(condensing)

    编辑技术(editing)

    二、KNN算法的MATLAB代码实现

    对4组不同的信号分别采集20组,总共80组,然后经过特征提取(特征数量为8个),得到80x8的矩阵。

    划分数据集:将64组数据作为训练数据,16组数据作为测试数据,4类信号在训练集和测试集的数量比例相同,将训练集和测试集整体归一化,再分别作为KNN的输入。

    源程序是利用KNN算法对训练集和测试集整体归一化后的测试数据进行分类,得到分类准确率。

    名称:基于MATLAB的KNN算法实现多分类(类别判定采用投票法)。

    源代码的博客地址:https://download.csdn.net/download/weixin_45317919/12850227

     

    参考文献

    [1]周志华.机器学习[M].北京:清华大学出版社,2017:225.

    [2]KNN算法理解.

    https://blog.csdn.net/jmydream/article/details/8644004

    [3]齐兴敏.基于PCA的人脸识别技术的研究[D].武汉:武汉理工大学,2007.

    展开全文
  • matlab机器学习之knn算法实例

    千次阅读 2020-03-26 12:17:25
    本片不讲算法原理,仅说明一下 matlab中使用该算法用的函数 详细参考:matlab官方文档 构造简单模型 Mdl = fitcknn(X,Y) 返回分类器模型对象,输入参数:X是训练数据,Y是标签。X是一个数值矩阵,每一行表示一个...
  • 机器学习kNN算法Matlab实例

    万次阅读 多人点赞 2010-05-14 12:58:00
    K最近邻(kNN)分类算法,是一个理论上比较成熟的方法,也是最简单的机器...在2006年12月召开的 IEEE ICDM会议上,与会的各位专家选出了当时的十大数据挖掘算法( top 10 data mining algorithms ),kNN算法即位列其中
  • 模式识别KNN算法matlab程序

    热门讨论 2011-01-16 17:24:04
    此程序段实现模式识别KNN算法,可用于目标匹配的判别。
  • KNN算法图解(MATLAB实例)

    千次阅读 2014-11-07 17:17:47
    kNN算法的核心思想是,当一个样本空间有未知数据类型的样本,那么就可以根据离这个样本最邻近的k个样本的数据类型来确定样本的数据类型。 多维空间的KNN算法方程式可表示为:       二、实例 例题:‘+’...
  • matlab实现knn分类

    热门讨论 2013-05-26 16:16:41
    算法matlab实现了knn分类,knn分类是数据挖掘很经典的算法之一
  • KNN算法中,所选择的邻居都是已经正确分类的对象。该方法在定类决策上只依据最邻近的一个或者几个样本的类别来决定待分样本所属的类别。例如:下图,绿色圆要被决定赋予哪个类,是红色三角形还是蓝色四...
  • 1.算法简介手写数字识别是KNN算法一个特别经典的实例,其数据源获取方式有两种,一种是来自MNIST数据集,另一种是从UCI欧文大学机器学习存储库下载,本文基于后者讲解该例。 基本思想就是利用KNN算法推断出如下图...
  • 代码使用matlab编写,压缩包包含MNIST数据集及其读取函数、KNN算法实现和ReadMe.txt。 KNN算法中使用了PCA降维处理数据减少运行时间,正确率可达95%,有部分注释。请结合ReadMe文件使用。
  • KNN算法matlab函数 ClassificationKNN.fit

    万次阅读 2014-01-15 11:24:03
    ClassificationKNN.fit...X:每行表示一个特征向量,每列表示特征向量一个变量。Y:每行代表的是X特征向量说代表的标签或种类。 mdl = ClassificationKNN.fit(X,Y,Name,Value):value代表K的值 ClassificationKNN
  • C#实现KNN算法

    千次阅读 2017-08-25 14:22:23
    KNN算法的C#代码,上一篇博客的C#创建KD树的程序的算法是模仿MATLAB的KDTree的程序思路 这次按照李航老师的《统计学习方法》的思路,写一个C#程序,其中创建KD树的分割的维度并不是轮寻,而是按照数据的范围...
  • 很有用 可运行 KNN学习算法实现,演示回归算法算法在计算机视觉的应用 ,实现如何利用偏最小二乘回归模型实现数据拟合
  • MatlabKNN实现

    千次阅读 2014-01-05 20:13:17
    1. 算法流程 1) 通过Matlab产生高斯分布产生两类数据,并标明类别 2) 数据初始化:设置K=某个常数(一般为奇数) 3) 对于每个测试数据, 计算其到两类数据的所有点的距离 对于上述求得的距离,选出K个最小的, ...
  • 笔者结合机器学习过程利用MATLAB编程所实现的一些算法来对一些常见算法进行了函数封装便于初学人士进行参考和利用,这里简要介绍算法的概念和主要方法,适用于初学者去理解算法!注意!是理解算法,本文主要以例子...
  • KNN和LLE算法Matlab实现

    2009-05-18 14:08:52
    matlab中实现KNN分类器和LLE局部线性嵌入算法的实现
  • 机器学习:训练模型 + 决策(判别)训练模型:前提选择已知的模型(如 LR, kNN, DT,SVM,MSE等),然后训练模型的每个参数【训练参数即学习得到参数】;决策(判别):即通过模型对一个未知类别的样本进行分类的过程...
  • KNN分类算法MATLAB程序与结果

    万次阅读 2016-04-14 16:08:18
    KNN算法的决策过程  k-Nearest Neighbor algorithm   右图,绿色圆要被决定赋予哪个类,是红色三角形还是蓝色四方形?如果K=3,由于红色三角形所占比例为2/3,绿色圆将被赋予红色三角形那个类,如果K=5,由于...
  • 调用sklearn中KNN算法库,图片数据级为matlab文件,使用matplot读取,并进行一维化处理from scipy.io import loadmat as load import matplotlib.pyplot as plt from sklearn.neighbors import KNeighborsClassifier...
  • 使用KNN算法实现 0-9 十个数字的识别

    千次阅读 2017-05-16 17:20:32
    [实验项目] 验证码识别 [实验目的] 用matlab编程实现 0-9 十个数字的识别。 [实验原理] K最近邻(k-Nearest Neighbor,KNN)分类算法,是一个理论上比较成熟的方法,也是最简单的机器...KNN算法中,所选择的邻居
  • matlab-初探KNN识别

    2020-01-14 17:31:51
    记录一下学校的作业,识别过程使用matlab的prtool包进行 KNN算法 KNN是通过测量不同特征值之间的距离进行...KNN算法中,所选择的的邻居都是已经正确分类的对象即原始训练数据。该方法在定类决策上只一句最邻近的一个...

空空如也

空空如也

1 2 3 4 5 ... 7
收藏数 134
精华内容 53
关键字:

matlab中knn算法

matlab 订阅