精华内容
下载资源
问答
  • 基于深度学习的手写数字识别Matlab实现

    千次阅读 多人点赞 2019-05-08 19:48:31
    基于深度学习的手写数字识别1.网络设计2. 训练方法3.实验结果4.实验结果分析5.结论 1.网络设计 1.1 CNN(特征提取网络+分类网络) 随着深度学习的迅猛发展,其应用也越来越广泛,特别是在视觉识别、语音识别和自然...

    基于深度学习的手写数字识别Matlab实现

    1.网络设计

    1.1 CNN(特征提取网络+分类网络)
    随着深度学习的迅猛发展,其应用也越来越广泛,特别是在视觉识别、语音识别和自然语言处理等很多领域都表现出色。卷积神经网络(Convolutional Neural Network,CNN)作为深度学习中应用最广泛的网络模型之一,也得到了越来越多的关注和研究。事实上,CNN作为一项经典的机器学习算法,早在20世纪80年代就已被提出并展开一定的研究。但是,在当时硬件运算能力有限、缺乏有效训练数据等因素的影响下,人们难以训练不产生过拟合情形下的高性能深度卷积神经网络模型。所以,当时CNN的一个经典应用场景就是用于识别银行支票上的手写数字,并且已实际应用。伴随着计算机硬件和大数据技术的不断进步,人们也尝试开发不同的方法来解决深度CNN训练中所遇到的困难,特别是Kizhesky 等专家提出了一种经典的CNN架构,论证了深度结构在特征提取问题上的潜力,并在图像识别任务上取得了重大突破,热起了深度结构研究的浪潮。而卷积神经网络作为一种已经存在的、有一定应用案例的深度结构,也重新回到人们的视野中,得以进一步研究和应用。
    而本次实验就是基于CNN实现的。
    1.1.1基本架构
    卷积神经网络基本架构包括特征抽取器和分类器。特征抽取器通常由若干个卷积层和池化层叠加构成,卷积和池化过程不断将特征图缩小,同时会导致特征图数量的增多。特征抽取器后面一般连接分类器,通常由一个多层感知机构成。特别地,在最后一个特征抽取器后面,将所有的特征图展开并排列成一个向量得到特征向量,并作为后层分类器的输入。
    1.1.2卷积层
    卷积运算的基本操作是将卷积核与图像的对应区域进行卷积得到一个值,通过在图像上不断移动卷积核和来计算卷积值,进而完成对整幅图像的卷积运算。在卷积神经网络中,卷积层不仅涉及一般的图像卷积,还涉及深度和步长的概念。深度对应于同一个区域的神经元个数,即有几个卷积核对同一块区域进行卷积运算;步长对应于卷积核移动多少个像素,即前后距离的远近程度。
    本次实验卷积层采用的是20个99的滤波器进行滤波,激活函数为ReLU函数。
    1.1.2.1局部感知
    人对外界的认知一般可以归纳为从局部到全局的过程,而图像的像素空间联系也是局部间的相关性强,远距离的相关性弱。因此,卷积神经网络的每个神经元实际上只需关注图像局部的感知,对图像全局的感知可通过更高层综合局部信息来获得,这也说明了卷积神经网络部分连通的思想。类似于生物学中的视觉系统结构,视觉皮层的神经元用于局部接收信息,即这些神经元只响应某些特定区域的刺激,呈现出部分连通的特点。
    1.1.2.2参数共享
    局部感知过程假设每个神经元都对应100个参数,共106个神经元,则参数共有100×106个,依然是一个很大的数字。如果这106个神经元的100个参数相等,那么参数个数就减少为100,即每个神经元用同样的卷积核执行卷积操作,这将大大降低运算量。因不论隐层的神经元个数有多少,两层间的连接只要100个参数,这也说明了参数共享的意义。
    1.1.2.3多核卷积
    如果10×10维数的卷积核都相同,那么只能提取图像的一种特征,局限性很明显。可以考虑通过增加卷积核来提高特征类别,例如选择16个不同的卷积核用于学习16种特征。其中,应用卷积核到图像执行卷积操作,可得到图像的不同特征,统称为特征图(Feature Map),所以16个不同的卷积核就有16个特征图,可以视作图像的不同通道。此时,卷积层包含10×10×16=1600个参数。
    1.1.3池化层
    从理论上来看,经卷积层得到特征集合,可直接用于训练分类器(例如经典的Softmax分类器),但这往往会带来巨大计算量的问题。通过计算图像局部区域上的某特定特征的平均值或最大值等来计算概要统计特征。这些概要统计特征相对于经卷积层计算得到的特征图,不仅达到了降维目的,同时还会提高调练效率,这种特征聚合的操作叫作池化(Pooling),本次实验采用的是2
    2的平均池化。
    1.1.4 特征提取网络
    使用reshape函数将特征提取网络的矩阵转换为2000*1的列向量,然后是两个隐层节点,这两个隐层节点含分别都含有95个神经元,中间采用的都是ReLU激活函数。最后是10个输出节点,实现单热编码输出,使用的是Softmax激活函数。

    2. 训练方法

    Delata规则+BP算法+交叉熵代价函数+SGD(随机梯度下降算法)+动量算法
    2.1程序实现
    使用到的 MNIST包自行下载后,需要用到的函数
    accuracy

    function y = accuracy(W1,W2,W3,W4,X_Test,D_Test,epoch)
    N=length(D_Test);
    d_comp=zeros(1,N);
    for  k=1:N
         X=X_Test(:,:,k);
         V1=Conv(X,W1);%自定义函数(不旋转,直接滤波)
         Y1=ReLU(V1);
         Y2=Pool(Y1);%自定义函数,2×2平均池化操作
         y1=reshape(Y2,[],1);
         v2=W2*y1;
         y2=ReLU(v2);
         v3=W3*y2;
         y3=ReLU(v3);
         v=W4*y3;
         y=Softmax(v);
        [~,i]=max(y);%找到y向量中的最大元素,i为其位置索引
        d_comp(k)=i;%保存CNN的计算值(识别出的数字)
    end
    [~,d_true]=max(D_Test);%将单热编码变回相应数字,存入d true(1xN维向量)
    acc=sum(d_comp==d_true);%统计正确识别的总数
    fprintf('第%d轮:',epoch);
    fprintf('Accuracy is %f\n',acc/N);%输出正确率
    end
    

    Conv

        function y = Conv(x, W)
        %     对一幅图片的卷积
        %
        %     [wrow, wcol, numFilters] = size(W);
        %     [xrow, xcol, ~] = size(x);
        %     y = zeros(xrow - wrow + 1, xcol - wcol + 1, numFilters);
        %     for k = 1:numFilters
        %         y(:, :, k) = conv2(x, rot90(W(:, :, k),2), 'valid');
        %     end
    
        [xrow, xcol, xcha] = size(x);
        [wrow, wcol, wpage, numFilters] = size(W);
        if xcha>1&&(xcha==wpage)
            y = zeros(xrow - wrow + 1, xcol - wcol + 1, numFilters);
            W = W(:,:,end:-1:1,:);
            for i = 1:numFilters
                for j = 1:wpage
                    W(:,:,j,i) = rot90(W(:,:,j,i),2);
                end
                y(:, :, i) = convn(x, W(:,:,:,i), 'valid');
            end
        else
            y = zeros(xrow - wrow + 1, xcol - wcol + 1, wpage);
            for k = 1:wpage
                y(:, :, k) = conv2(x, rot90(W(:, :, k),2), 'valid');
            end
        end
        
    end
    

    Dropout

    function ym = Dropout(y, ratio)
      [m, n] = size(y);  
      ym     = zeros(m, n);
      num     = round(m*n*(1-ratio));
      idx     = randperm(m*n, num);
      ym(idx) = m*n / num;
    end
    

    Pool

    function y = Pool(x)
    %     
    % 2x2 mean pooling
    %
    %
    y=(x(1:2:end,1:2:end,:)+x(2:2:end,1:2:end,:)+x(1:2:end,2:2:end,:)+x(2:2:end,2:2:end,:))/4;
    end
    

    ReLU

    function y = ReLU(x)
      y = max(0, x);
    end
    
    Softmax
    function y = Softmax(x)
      ex = exp(x);
      y  = ex / sum(ex);
    end
    

    test

    clc;clear all; close all;
    tic;
    load MNISTData
    %初始化权值
    alpha=0.01;
    beta =0.01;
    epoch=20;
    W1=randn(9,9,20);
    W2=(2*rand(95,2000)-1)/20 ;  
    W3=(2*rand(45,95)-1)/10;  
    W4=(2*rand(10,45)-1)/5;
    mmt1 = zeros(size(W1));
    mmt2 = zeros(size(W2));
    mmt3 = zeros(size(W3)); 
    mmt4 = zeros(size(W4));
    for G=1:epoch
      [xrow, xcol, xcha] = size(X_Train);
    for    I= 1:xcha
        %%卷积池化层
           V1= Conv(X_Train(:,:,I),W1);
           Y1=ReLU(V1);
           Y2=Pool(Y1);
        %%分类层
           y1=reshape(Y2,[],1);
           v2=W2*y1;
           y2=ReLU(v2);
           y2 = y2 .* Dropout(y2, 0.01);
           v3=W3*y2;
           y3=ReLU(v3);
           y3 = y3 .* Dropout(y3, 0.01);
           v=W4*y3;    
           y=Softmax(v);
           e=D_Train(:,I)-y;
        %%误差前向传播
           delta=e;%交叉熵+softmax
           e3=W4'*delta;
           delta3=(v3>0).*e3;
           e2=W3'*delta3;
           delta2=(v2>0).*e2;
           e1=W2'*delta2;
           E2=reshape(e1,size(Y2));
           E1=zeros(size(Y1));E2_4=E2/4;
           E1(1:2:end,1:2:end,:)=E2_4;
           E1(1:2:end,2:2:end,:)=E2_4;
           E1(2:2:end,1:2:end,:)=E2_4;
           E1(2:2:end,2:2:end,:)=E2_4;
           delta1=(V1>0).*E1;
         %%更新权值
           [a,b,c]=size(W1);
           for t=1:c
               dW1(:,:,t)=alpha* conv2(X_Train(:,:,I),rot90(delta1(:,:,t),2),'valid');
               mmt1(:,:,t)= dW1 (:,:,t)+ beta*mmt1(:,:,t);
               W1(:,:,t)=W1(:,:,t)+mmt1(:,:,t);
     %         W1(:,:,t)=W1(:,:,t)+dW1(:,:,t);
           end
              dW4=alpha*delta*y3';
              mmt4 = dW4 + beta*mmt4;
              W4   = W4 + mmt4;
     %        W4   = W4 +dW4;
              dW3=alpha*delta3*y2';
              mmt3 = dW3 + beta*mmt3;
              W3   = W3 + mmt3;
     %        W3   = W3 +dW3;
              dW2=alpha*delta2*y1';
              mmt2 = dW2 + beta*mmt2;
              W2   = W2 + mmt2;
     %        W2   = W2 +dW2;
    end
    
    toc
    %%统计正确率的代码:
     acc=accuracy(W1,W2,W3,W4,X_Test,D_Test,G);
    end
    

    2.2代码解释
    2.2.1加载数据

    clc; clear all; close all;
    tic;
    load MNISTData
    

    2.2.2根据网络结构初始化学习速率,权值,循环次数等

    alpha=0.01;
    beta =0.01;
    epoch=2
    W1=randn(9,9,20);
    W2=(2*rand(95,2000)-1)/20;  
    W3=(2*rand(45,95)-1)/10;  
    W4=(2*rand(10,45)-1)/5;
      mmt2 = zeros(size(W2));
      mmt3 = zeros(size(W3)); 
      mmt4 = zeros(size(W4));
    for G=1:epoch
    

    2.2.3训练CNN网络

    [xrow, xcol, xcha] = size(X_Train);
    for    I= 1:xcha
        %%卷积池化层
           V1= Conv(X_Train(:,:,I),W1);
           Y1=ReLU(V1);
           Y2=Pool(Y1);
        %%分类层 + dropout
            y1=reshape(Y2,[],1);
           v2=W2*y1;
           y2=ReLU(v2);
           y2 = y2 .* Dropout(y2, 0.01);
           v3=W3*y2;
           y3=ReLU(v3);
           y3 = y3 .* Dropout(y3, 0.01);
           v=W4*y3;    
           y=Softmax(v);
           e=D_Train(:,I)-y;
    

    BP算法+Delta规则+交叉熵代价函数
    %误差前向传播(交叉熵+softmax)

     delta=e;
       e3=W4'*delta;
       delta3=(v3>0).*e3;
       e2=W3'*delta3;
       delta2=(v2>0).*e2;
       e1=W2'*delta2;
       E2=reshape(e1,size(Y2));
       E1=zeros(size(Y1));E2_4=E2/4;
       E1(1:2:end,1:2:end,:)=E2_4;
       E1(1:2:end,2:2:end,:)=E2_4;
       E1(2:2:end,1:2:end,:)=E2_4;
       E1(2:2:end,2:2:end,:)=E2_4;
       delta1=(V1>0).*E1;
    

    2.2.5 动量算法+SGD更新权值

                [a,b,c]=size(W1);
           for t=1:c
               dW1(:,:,t)=alpha* conv2(X_Train(:,:,I),rot90(delta1(:,:,t),2),'valid');
               mmt1(:,:,t)= dW1 (:,:,t)+ beta*mmt1(:,:,t);
               W1(:,:,t)=W1(:,:,t)+mmt1(:,:,t);
     %         W1(:,:,t)=W1(:,:,t)+dW1(:,:,t);
           end
              dW4=alpha*delta*y3';
              mmt4 = dW4 + beta*mmt4;
              W4   = W4 + mmt4;
     %        W4   = W4 +dW4;
              dW3=alpha*delta3*y2';
              mmt3 = dW3 + beta*mmt3;
              W3   = W3 + mmt3;
     %        W3   = W3 +dW3;
              dW2=alpha*delta2*y1';
              mmt2 = dW2 + beta*mmt2;
              W2   = W2 + mmt2;
     %        W2   = W2 +dW2;
    end
    
    toc
    

    2.2.6 评估训练效果
    %%统计正确率的代码:

    acc=accuracy(W1,W2,W3,W4,X_Test,D_Test);
    end
    

    3.实验结果

    在这里插入图片描述
    在这里插入图片描述
    上图分别为四轮次和单轮的最佳运行效果,成功达到了要求。

    4.实验结果分析

    通过对网络结构,算法,权值的不断调整,获得了目前最好的结果(98%+正确率)。通过对训练后的权值和初始化的权值对比,不断调整其参数,尽量让初始化权值大小和训练后的结果差不多大,这样的训练效果最好。在SGD,小批量,批量中,根据运行的时间和精度不断比较,最终还是选择SGD算法最优。而动量算法对准确率提升不大,但是提升了稳定性,也提高了更新速度。在特征提取网络中,从一个隐层变成两个隐层,对实验结果精确率也有所帮助。而学习速率和动量算法的步进速率的选取,只能通过一次次实验寻找合适的值。一轮训练效果不够理想,所以进行了多轮训练。对于dropout,多轮次训练中可以有效解决过拟合问题。我也尝试了20001000100*10的分类层,虽然不符合设计要求,可是我发现节点更多,训练效果会更好一些。最高跑过10轮,可以达到98.9%的准确率。

    5.结论

    *卷积神经网络在图像、视频、语音和文本处理中取得了较多突破。在这一次的设计中,通过对代码的查找,修改,理解,自己从底层了解了卷积神经网络的一些概念,算法,优化方法。而且我认为只有如此才能理解其他编程软件的框架的由来,每一步在做什么。当然,也通过这次设计熟悉掌握了卷积神经网络在matlab上的代码操作。简单实现这次目标检测后,我也深刻认识到他还需要我更进一步的研究。
    首先,由于CNN层数变得越来越深,人们对大规模的有效数据和高性能的计算能力也提出了越来越多的要求。同时,传统的人工搜集标签数据要求投入大量的人力和物力,这也导致了成本的提升,所以,无监督式的CNN学习方式越来越重要。
    其次,为了提高CNN训练速度,一般采用某些异步的SGD算法,通过CPU和GPU集群可以得到一定的效果,但同时对硬件配置提出了一定的要求。因此,开发高效可扩展的训练算法依然有重要的实际价值。此外,深度模型在训练过程中往往需要在较长时间内占据较多的内存空间,对运行环境也带来了较大的压力。因此,在保证准确度的情况下,如何降低复杂性并快速训练得到模型,也是重要的研究方向。
    再次,CNN应用于不同的任务要面临的关键问题是如何选择合适的训练参数,例如学习率、卷积核大小、卷积和池化层数等,这要求较多的技术积累和经验总结。这些训练参数存在内部相关性,也为参数调整带来较高的成本。因此,在CNN架构的选择上,依然值得我们去深入研究。

    展开全文
  • 经典蝙蝠算法MATLAB实现

    万次阅读 多人点赞 2019-02-24 21:19:42
    为什么会有这么多基于群智能的算法,蚁群、粒子群、鱼群、烟花、炮竹、猪群、牛群、马群、羊群、猴群、鸡群。。。算法。?????? 黑人问号.jpg 蝙蝠算法( BA) 是 Yang 教授于 2010 年基于群体智能提出的启发式...

    为什么会有这么多基于群智能的算法,蚁群、粒子群、鱼群、烟花、炮竹、猪群、牛群、马群、羊群、猴群、鸡群。。。算法。??????
    黑人问号.jpg
    在这里插入图片描述
    蝙蝠算法( BA) 是 Yang 教授于 2010 年基于群体智能提出的启发式搜索算法,是一种搜索全局最优解的有效方法。该算法是一种基于迭代的优化技术,初始化为一组随机解,然后 通过迭代搜寻最优解,且在最优解周围通过随机飞行产生局部新解,加强了局部搜索。与其他算法相比,BA 在准确性和有效性方面远优于其他算法,且没有许多参数要进行调整。

    BA算法是模拟自然界中蝙蝠利用一种声呐来探测猎物、避免障碍物的随机搜索算法即模拟蝙蝠利用超声波对障碍物或猎物进行最基本的探测、定位能力并将其和优化目标功能相联系。BA算法的仿生原理将种群数量为的蝙蝠个体映射为D维问题空间中的NP个可行解,将优化过程和搜索模拟成种群蝙蝠个体移动过程和搜寻猎物利用求解问题的适应度函数值来衡量蝙蝠所处位置的优劣,将个体的优胜劣汰过程类比为优化和搜索过程中用好的可行解替代较差可行解的迭代过程。在蝙蝠搜索算法中,为了模拟蝙蝠探测猎物、避免障碍物,需假设如下三个近似的或理想化的规则:

    1)所有蝙蝠利用回声定位的方法感知距离,并且它们采用一种巧妙的方式来区别猎物和背景障碍物之间的不同。
    2)蝙蝠在位置xi以速度vi随机飞行,以固定的频率fmin、可变的波长λ和音量A0来搜索猎物。蝙蝠根据自身与目标的邻近程度来自动调整发射的脉冲波长(或频率)和调整脉冲发射率r属于[0,1]
    3)虽然音量的变化方式有多种但在蝙蝠算法中, 假定音量A是从一个最大值A0(整数)变化到固定最小值Amin
    伪代码:
    在这里插入图片描述
    Maltab实现:
    主函数代码:

    function [bestMin, bestID] = MYBA()
    %A new modification approach on bat algorithm for solving optimization problems
     
    %omegaxyz.com 2019212日
     
    clc
    %% BA参数设置
     
    t = 1; 
    maxT = 500; %最大迭代次数
    dim = 30; %问题的维度
    sizep = 50; %种群大小
    xmin = -100;
    xmax = 100; %位置向量的范围
     
    A = 0.6.*ones(sizep,1);    % 响度 (不变或者减小)
    r = zeros(sizep,1);      % 脉冲率 (不变或增加))
    r0 = 0.7;
    Af = 0.9;
    Rf = 0.9;
    Qmin = 0;         % 最小频率
    Qmax = 1;         % 最大频率
     
    %% 初始化
     
    Lb = xmin*ones(1,dim);
    Ub = xmax*ones(1,dim);
    pop = Lb+(Ub-Lb).*rand(sizep,dim); %种群初始化
    popv = zeros(sizep,dim);   % 速度
    Q = zeros(sizep,1);   % 频率
     
    pfitness = zeros(dim,1);
    for i = 1:sizep
        pfitness(i) = evaluate(pop(i,:)); %评价
    end
    [bestMin, bestID]=min(pfitness);
    bestS = pop(bestID, :);
    bestArchive = zeros(maxT,1);
    %% 具体迭代过程
     
    while t <= maxT
        for i = 1:sizep
            Q(i)=Qmin+(Qmax-Qmin)*rand();
            popv(i,:)=popv(i,:)+(pop(i,:)-bestS)*Q(i);
            Stemp = pop(i,:)+popv(i,:);
            % 脉冲率
             if rand>r(i)
                 Stemp=bestS-1+2*rand(1,dim);
             end
             fitTemp = evaluate(Stemp);
             if (fitTemp<=pfitness(i))&&(rand()<A(i))
                pop(i,:) = Stemp;
                pfitness(i) = fitTemp;
                A(i) = Af*A(i);
                r(i) = r0*(1-exp(-Rf*t));
             end
             if fitTemp <= bestMin
                bestMin = fitTemp;
             	bestS = Stemp;
             end
        end
        bestArchive(t) = bestMin;
        fprintf('GEN: %d  min: %.4f\n', t, bestMin);
        t = t +1;
    end
     
     
    end
    

    评价函数:
    可以自己改

    function z=evaluate(u)
        %Axis parallel hyperellipoid
        dim=size(u,2);
        z=sum((2:dim).*((u(2:dim)).^2));
    end
    

    更多内容访问 omegaxyz.com
    网站所有代码采用Apache 2.0授权
    网站文章采用知识共享许可协议BY-NC-SA4.0授权
    © 2019 • OmegaXYZ-版权所有 转载请注明出处

    展开全文
  • matlab人脸识别论文

    万次阅读 多人点赞 2019-10-11 17:41:51
    本文设计了一种基于BP神经网络的人脸识别系统,并对其进行了性能分析。该系统首先利用离散小波变换获取包含人脸图像大部分原始信息的低频分量,对图像数据进行降维;再由PCA算法对人脸图像进行主成分特征提取,进--步...

    摘 要

     本文设计了一种基于BP神经网络的人脸识别系统,并对其进行了性能分析。该系统首先利用离散小波变换获取包含人脸图像大部分原始信息的低频分量,对图像数据进行降维;再由PCA算法对人脸图像进行主成分特征提取,进--步降低图像数据的处理量;最后使用经过训练后的BP神经网络对待测人脸进行分类识别。详细介绍了离散小波变换PCA特征提取以及BP神经网络分类设计。通过系统仿真实验与分析发现:人脸特征的提取是该系统的关键;同时,由于人脸灰度信息的统计特征与有监督训练BP神经网络分类器,使该系统只在固定类别,并且光照均匀的人脸识别应用场景中具有较高的识别准确率。因此,很难在复杂环境中应用。
    

    关键词:人脸识别;人工神经网络;离散小波变换; PCA; BP神经网络
    Abstract
    In this paper, a face recognition system based on BP neural network is designed and its performance is analyzed. The system first uses discrete wavelet transform to obtain the low-frequency components which contain most of the original information of the face image, and then uses PCA algorithm to extract the principal component features of the face image, progressively reducing the processing capacity of the image data. Finally, the trained BP neural network is used to classify and recognize the tested face. Discrete wavelet transform PCA feature extraction and BP neural network classification design are introduced in detail. Through the system simulation experiment and analysis, it is found that the extraction of facial features is the key of the system. At the same time, because of the statistical features of gray information and the supervised training of BP neural network classifier, the system only has a high recognition accuracy in fixed categories and uniform illumination of face recognition application scenarios. Therefore, it is difficult to apply in complex environment.

    Key words: face recognition; artificial neural network; discrete wavelet transform; PCA; BP neural network
    1绪论

      人脸识别是模式识别研究的一个热点,它在身份鉴别、信用卡识别,护照的核对及监控系统等方面有着I泛的应用。人脸图像由于受光照、表情以及姿态等因索的影响,使得同一个人的脸像矩阵差异也比较大。因此,进行人脸识别时,所选取的特征必须对上述因素具备-一定的稳定性和不变性。主元分析(PCA)方法是一种有效的特征提取方法,将人脸图像表示成一一个列向量,经过PCA变换后,不仅可以有效地降低其维数,同时又能保留所需要的识别信息,这些信息对光照、表情以及姿态具有一定的不敏感性。 在获得有效的特征向量后,关键问题是设计具有良好分类能力和鲁棒性的分类器、支持向量机(SVI )模式识别方法,兼顾调练误差和泛化能力,在解决小样本、非线性及高维模式识别问题中表现出许多特有的优势。
    

    1.1人脸识别技术的细节

    一般来说,人脸识别系统包括图像提取、人脸定位、图形预处理、以及人脸识别(身份确认或者身份查找)。系统输入一般是一张或者一系列含有未确定身份的人脸图像,以及人脸数据库中的若干已知身份的人脸图像或者相应的编码,而其输出则是一系列相似度得分,表明待识别的人脸的身份。
    1.2人脸识别技术的广泛应用

    一项技术的问世和发展与人类的迫切需求是密切相关的,快速发展的社会经济和科学技术使得人类对安全(包括人身安全、隐私保护等)得认识越来越重视。人脸识别得一个重要应用就是人类的身份识别。一-般来说, 人类得身份识别方式分为三类:
    1.特征物品,包括各种证件和凭证,如身份证、驾驶证、房门钥匙、印章等;
    2.特殊知识,包括各种密码、口令和暗号等;

    3.人类生物特征,包括各种人类得生理和行为特征,如人脸、指纹、手形、掌纹、虹膜. DNA、签名、语音等。前两类识别方式属于传统的身份识别技术,其特点是方便、快捷,但致命的缺点是安全性差、易伪造、易窃取。特殊物品可能会丢失、偷盗和复制,特殊知识可以被遗忘、混淆和泄漏。相比较而言,由于生物特征使人的内在属性,具有很强的自身稳定性和个体差异性,因此生物特征是身份识别的最理想依据。基于以上相对独特的生物特征,结合计算机技术,发展了众多的基于人类生物特征的身份识别技术,如DNA识别技术、指纹识别技术、虹膜识别技术、语音识别技术和人脸识别技术等。生物识别技术在上个世纪已经有了- -定得发展,其中指纹识别技术已经趋近成熟,但人脸识别技术的研究还处于起步阶段。指纹、虹膜、掌纹等识别技术都需要被识别者的配合,有的识别技术还需要添置复杂昂贵的设备。人脸识别可以利用已有的照片或是摄像头远距离捕捉图像,无需特殊的采集设备,系统的成本低。并且自动人脸识别可以在当事人毫无觉察的情况下完成身份确认识别工作,这对反恐怖活动有非常重要的意义。基于人脸识别技术具有如此多的优势,因此它的应用前最非常广阔,已成为最具潜力的生物特征识别技术之一
    1.3人脸识别技术的难点

      虽然人类可以毫不困难地根据人脸来辨别一个人,但是利用计算机进行完全自动的人脸识别仍然有许多困难。人脸模式差异性使得人脸识别成为-个非常困难的问题,表现在以下方面:
    
      1.人脸表情复杂,人脸具有多样的变化能力,人的脸上分布着Ii十多块面部肌肉,这些肌肉的运动导致不同面部表情的出现,会造成人脸特征的显著改变。
    
      2.随着年龄而改变,随着年龄的增长,皱纹的出现和面部肌肉的松驰使得人脸的结构和纹理都将发生改变。
    
      3.人脸有易变化的附加物,例如改变发型,留胡须,戴帽子或眼镜等饰物。4.人脸特征遮掩,人脸全部、部分遮掩将会造成错误识别。
    
      5.人脸图像的畸变,由于光照、视角、摄取角度不同,可能造成图像的灰度。
    

    1.4国内外研究状况

    人脸识别是人类视觉最杰出的能力之-。 它的研究涉及模式识别、图像处理、生物学、心理学、认知科学,与基于其它生物特征的身份鉴别方法以及计算机人机感知交互领域都有密切联系。人脸识别早在六七十年代就引起了研究者的强烈兴趣。20世纪60年代,Bledsoe 提出了人脸识别的半自动系统模式与特征提取方法。70年代,美、英等发达国家开始重视人脸识别的研究工作并取得进展。1972 年,Harmon 用交互人脸识别方法在理论上与实践上进行了详细的论述。同年,Sakai 设计了人脸图像自动识别系统。80年代初
    T. Minami 研究出了优于Sakai的人脸图像自动识别系统。但早期的人脸识别一般都需要人的某些先验知识,无法摆脱人的干预。进入九十年代,由于各方面对人脸识别系统的迫切需求,人臉识别的研究变的非常热门。人脸识别的方法有了重大突破,进入了真正的机器自动识别阶段,如Kartbunen-Loeve变换等或新的神经网络技术。人脸识别研究

    得到了前所未有的重视,国际上发表有关人脸识别等方面的论文数量大幅度增加,仅从1990年到2000年之间,sCl 及EI可检索到的相关文献多达数千篇,这期间关于人脸识别的综述也屡屡可见。国外有许多学校在研究人脸识别技术,研究涉及的领域很广。这些研究受到军方、警方及大公司的高度重视和资助,国内的一些知名院校也开始从事人脸识别的研究。

      人脸识别是当前模式识别领域的一个前沿课题,但目前人脸识别尚处于研究课题阶段,尚不是实用化领域的活跃课题。虽然人类可以毫不困难地由人脸辨别一个人,但利用计算机进行完全自动的人脸识别存在许多困难,其表现在:人脸是非刚体,存在表情变化:人脸随年龄增长面变化:发型、眼镜等装饰对人脸造成遮挡:人脸所成图像受光照、成像角度、成像距离等影响。人脸识别的困难还在于图像包括大量的数据,输入的像素可能成百上千,每个像素都含有各自不同的灰度级,由此带来的计算的复杂度将会增加。现有的识别方法中,通过从人脸图像中提取出特征信息,来对数据库进行检索的方法速度快,而利用拓扑属性图匹配来确定匹配度的方法则相对较快。
    

    1.5人脸识别的研究内容

    人脸识别技术(AFR)就是利用计算机技术,根据数据库的人脸图像,分析提取出有效的识别信息,用来“辨认”身份的技术。人脸识别技术的研究始于六十年代末七十年代初,其研究领城涉及图像处理、计算机视觉、模式识别、计算机智能等领城,是伴随着现代化计算机技术、数据库技术发展起来的综合交叉学科。
    1.5.1人脸识别研究内容

      人脸识别的研究范围广义上来讲大致包括以下hi个方面的内容。
    
      1.人脸定位和检测(Face Detection) :即从动态的场景与复杂的背景中检测出人臉的存在并且确定其位置,最后分离出来。这一任务主要受到光照、噪声、面部倾斜以及各种各样遮挡的影响。
    
      2.人脸表征(Face Representation) (也称人脸特征提取) :即采用某种表示方法来表示检测出人脸与数据库中的已知人脸。通常的表示方法包括几何特征(如欧氏距离、曲率、角度)、代数特征(如矩阵特征向量)、固定特征模板等。
    
      3.人脸识别(Face Recogni tion) :即将待识别的人脸与数据库中已知人脸比较,得出相关信息。这一过程的核心是选择适当的人脸表征方法与匹配策略。
    
      4.表情姿态分析(Expression/Gesture Analysis) :即对待识别人脸的表情或姿态信息进行分析,并对其加以归类。
    
    
      5.生理分类(Physical Classi fication) :即对待识别人脸的生理特征进行分析,得出其年龄、性别等相关信息,或者从几幅相关的图像推导出希望得到的人脸图像,如从父母图像推导出孩子脸部图像和基于年龄增长的人脸图像估算等。
    
      人臉识别的研究内容,从生物特征技术的应用前景来分类,包括以下两个方面:人脸验证与人脸识别。
    
      1.人脸验证((Face Veri ficat ion/Authenticat ion):即是回答“是不是某人?"的问题.它是给定一幅待识别人脸图像,判断它是否是某人的问题,属于一对一的两类模式分类问题,主要用于安全系统的身份验证。
    
      2.人脸识别(Face 。Recognition) :即是回答“是谁”的问题。它是给定-幅待识别人脸图像,再已有的人脸数据库中,判断它的身份的问题。它是个“-对多”的多类模式分类问题,通常所说的人脸识别即指此类问题,这也是本文的主要研究内容。
    

    1.5.2人脸识别系统的组成

      在人脸识别技术发展的几十年中,研究者们提出了多种多样的人脸识别方法,但大部分的人脸识别系统主要由三部分组成:图像预处理、特征提取和人脸的分类识别。一个完整的自动人脸识别系统还包括人脸检测定位和数据库的组织等模块,如图1.1.其中人脸检测和人脸识别是整个自动人脸识别系统中非常重要的两个环节,并且相对独立。下面分别介绍这两个环节。
    

    人脸检测与定位,检测图像中是否由人脸,若有,将其从背景中分割出来,并确定其在图
    像中的位置。在某些可以控制拍摄条件的场合,如警察拍罪犯照片时将人脸限定在标尺内,此时人脸的定位很简单。证件照背景简单,定位比较容易。在另一些情况下,人脸在图像
    中的位置预先是未知的,比如在复杂背景下拍摄的照片,这时人脸的检测与定位将受以下因素的影响: :

      1.人脸在图像中的位置、角度、不固定尺寸以及光照的影响:
    
      2.发型、眼睛、胡须以及人脸的表情变化等,3.图像中的噪声等。
    
      特征提取与人脸识别,特征提取之前一般都要敌几何归一化和灰度归一化的工作。前者指根据人脸定位结果将图像中的人脸变化到同一位置和大小:后者是指对图像进行光照补偿等处理,以克服光照变化的影响,光照补偿能够一定程度的克服光照变化的影响而提高识别率。提取出待识别的人脸特征之后,即进行特征匹配。这个过程是一对多或者一对一的匹配过程,前者是确定输入图像为图象库中的哪一个人(即人脸识别),后者是验证输入图像的人的身份是否属实(人脸验证).  
    

    以上两个环节的独立性很强。在许多特定场合下人脸的检测与定位相对比较容易,因此“特征提取与人脸识别环节”得到了更广泛和深入的研究。近几年随着人们越来越关心各种复杂的情形下的人臉自动识别系统以及多功能感知研究的兴起,人脸检测与定位才作为一个独立的模式识别问题得到了较多的重视。本文主要研究人脸的特征提取与分类识别的问题。

    2基于bp神经网络的人脸识别算法

      虽然人脸识别方法的分类标准可能有所不同,但是8前的研究主要有两个方向,一类是从人脸图像整体(Holistic Approaches)出发,基于图像的总体信息进行分类识别,他重点考虑了模式的整体属性,其中较为著名的方法有:人工神经网络的方法、统计模式的方法等。另一类是基于提取人脸图像的几何特征参数(Feature-Based Approaches), 例如眼、嘴和鼻子的特征,再按照某种距离准则进行分类识别。这种方法非常有效,因为人脸不是刚体,有着复杂的表情,对其严格进行特征匹配会出现困难。面分别介绍- -些常 用的方法,前两种方法属于从图像的整体方面进行研究,后三种方法主要从提取图像的局部特征讲行研究。
    
    
      2.1基于特征脸的方法
    

    特征脸方法(cigenface)是从生元分析方法PCA c Principal ComponentAnalysis 导出的一种人脸分析识别方法,它根据一-组人脸图像构造主元子空间,由于主元具有人脸的形状也称作特征脸。识别时将测试图像投影到主元子空间上得到了-组投影系数,然后和各个已知人的人脸图像进行比较识别,取得了很好的识别效果。在此基础上出现了很多特征脸的改进算法。

      特征脸方法原理简单、易于实现,它把人脸作为一个整体来处理,大大降低了识别复杂度。但是特征脸方法忽视了人脸的个性差异,存在着一定的理论缺陷。研究表明:特征脸方法随光线角度及人脸尺寸的影响,识别率会有所下降。
    

    2.2基于bp神经网络的方法

    一、实验要求采用三层前馈BP神经网络实现标准人脸YALE数据库的识别,编程语言为C系列语言。
    二、BP神经网络的结构和学习算法实验中建议采用如下最简单的三层BP神经网络,输入层为,有n个神经元节点,输出层具有m个神经元,网络输出为,隐含层具有k个神经元,采用BP学习算法训练神经网络。BP神经网络的结构BP网络在本质上是一种输入到输出的映射,它能够学习大量的输入与输出之间的映射关系,而不需要任何输入和输出之间的精确的数学表达式,只要用已知的模式对BP网络加以训练,网络就具有输入输出对之间的映射能力。BP网络执行的是有教师训练,其样本集是由形如(输入向量,期望输出向量)的向量对构成的。在开始训练前,所有的权值和阈值都应该用一些不同的小随机数进行初始化。BP算法主要包括两个阶段:

    2.2.1向前传播阶段

    ①从样本集中取一个样本(Xp,Yp),将Xp输入网络,其中Xp为输入向量,Yp为期望输出向量。
    ②计算相应的实际输出Op。在此阶段,信息从输入层经过逐级的变换,传送到输出层。这个过程也是网络在完成训练后正常运行时执行的过程。在此过程中,网络执行的是下列运算:

    (2) 向后传播阶段
    ①计算实际输出Op与相应的理想输出Yp的差;
    ②按极小化误差的方法调整权矩阵。这两个阶段的工作一般应受到精度要求的控制

    (1)作为网络关于第p个样本的误差测度(误差函数)。

    (2)如前所述,之所以将此阶段称为向后传播阶段,是对应于输入信号的正常传播而言的,也称之为误差传播阶段。为了更清楚地说明本文所使用的BP网络的训练过程,首先假设输入层、中间层和输出层的单元数分别是N、L和M。X=(x0,x1,…,xN-1)是加到网络的输入矢量,H=(h0,h1,…,hL-1)是中间层输出矢量,Y=(y0,y1,…,yM-1)是网络的实际输出矢量,并且用D=(d0,d1,…,dM-1)来表示训练组中各模式的目标输出矢量。输出单元i到隐单元j的权值是Vij,而隐单元j到输出单元k的权值是Wjk。另外用θk和Φj来分别表示输出单元和隐单元的阈值。于是,中间层各单元的输出为:

    (3)而输出层各单元的输出是:

    其中f(*)是激励函数,采用S型函数:

    2.2.2在上述条件下,网络的训练过程如下:

    (1) 选定训练集。由相应的训练策略选择样本图像作为训练集。
    (2) 初始化各权值Vij,Wjk和阈值Φj,θk,将其设置为接近于0的随机值,并初始化精度控制参数ε和学习率α。
    (3) 从训练集中取一个输入向量X加到网络,并给定它的目标输出向量D。
    (4) 利用式(3)计算出一个中间层输出H,再用式(4)计算出网络的实际输出Y。
    (5) 将输出矢量中的元素yk与目标矢量中的元素dk进行比较,计算出M个输出

    误差项:

    对中间层的隐单元也计算出L个误差项:

    (6) 依次计算出各权值和阈值的调整量:

    (8) 当k每经历1至M后,判断指标是否满足精度要求:E≤ε,其中E是总误差函数。

    如果不满足,就返回(3),继续迭代。如果满足,就进入下一步。
    (9) 训练结束,将权值和阈值保存在文件中。这时可以认为各个权值已经达到稳定,分类器形成。再一次进行训练时,直接从文件导出权值和阈值进行训练,不需要进行初始化。

    YALE数据库是由耶鲁大学计算视觉与扼制中心创立,包括15位志愿者,每个人有11张不同姿势、光照和表情的图片,共计165张图片,图片均为80*100像素的BMP格式图像。我们将整个数据库分为两个部分,每个人的前5幅图片作为网络的训练使用,后6副图片作为测试使用。测试样例:

    输入输出:

      神经网络在人脸识别应用中有很长的历史。早期用于人脸识别的神经网络主要是Kohonen自联想映射神经网络,用于人脸的“回忆”。所谓“回忆”是指当输入图像上的人脸受噪声污染严重或部分缺损时,能用Kohonen网络恢复出原来完整的人脸。Intrator 等人用一个无监督/监督混合神经网络进行人脸识别。其输入是原始图像的梯度图像,以此可以去除光照的变化。监督学习目的是寻找类的特征,有监督学习的目的是减少训练样本被错分的比例。这种网络提取的特征明显,识别率高,如果用几个网络同时运算,求其平均,识别效果还会提高。
    
      与其他类型的方法相比,神经网络方法在人脸识别上有其独到的优势,它避免了复:杂的特征提取工作,可以通过学习的过程获得其他方法难以实现的关于人脸识别的规律和规则的隐性表达。此外,神经网络以时示方式处理信息,如果能用硬件实现,就能显著提高速度。神经网络方法除了用于人脸识别外,还适用于性别识别、种族识别等。
    

    2.3弹性图匹配法

    弹性图匹配方法是-种基于动态链接结构DLA C Dynamic Link Architecture的方法。它将人脸用格状的稀疏图表示,图中的节点用图像位置的Gabor小波分解得到的特征向量标记,图的边用连接节点的距离向量标记。匹配时,首先J找与输入图像最相似的模型图,再对图中的每个节点位置进行最佳匹配,这样产生-一个变形图,其节点逼近模型图的对应点的位置。弹性图匹配方法对光照、位移、旋转及尺度变化都敏感。此方法的主要缺点是对每个存储的人臉需计算其模型图,计算量大,存储量大。为此,Wiskott 在原有方法的基础上提出聚東图匹配,部分克服了这些缺点。在聚束图中,所有节点都已经定位在相应目标上。对于大量数据库,这样可以大大减少识别时间。另外,利用聚束图还能够匹配小同人的最相似特征,因此可以获得关于未知人的性别、胡须和眼镜等相关信息。
    2.4基于模板匹配的方法
    模板匹配法是一-种经典的模式识别方法,这种方法大多是用归一一化和互相关,直接计算两副图像之间的匹配程度。由于这种方法要求两副图像上的目标要有相同的尺度、取向和光照条件,所以预处理要做尺度归一化和灰度归一化的工作。最简单的人脸模板是将人脸看成-一个椭圆,检测人臉也就是检测图像中的椭圆。另一种方法是将人脸用一-组独立的小模板表示,如眼睛模板、嘴巴模板、鼻子模板、眉毛模板和下巴模板等。但这些模板的获得必须利用各个特征的轮廓,而传统的基于边缘提取的方法很难获得较高的连续边缘。即使获得了可靠度高的边缘,也很难从中自动提取所需的特征量。模板匹配方法在尺度、光照、旋转角度等各种条件稳定的状态下,它的识别的效果优于其它方法,但它对光照、旋转和表情变化比较敏感,影响了它的直接使用。2.5基于人脸特征的方法人脸由眼睛、鼻子、嘴巴、下巴等部件构成,正因为这些部件的形状、大小和结构上的各种差异才使得世界上每个人脸千差万别,因此对这些部件的形状和结构关系的几何描述,可以作为人脸识别的重要特征。几何特征最早是用于人脸检测轮廓的描述与识别,首先根据检测轮廓曲线确定若干显著点,并由这些显著点导出- -组用于识别的特征度量如距离、角度等。采用儿何特征进行正面人脸识别一般是通过提取人眼、口、鼻等重要特征点的位置和眼睛等重要器官的几何形状作为分类特征。
    定位眼睛往往是提取人脸几何特征的第-步。由于眼睛的对称性以及眼珠呈现为低灰度值的圆形,因此在人脸图像清晰瑞正的时候,眼睛的提取是比较容易的。但是如果人脸图像模糊,或者噪声很多,则往往需要利用更多的信息(如眼睛和眉毛、鼻子的相对位置等),而且.这将使得眼睛的定位变得很复杂。而且实际图像中,部件未必轮廓分明,有时人用眼看也只是个大概,计算机提取就更成问题,因而导致描述同-一个人的不同人脸时,其模型参数可能相差很大,面失去识别意义。尽管如此,在正确提取部件以及表情变化微小的前提下,该方法依然奏效,因此在许多方面仍可应用,如对标准身份证照片的应用。

    2.5九个人脸库介绍

    1. FERET人脸数据库
      http://www.nist.gov/itl/iad/ig/colorferet.cfm
      由FERET项目创建,此图像集包含大量的人脸图像,并且每幅图中均只有一个人脸。该集中,同一个人的照片有不同表情、光照、姿态和年龄的变化。包含1万多张多姿态和光照的人脸图像,是人脸识别领域应用最广泛的人脸数据库之一。其中的多数人是西方人,每个人所包含的人脸图像的变化比较单一。

    2. CMU Multi-PIE人脸数据库
      http://www.flintbox.com/public/project/4742/
      由美国卡耐基梅隆大学建立。所谓“PIE”就是姿态(Pose),光照(Illumination)和表情(Expression)的缩写。CMU Multi-PIE人脸数据库是在CMU-PIE人脸数据库的基础上发展起来的。包含337位志愿者的75000多张多姿态,光照和表情的面部图像。其中的姿态和光照变化图像也是在严格控制的条件下采集的,目前已经逐渐成为人脸识别领域的一个重要的测试集合。

    3. YALE人脸数据库(美国,耶鲁大学)
      http://cvc.cs.yale.edu/cvc/projects/yalefaces/yalefaces.html
      由耶鲁大学计算视觉与控制中心创建,包含15位志愿者的165张图片,包含光照、表情和姿态的变化。
      Yale人脸数据库中一个采集志愿者的10张样本,相比较ORL人脸数据库Yale库中每个对象采集的样本包含更明显的光照、表情和姿态以及遮挡变化。

    4. YALE人脸数据库B
      https://computervisiononline.com/dataset/1105138686
      包含了10个人的5850幅在9种姿态,64种光照条件下的图像。其中的姿态和光照变化的图像都是在严格控制的条件下采集的,主要用于光照和姿态问题的建模与分析。由于采集人数较少,该数据库的进一步应用受到了比较大的限制。

    5. MIT人脸数据库
      由麻省理工大学媒体实验室创建,包含16位志愿者的2592张不同姿态(每人27张照片),光照和大小的面部图像。

    6. ORL人脸数据库
      https://www.cl.cam.ac.uk/research/dtg/attarchive/facedatabase.html
      由英国剑桥大学AT&T实验室创建,包含40人共400张面部图像,部分志愿者的图像包括了姿态,表情和面部饰物的变化。该人脸库在人脸识别研究的早期经常被人们采用,但由于变化模式较少,多数系统的识别率均可以达到90%以上,因此进一步利用的价值已经不大。
      ORL人脸数据库中一个采集对象的全部样本库中每个采集对象包含10幅经过归一化处理的灰度图像,图像尺寸均为92×112,图像背景为黑色。其中采集对象的面部表情和细节均有变化,例如笑与不笑、眼睛睁着或闭着以及戴或不戴眼镜等,不同人脸样本的姿态也有变化,其深度旋转和平面旋转可达20度。

    7. BioID人脸数据库
      https://www.bioid.com/facedb/
      包含在各种光照和复杂背景下的1521张灰度面部图像,眼睛位置已经被手工标注。

    8. UMIST图像集
      由英国曼彻斯特大学建立。包括20个人共564幅图像,每个人具有不同角度、不同姿态的多幅图像。

    9. 年龄识别数据集IMDB-WIKI
      https://data.vision.ee.ethz.ch/cvl/rrothe/imdb-wiki/
      包含524230张从IMDB和Wikipedia爬取的名人数据图片。应用了一个新颖的化回归为分类的年龄算法。本质就是在0-100之间的101类分类后,对于得到的分数和0-100相乘,并将最终结果求和,得到最终识别的年龄

    3matlab分析人脸方法介绍
    人脸识别之一:查找图片中的人脸并用方框圈出
    这种类似于智能手机拍照时,屏幕里那个框任务头部的红框。大致步骤为:获取RGB图片—>转换为灰度图像—>图像处理—>人脸识别。代码如下:clear all
    clc

    %获取原始图片
    i=imread(‘face.jpg’);
    I=rgb2gray(i);
    BW=im2bw(I); %利用阈值值变换法将灰度图像转换成二进制图像
    figure(1);
    imshow(BW);
    %最小化背景
    [n1 n2]=size(BW);
    r=floor(n1/10);
    c=floor(n2/10);
    x1=1;x2=r;
    s=r*c;

    for i=1:10
    y1=1;y2=c;
    for j=1:10
    if(y2<=c || y2>=9c) || (x11 || x2r10)
    loc=find(BW(x1:x2,y1:y2)==0);
    [o p]=size(loc);
    pr=o*100/s;
    if pr<=100
    BW(x1:x2,y1:y2)=0;
    r1=x1;r2=x2;s1=y1;s2=y2;
    pr1=0;
    end
    imshow(BW);
    end
    y1=y1+c;
    y2=y2+c;
    end
    x1=x1+r;
    x2=x2+c;
    end
    figure(2)
    subplot(1,2,1);
    imshow(BW)
    title(‘图像处理’);
    %人脸识别
    L=bwlabel(BW,8);
    BB=regionprops(L,‘BoundingBox’);
    BB1=struct2cell(BB);
    BB2=cell2mat(BB1);

    [s1 s2]=size(BB2);
    mx=0;
    for k=3:4:s2-1
    p=BB2(1,k)*BB2(1,k+1);
    if p>mx && (BB2(1,k)/BB2(1,k+1))<1.8
    mx=p;
    j=k;
    end
    end
    subplot(1,2,2);
    title(‘人脸识别’);
    imshow(I);
    hold on;
    rectangle(‘Position’,[BB2(1,j-2),BB2(1,j-1),BB2(1,j),BB2(1,j)],‘EdgeColor’,‘r’)实验效果图:

             从实验效果图中,可以看出红框框出了人脸部分。
    

    人脸识别之二:由输入的人像识别出数据库中人像
    这种情况类似于手机人脸解锁,通过当前的人脸去和保存的人脸做比对来实现解锁等功能;从网上看了好多资料,由于个人能力有限大多都没仿真出来,最后通过学习PCA算法,了解到可通过PCA算法对输入矩阵降维,提取特征值和特征向量的方式来做人脸比对。具体的PCA的东西在这里不作介绍,主要介绍一下如何实现人脸比对。
    大致步骤:制作人脸数据样本—>PCA提取样本数据特征值—>人脸比对1.人脸样本
    从网上搜集了10张人脸图片,来制作成样本。

                         %读取转换10张图片,生成数据矩阵function ImgData = imgdata()  
    

    %导入图片
    picture1 = rgb2gray(imread(‘1.jpg’));
    picture2 = rgb2gray(imread(‘2.jpg’));
    picture3 = rgb2gray(imread(‘3.jpg’));
    picture4 = rgb2gray(imread(‘4.jpg’));
    picture5 = rgb2gray(imread(‘5.jpg’));
    picture6 = rgb2gray(imread(‘6.jpg’));
    picture7 = rgb2gray(imread(‘7.jpg’));
    picture8 = rgb2gray(imread(‘8.jpg’));
    picture9 = rgb2gray(imread(‘9.jpg’));
    picture10 = rgb2gray(imread(‘10.jpg’));
    [m,n] = size(picture1);
    picture_ten = {picture1,picture2,picture3,picture4,picture5,picture6,picture7,picture8,picture9,picture10};
    for i=1:10
    %把mn的矩阵变换成1(mn)的矩阵
    ImgData(i,:) = reshape(picture_ten{i},1,m
    n);
    end
    %数据范围缩小到0到1之间
    ImgData = double(ImgData)/255;

    PCA分析function Cell_ten = PCA(imgdata,k)
    [m,n] = size(imgdata);
    img_mean = mean(imgdata); %计算每列平均值
    img_mean_ten = repmat(img_mean,m,1); %复制m行平均值至矩阵img_mean_ten
    Z = imgdata - img_mean_ten;
    T = Z’Z;%协方差矩阵
    [V,D] = eigs(T,k); %计算T中最大的前k个特征值与特征向量
    img_new = imgdata
    V*D; %低维度下的各个人脸的数据
    Cell_ten = {img_new,V,D};3.通过输入测试人脸从数据库中找到相对应人脸function face= facefind(Cell_ten,testdata)%此函数代码借鉴于他人,还未征求其同意,这里就暂时略过这里testdata是测试图片的数据4.主程序调用img=imgdata(); %图片矩阵数据
    Cell_ten=PCA(img,2);% PCA
    face1=facefind(Cell_ten,imread(‘test.jpg’));%识别
    subplot(1,2,1)
    imshow(‘test.jpg’)
    title(‘测试图像’)
    subplot(1,2,2)
    imshow(strcat(num2str(face1),’.jpg’))
    title(‘数据库图像’)测试效果: 使用这个方式可以实现简单的人脸识别,但精确度不高;

    4 分析算法
    在人脸识别系统中有许多关键环节,其中最重要的莫过于特征提取。利用主成分分析法(PCA)进行特征提取是目前应用最多的提取方法。作为一种科学的统计方法,它在模式识别、信号处理、数字图像处理等等领域都有广泛涉猎。基于PCA中空间原始数据主要特征提取,减少数据冗余的思想,一些在低维特征空间的数据被处理,并合理保留了原始数据中有用的信息,数据空间中维数过高的问题也得以解决。
    4.1  主成分分析的基本原理

    实际上主成分分析就是一种数学降维演算方法,用若干个综合变量来代替原本更多的变量,让这些综合变量尽可能的实现对原有变量信息的取代,并保持彼此之间不存在关联。这种多变量化为少数相互无关的变量且信息量不变的统计分析方法就叫做主成分分析法。
      假设F1表示原变量的首个线性组合所组成的主要成分指标,就有F1=a11X1+a21X2+…ap1Xp。根据这个数学式可知,如果在每一个主成分中提取一个信息量,即可用方差(F1)进行度量,随着方差F1的增大,F1所包含的信息也就越多,同时它的线性组合选取也可表示为X1、X2…XP,它们都被称为方差F1中的第一主成分。如果第一主成分不足以代表原有的P个变量信息时,就可以考虑选取F2,即第二个线性组合,借由它来反映原本的有效信息。在F2中可以不显示第一主成分中已有的信息,以数学语言来表达要求的话即Cov(F1,F2)=0,其中F2为第二主成分。所以按照实际原变量的变化需求,就可以构造出多个主成分指标。
      4.2人脸识别的技术特点

    人脸识别是模式识别中的重要分支,它是指通过计算机系统来分析人脸图像,从中获取有价值的识别信息,从而辨识身份。所以说从技术特点上来看,人脸识别具有以下几个关键特色。
     1、PCA算法
    算法大致步骤:
    设有m条n维数据。
    1)将原始数据按列组成n行m列矩阵X;
    2)将X的每一行(这里是图片也就是一张图片变换到一行)进行零均值化,即减去这一行的均值(样本中心化和标准化);将所有的样本融合到一个矩阵里面特征向量就是变换空间的基向量U=[u1,u2,u3,u4,…],脑袋里面要想到一个样本投影变换就是该空间的一个点,然后对于许多点可以用KNN等不同的方法进行分类。
    3)求出协方差矩阵C=1mXXTC=1mXXT C=\frac {1 }{m } XX^TC=m1XXT;
    4)求出协方差矩阵的特征值及对应的特征向量;
    5)将特征向量按对应特征值大小从上到下按行排列成矩阵,取前k行组成矩阵P;
    6)Y=PXY=PX Y=PXY=PX即为降维到kk kk维后的数据。
      对数据进行中心化预处理,这样做的目的是要增加基向量的正交性,便于高维度向低纬度的投影,即便于更好的描述数据。
      对数据标准化的目的是消除特征之间的差异性,当原始数据不同维度上的特征的尺度不一致时,需要标准化步骤对数据进行预处理,使得在训练神经网络的过程中,能够加速权重参数的收敛。
      过中心化和标准化,最后得到均值为0,标准差为1的服从标准正态分布的数据。
      求协方差矩阵的目的是为了计算各维度之间的相关性,而协方差矩阵的特征值大小就反映了变换后在特征向量方向上变换的幅度,幅度越大,说明这个方向上的元素差异也越大(越有投影的必要,矩阵相乘的过程就是投影),故而选取合适的前k个能以及小的损失来大量的减少元数据的维度。

    2、PCA原理推导
    基于K-L展开的PCA特征提取:

    5.算法优化方法
    我用了三种方法对其进行优化
    1.采用动量梯度下降算法训练 BP 网络。
    训练样本定义如下:
    输入矢量为
    p =[-1 -2 3 1
    -1 1 5 -3]
    目标矢量为 t = [-1 -1 1 1]
    2. 采用贝叶斯正则化算法提高 BP 网络的推广能力。在本例中,我们采用两种训练方法,即 L-M 优化算法(trainlm)和贝叶斯正则化算法(trainbr),用以训练 BP 网络,使其能够拟合某一附加有白噪声的正弦样本数据。其中,样本数据可以采用如下MATLAB 语句生成:
    输入矢量:P = [-1:0.05:1];
    目标矢量:randn(’seed’,78341223);
    T = sin(2piP)+0.1randn(size§);
    3. 采用“提前停止”方法提高 BP 网络的推广能力。对于和例 2相同的问题,在本例中我们将采用训练函数 traingdx 和“提前停止”相结合的方法来训练 BP 网络,以提高 BP 网络的推广能力。在利用“提前停止”方法时,首先应分别定义训练样本、验证样本或测试样本,其中,验证样本是必不可少的。在本例中,我们只定义并使用验证样本,即有
    验证样本输入矢量:val.P = [-0.975:.05:0.975]
    验证样本目标矢量:val.T = sin(2
    pival.P)+0.1randn(size(val.P))
    值得注意的是,尽管“提前停止”方法可以和任何一种 BP 网络训练函数一起使用,但是不适合同训练速度过快的算法联合使用,比如 trainlm 函数,所以本例中我们采用训练速度相对较慢的变学习速率算法 traingdx 函数作为训练函数。
    参考文献

    [1] HongZiquan.AlgbricFeatureExcaciofmftfoReonino[JPatteo Recognition. 1991. 22 (1) :43~44.
    [2] Yuille A L Detcction Templates for Face Recognitio[JCognitive Neuroscience , 1991. 191-200
    [3]卢春雨张长水局城区城特征的快速人脸检测法[D北京:清华大学学报.1999.96 (1) ;4-6.
    [4]陈刚,减飞虎实用人脸识别系统的本征脸法实现[D]2001年5月230():45-46.
    [
    5]杜平,徐大为,刘重庆,基F整体特征的人脸识别方法的研究[12003年6月49 (3) ;382-383.
    [6] Chow G, Li X. Towards A System for Automatic Facial Feature Detctio[U] 1993. 2903)2-3.
    [7]杨变若,王煎法,杨未来人脸全局特iE识别研究[Z]1997年11月3(5):; 871-875.
    [8]边肇棋,张学工阎平凡等模式识别D]北京:清华大学出版社2000 302)16-17.

    致 谢

      从毕业设计的选题到论文的指导到最后定稿,期间遇到了无数的困难和阻碍,也曾想过对自己降低要求,也曾想过放弃最初想要坚持的设计,但是最后在孙老师和同学的鼓励和陪伴下,努力克服了所有的困难,独立完成了毕业设计和论文的书写。尤其是要感射我的论文指导老师孙老师,不厌其烦的对我的设计进行指导修改,耐心的帮助我改进设计帮助我搜集相关的资料,感谢孙老师如母亲--般的关怀,在孙老师身上不仅学习到了对学术严谨的态度,更被孙老师亲切无私的个人魅力所感染。
    
      还要感谢我的同学和其他所有的老师,他们严谨的学术态度,宽容待人严于律己的处世风范都使我受益良多。
    
    展开全文
  • 基于SAGACIA优化方法的模糊控制规则优化及其MATLAB实现.pdf
  • 基于MATLAB的关联规则空间数据挖掘探讨——以济南市平阴县安城乡为例.pdf
  • 题为“使用时域和频域特征自动分类规则和不规则二氧化碳图段:一种基于机器学习的方法”的文章的源代码
  • 基于Matlab_Simulink的电子感应汽车制动系统控制规则的研究与仿真.pdf
  • 模糊PID算法及其MATLAB仿真(1)

    万次阅读 多人点赞 2019-04-15 20:34:35
    4.3 模糊规则的建立 4.4 模糊推理 1、PID控制 PID控制是及其普遍的控制方法,主要分为位置式PID和增量式PID,主要方程大家可以查看其他资料,这里就不作详细的解释了,另外还需要了解阶跃响应曲线上面的超调...

    目录

    1、PID控制基础

    2、模糊控制

    3、模糊PID简介

    4、模糊自整定PID的理论内容(重点内容)

    4.1 基本原理

    4.2 模糊子集及其论域的确定

    4.3 模糊规则的建立

    4.4 模糊推理

    4.5、解模糊化


    2020 年4月2日  由于浏览数量的增加,这里做了一些增补及修改。有问题请大家指出。


    1、PID控制基础

        PID控制是极其常用的控制方法,主要分为位置式PID和增量式PID,主要方程大家可以查看其他资料,这里就不作详细的解释了,另外还需要了解阶跃响应曲线上面的超调量、稳态误差等参数的意义。

    2、模糊控制

        模糊控制的发展历史和相关的论证也不说了,百度百科也有。

        相关概念扫盲(不一定准确):

    相关概念简单理解
    论域类似于值域,一般是变量的变化范围
    隶属度一般的“属于”概念是相互独立的,属于你就不属于我。隶属度则定义来了既可以属于你,也可以属于我,只是可能更属于我或更属于你
    模糊语言正大、正中、正小、零、负大、负中、负小这些定性的描述词

        其实模糊控制的提出确实很有意义,对很多领域来说都是。模糊控制的提出者Zadeh还同时搞了个“软计算”的概念,使用计算机模拟人类的直觉并将其自动化,个人觉得这种将客观现实转换到人的逻辑水平进行推理,再在物理现实实现的过程一直令人着迷,就像大数定理、哥德尔定理。现在深度神经网络的发展其实远超出当时提出的“软计算”,但是感觉如果模糊规则足够庞大复杂,仍然可以达到很高的水平。

        模糊控制还常常与专家系统等结合在一起使用,其实要发论文的话还是要结合当前的一些机器学习内容来搞。

        大家用MATLAB做一下仿真其实是有利于理解模糊控制的。

        模糊控制的隶属度函数定义有相关的理论,但是实际是很灵活的,比如你认为在论域[0,10]里面,3可以是负中、可以负小、可以负大,甚至还有一部分可能是零,只是隶属度不同。

        另外,在模糊论域的选取过程中,我们常看到的是(-6,6)这样的区间,其实这并不重要,你如果想把自己的数据套用到这个算法里面,就可以做一下线性变换,把你的论域映射到这个区间。

    3、模糊PID简介

        模糊PID其实有多种,并不是单一的方法。根据其结构主要分为三种 [1](目前我查到的资料只看到以下三种):

        (1)模糊控制和PID控制各自在相应的条件下执行自己的功能,条件作为一种开关(单刀双掷),当采用模糊控制好的时候则使用模糊控制,当使用PID控制器较好时则使用PID算法。

    具体我就不画了,直接截的图。

    单独的模糊控制器具有较好的鲁棒性,但由于它是离散的规则控制(主要是基于语言变量),往往在工作点附近容易引起小辐震荡(稳态误差问题),使受控系统的静态误差较大。而单独PID控制鲁棒性较差,但其积分作用可以有效消除系统稳态误差,并且在工作点附近的小范围内有较好的调节效果。因此这种双模结构结合了两者的优点,做到的优势互补。

        (2)模糊自整定PID算法(名字多:模糊自组织PID,模糊自调节PID、模糊自适应PID...)

        这种方法比较常用,也就是使用模糊规则的方式进行PID三个参数的整定,至于它是否优于PID算法,个人持怀疑态度,后湖会提到。这种方法基本就是用计算机代替人进行PID参数整定。结构如下图:

        Robot Model 是文献 [2] 中的控制模型,这里大家要用自己的模型代替。

        这种方法本质上是PID控制,对于参数变化范围大的对象,要获得良好的相应性能,就需要对PID参数进行在线调整,模糊自整定PID就是比较好的方法。

        (3)还有一种我也是在参考文献 [1] 才见过的,文中提到这有点类似冗余控制,这个大家可以自行参考研究。

    4、模糊自整定PID的理论内容(重点内容)

    4.1 基本原理

    典型PID控制器的传递函数(CSDN的公式编辑器不太好用,又截图了0.0):

     其中 Kp , Ti , Td 分别是比例增益、积分和微分时间常数。PID控制器的设计和参数整定放在模糊规则里。

    4.2 模糊子集及其论域的确定

         一般PID参数在整定的时候常采用 Ziegler-Nichols 方法,这种方法对于线性或者参数变化较小的对象有良好的响应性能,但参数变化较大时则需要另外调整。Ziegler-Nichols 方法一般设:

    其中Ku、Tu分别是在比例(只有比例)控制下,系统临界稳定状态时控制器的增益和系统响应震荡周期;alpha为常数通常取 

    alpha = 4。经大量的仿真计算验证,Kp、Td的调整范围由下确定:

    则对于模糊控制器的设计时论域采用如下:

    归一化处理:

    对于 alpha 值也要进行论域划分 alpha = {2,3,4,5}。

    这里隶属度函数的定义就比较灵活了,我参考的书(《模糊控制原理与应用(第二版)》机械工业出版社)上面采用S,B,并经过多次调整得到隶属度函数:

    其中的 x 就可以用 Td' 和 Kp' 代替。而误差 e 和误差变化率 ec 可以取7语言变量,为了便于记住(其实记住会在后续步骤比较方便),NL,NM,NS,ZE,PS,PM,PL,分别对应负大、负中、负小、零、正小、正中、正大,对应的大家考虑英语怎么表示就行。隶属度函数通常取三角。

    4.3 模糊规则的建立

        模糊规则主要由“if ...... and......then......”的形式给出,例如:

    Ri:if e is Ai and ec is Bi then Kp' is Ci and Td' is Di and alpha is Ei

    表示第i条推理规则为当误差e在隶属度中为Ai且误差变化率ec在隶属度中为Bi时,比例系数Kp'就为Ci,微分系数就为Di并且alpha为Ei。这种推理规则大家可以从一些文献中查找,文献[2]给出了一种设计方式(不过是关于PID三个参数的)。

        模糊规则通常来源于专家知识、经验等。其本质上是一个查找表。即给定e,ec ,得出相对应的输出模糊变量。这里要注意的是 数量 的问题:对于单输入单输出(SISO)系统,假设划分为 7 * 7 的规则,那么总共可以得到 49 条不同 e 和 ec 的输出。那么对于多输入单输出(MISO)的情况下,那么模糊规则中你可以设计他们之间的关系为 and 、or 等,这时,有多少个输入,就应该有多少个模糊规则表。对于多输入多输出(MIMO)系统,则涉及到的问题就比较多了。随着输出的增加,模糊规则数会呈现指数形式增加,因此也有一些降维的解决方案,这里不做叙述。

    个人揣测:模糊规则库是模糊控制的关键所在,但也是模糊控制的难点。所以很多研究模糊控制的优化都针对模糊规则的涉及。也就是所谓的专家系统、神经网络模糊之类的。

    4.4 模糊推理

        模糊推理主要为根据模糊运算规则将模糊规则库中的 if then 转化成某种映射。模糊运算的规则实际上是有数学理论支撑的。最常见的运算方法有以下几种:

    (1)最小运算法

        最小运算法也称 Mamdani 方法,即取隶属度函数极小值。

    (2)积运算

        积运算也称 Larsen 方法,故名思意,就是取隶属度函数的乘积。

    (3)算数运算

        算数运算也称 Zadeh 方法,没错,就是发明模糊控制的那个人。算数运算可以表示为:

    另外还有最大最小运算、布尔运算、标准法运算等。

        其实需要注意的主要就是模糊运算与常规的运算之间的区别。比如在模糊控制中看起来可能是交运算符(^),但是实际上是个取极小值运算。

    4.5、解模糊化

        解模糊化就是要把经过模糊推理后的结果在系统中进行应用,因为模糊推理所得到的输出可能是“较大”、“适中”、“负小”这样的结果,你直接告诉你的系统是不行的。因此这里需要把这个模糊输出进行清晰化,因此解模糊也称为清晰化、去模糊化。

        解模糊化最常用的就是重心法。另外还有最大隶属度法等。其实如果你从数学的角度进行理解就懂了,模糊输出是一个类似高斯分布的隶属度函数,你想让你的系统输出准确,就应该取那个隶属度尽可能大的值,其实也就是均值或者中心。

     

    参考文献:

    [1] 高福学, 李伯全, 丁丽娟, et al. 链篦机篦床温度场模糊PID控制的研究与仿真[J]. 微计算机信息, 2009, 25(16):42-43.

    [2] S. krishna, S. Vasu,Fuzzy PID based adaptive control on industrial robot system,Materials Today: Proceedings,Volume 5, Issue 5, Part 2,2018,Pages 13055-13060.

    [3] Kudinov Y I , Kolesnikov V A , Pashchenko F F , et al. Optimization of Fuzzy PID Controller's Parameters ☆[J]. Procedia Computer Science, 2017, 103:618-622.

    [4] A tuning proposal for direct fuzzy PID controllers oriented to industrial continuous processes

    [5] Khan A A , Rapal N . [IEEE 2006 IEEE International Conference on Engineering of Intelligent Systems - Islamabad, Pakistan (22-23 April 2006)] 2006 IEEE International Conference on Engineering of Intelligent Systems - Fuzzy PID Controller: Design, Tuning and Comparison with Conventional PID Controller[J]. 2006:1-6.

    展开全文
  • 基于MATLAB的关联规则空间数据挖掘探讨——以济南市平阴县安城乡为例 (1).pdf
  • 因此,同样的想法也在 [*] 中提出的基于 B 样条的重复神经控制器中进行了测试。 需要明确的是,我还没有发明这个模型中引入的控制器。 我刚刚修改了 [*] 中使用的健壮机制。 您可以在这里使用这两种机制,并自己...
  • MATLAB深度学习 机器学习、神经网络与人工智能》 【美】Phil Kim著 敖富江 杜静 周浩 译 清华大学出版社 ISBN:978-7-302-49638-0 水平有限,本文仅作学习交流,笔记分享所用。 工程文件为上...
  • trainFun:为学习规则的采用的训练算法。默认为:“trainlm”; BLF:BP权值/偏差学习函数。默认为:“learngdm”; PF:性能函数,默认为“mse”; train函数 函数结构 网络学习函数:[net,tr,YI,E] = ...
  • 基于MATLAB GUI的系统设计

    千次阅读 2019-07-22 11:03:04
    说明:记录了从零基础开始学习MATLAB GUI到独自设计完整个系统的过程,此系统是我的大学本科毕业设计题目,其中包括学习过程中的一些操作实例及代码、各控件的使用、界面美化方法等。编程设计中使用的MATLAB版本为...
  • NormAD-基于尖峰神经元的标准化近似后裔监督学习规则”,2015年国际神经网络联合会议(IJCNN),基拉尼,2015年,第1-8页。 本文描述了使用NormAD算法的三层SNN的CUDA实现。 如果您在工作中使用我们的代码,请引用...
  • Matlab是一个功能强大的软件,它可以处理工程上十分复杂的问题,用它建模绰绰有余,但也给初学者造成了一个问题:学习的时候不能把握Matlab的哪些操作是建模能用到的,所以,我选择从数学模型教学而非Matlab教程入手...
  • 图像的均方误差的matlab代码房间内的声场重建:修复符合超分辨率 用于房间声场重建的深度学习。 由FrancescLluís,PabloMartínez-Nuevo,Martin BoMøller,Sven Ewan Shepstone 我们提供了上述论文中提出的基于...
  • 基于matlab程序实现人脸识别1.人脸识别流程1.1.1基本原理基于YCbCr颜色空间的肤色模型进行肤色分割。在YCbCr色彩空间内对肤色进行了建模发现,肤色聚类区域在Cb—Cr子平面上的投影将缩减,与中心区域显著不同。采用...
  • 20世纪60年代初,美国 Michigan大学的.Holland教授借鉴与生物进化机制提出了自适应机器人学习,即成为后来广受人们关注的遗传算法; I Rechenberg和 LL.Foge等人都面临着各自研究领域所遇到的复杂问题,受生物种群...
  • 最近和组内的师兄聊到SVM的实现,发现身边很多朋友还在用libsvm和老版本matlab中自带的svmtrain函数(该函数在新版本中已被移除),因此写篇blog向大家介绍一下新版MATLAB中机器学习工具箱里的fitcsvm函数。...
  • matlab实现基于主成分分析的人脸识别 MATLAB代码如下 function varargout = face_recognition(varargin) % FACE_RECOGNITION MATLAB code for face_recognition.fig % FACE_RECOGNITION, by itself, creates a new ...
  • 根据我们对自然神经系统的构造和机理的认识,神经系统是由大量的神经细胞(神经元)构成的复杂的网络,人们对这一网络建立一定的数学模型和算法,设法使它能够实现诸如基于数据的模式识别,函数映射等带有“智能”的...
  • Part.1 支持向量机(support vector machines)是一种二分类模型,它的目的是寻找一个超平面来对样本进行分割,分割的原则是间隔最大化,最终转化为一个凸二次规划问题来求解。 对于线性可分来说程序一大筐,...
  • MATLAB神经网络编程》 化学工业出版社 读书笔记 第六章反馈型神经网络 6.1 Hopfield网络 本文是《MATLAB神经网络编程》书籍的阅读笔记,其中涉及的源码、公式、原理都来自此书,若有不理解之处请参阅原书 前馈...
  • 文章在matlab软件的基础上,利用BP神经网络算法完成手写体数字的识别。 机器学习是一门多领域交叉学科,专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织己有的知识结构,使之不断改善...
  • 基于视频的人体姿态检测设计目的和要求1.根据已知要求分析视频监控中行人站立和躺卧姿态检测的处理流程,确定视频监中行人的检测设计的方法,画出流程图,编写实现程序,并进行调试,录制实验视频,验证检测方法的...
  • 本文主要介绍了数字图像处理和图像中区域特征检测的原理,以及MATLAB在数字图像处理中的应用。本次设计主要研究了数字图像处理中图像分割中的阈值分割法和区域生长法,此次研究主要是以MATLAB软件为平台,采用了区域...
  • 基于MATLAB颜色直方图的图像检索一、课题介绍这些检索系统的基本特征都是基于图像像素值的特征提取相应的规则图像,例如形状、颜色、纹理等,并以此为依据对图像进行比较检索,在这篇论文中,系统采用了基于颜色特征...
  • 一,基本概念 1-时间序列相关概念 时间序列的主要目的是进行预测 时间序列主要分为两大类: 平稳序列与非平稳序列 本文重点研究非平稳时间序列 时间序列的预测方法: 2-灰色预测及分析模型 二,模型学习思考 ...
  • 数字水印技术概述 41.1 数字水印技术提出的背景 41.2 数字水印的基本特点 41.3 数字水印的应用 51.MATLAB软件的介绍 72.1 MATLAB研究数字水印的优点 72.2 MATLAB函数介绍 83.傅立叶域水印理论基础 103.1 傅立叶变换...
  • MATLAB基于元胞自动机的生态养殖模型 文章目录MATLAB基于元胞自动机的生态养殖模型前言一、模型说明二、模型准备1.模型的介绍2.模型的参数三、Matlab代码详解四、结果呈现 前言 考虑到多种生物之间具有复杂捕食和...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 6,301
精华内容 2,520
关键字:

matlab基于规则学习

matlab 订阅