精华内容
下载资源
问答
  • 判别分析实验总结
    千次阅读
    2022-04-08 20:32:42

    机器学习:线性判别分析(LDA)思想总结

    前情回顾

    之前我们介绍过LDA的公式推导,如果对LDA遗忘了,欢迎考古:线性判别分析从理论到公式推导

    核心思想

    LDA是一种经典的降维方法。和PCA不考虑样本类别的无监督降维技术不同,LDA是一种监督降维方式,数据集的每个样本有输出类别。
    思想总结:
    1.多维空间中,数据处理分类问题较为复杂,LDA算法将多维空间数据投影到一条直线上,将d维度数据转化成1维数据处理。
    2.对于训练数据,设法将多维数据投影到一条直线上,同类投影点尽可能接近,不同的投影点尽可能远。
    3.数据分类时,将其投影到这条直线上,再根据投影点的类别确定样本类别。

    更多相关内容
  • Fisher算法python实现含训练集和测试集,Fisher算法也叫Fisher判别分析,或线性判别分析(LDA)
  • R语言判别分析--实验总结

    千次阅读 2018-12-04 21:27:17
    文章目录1 基本统计分析2 Logistic模型分析3 Fisher判别分析3.1 lda函数使用方法3.2 类别分析标记3.3 新类预判3.4 效果分析4 距离判别分析4.1 两总体距离判别4.1.1 二次判别函数qda函数使用方法4.1.2 判别4.1.3 分析...

    1 基本统计分析

    ------图形分析

    d6.1 = read.table('clipboard', header = T)
    boxplot(x1~G,d6.1)
    t.test(x1~G,d6.1)
    boxplot(x2~G,d6.1)
    t.test(x2~G,d6.1)
    

    
    Welch Two Sample t-test
    
    data:  x1 by G
    t = 0.59897, df = 11.671, p-value = 0.5606
    alternative hypothesis: true difference in means is not equal to 0
    95 percent confidence interval:
     -3.443696  6.043696
    sample estimates:
    mean in group 1 mean in group 2 
               0.92           -0.38 
               
    Welch Two Sample t-test
    
    data:  x2 by G
    t = -3.2506, df = 17.655, p-value = 0.004527
    alternative hypothesis: true difference in means is not equal to 0
    95 percent confidence interval:
     -11.118792  -2.381208
    sample estimates:
    mean in group 1 mean in group 2 
               2.10            8.85 
    

    2 Logistic模型分析

    summary(glm(G-1~x1+x2,family=binomial,d6.1))
    
    Deviance Residuals: 
         Min        1Q    Median        3Q       Max  
    -1.81637  -0.63629   0.04472   0.54520   2.13957  
    
    Coefficients:
                Estimate Std. Error z value Pr(>|z|)  
    (Intercept)  -2.0761     1.1082  -1.873   0.0610 .
    x1           -0.1957     0.1457  -1.344   0.1791  
    x2            0.3813     0.1681   2.269   0.0233 *
    ---
    Signif. codes:  
    0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
    
    (Dispersion parameter for binomial family taken to be 1)
    
        Null deviance: 27.726  on 19  degrees of freedom
    Residual deviance: 17.036  on 17  degrees of freedom
    AIC: 23.036
    
    Number of Fisher Scoring iterations: 5
    

    3 Fisher判别分析

    3.1 lda函数使用方法

    lda(formula,data,...)
    formula 形如y~x1+x2+...的公式框架,data是数据集
    

    3.2 类别分析标记

    #直观分析
    attach(d6.1) #绑定数据
    plot(x1, x2);
    text(x1, x2, G, adj=-0.5)
    #标志点所属类别G
    library(MASS)
    ld=lda(G~x1+x2)
    ld
    

    Call:
    lda(G ~ x1 + x2)
    
    Prior probabilities of groups:
      1   2 
    0.5 0.5 
    
    Group means:
         x1   x2
    1  0.92 2.10
    2 -0.38 8.85
    
    Coefficients of linear discriminants:
              LD1
    x1 -0.1035305
    x2  0.2247957
    

    y = a 1 ∗ x 1 + a 2 ∗ x 2 y=a_1 * x_1 + a_2 * x_2 y=a1x1+a2x2

    3.3 新类预判

    lp = predict(ld)
    G1 = lp$class
    data.frame(G,G1)
    
    1  1  1
    2  1  1
    3  1  1
    4  1  1
    5  1  1
    6  1  2
    7  1  1
    8  1  1
    9  1  1
    10 1  1
    11 2  2
    12 2  2
    13 2  2
    14 2  2
    15 2  1
    16 2  2
    17 2  2
    18 2  2
    19 2  2
    20 2  2
    

    3.4 效果分析

    #了解一下下
    tab1 = table(G,G1);
    tab1
    
    #   G1
    #G   1 2
    #  1 9 1
    #  2 1 9
      
      
    #计算符合率
    sum(diag(prop.table(tab1)))
    #0.9
    

    4 距离判别分析

    4.1 两总体距离判别

    **马氏距离**::
    $D(X,G_i) = (X-\mu_i)'(\sum_i)^{-1}(X-\mu_i)$
    
    同方差阵-------直线判别
    异方差阵-------曲线判别
    

    4.1.1 二次判别函数qda函数使用方法

    qda(formula, data, ...)
    formula 一个形如groups~x1+x2..的公式框架,data数据框
    

    4.1.2 判别

    #非线性判别模型
    qd = qda(G~x1+x2);qd
    
    Call:
    qda(G ~ x1 + x2)
    
    Prior probabilities of groups:
      1   2 
    0.5 0.5 
    
    Group means:
         x1   x2
    1  0.92 2.10
    2 -0.38 8.85
    

    4.1.3 分析

    qp = predict(qd)
    G2 = qp$class
    data.frame(G,G1,G2)
    
    
    	#
    	  G G1 G2
    	1  1  1  2
    	2  1  1  1
    	3  1  1  1
    	4  1  1  1
    	5  1  1  1
    	6  1  2  1
    	7  1  1  1
    	8  1  1  1
    	9  1  1  1
    	10 1  1  1
    	11 2  2  2
    	12 2  2  2
    	13 2  2  2
    	14 2  2  2
    	15 2  1  1
    	16 2  2  1
    	17 2  2  2
    	18 2  2  2
    	19 2  2  2
    	20 2  2  2
    

    4.1.4 效果分析

    tab2 = table(G,G2);tab2
     G2
    #G   1 2
    #  1 9 1
    #  2 2 8
    sum(diag(prop.table(tab2)))
    #[1] 0.85
    

    4.1.5 预测

    predict(qd,data.frame(x1=8.1,x2=2.0))
    #$`class`
    #[1] 1
    #Levels: 1 2
    #
    #$posterior
    #          1           2
    #1 0.9939952 0.006004808
    
    

    4.2 多总体距离判别

    4.2.1 训练预测

    > d6.3 = read.table('clipboard', header = T)
    > attach(d6.3)
    > ld3 = lda(G2~Q+C+P)
    > ld3
    Call:
    lda(G2 ~ Q + C + P)
    
    Prior probabilities of groups:
       1    2    3 
    0.25 0.40 0.35 
    
    Group means:
             Q        C      P
    1 8.400000 5.900000 48.200
    2 7.712500 7.250000 69.875
    3 5.957143 3.714286 34.000
    
    Coefficients of linear discriminants:
              LD1         LD2
    Q -0.81173396  0.88406311
    C -0.63090549  0.20134565
    P  0.01579385 -0.08775636
    
    Proportion of trace:
       LD1    LD2 
    0.7403 0.2597 
    

    4.2.2 预测对比

    > lp3 = predict(ld3)
    > lG3 = lp3$class
    > data.frame(G2,lG3)
       G2 lG3
    1   1   1
    2   1   1
    3   1   1
    4   1   1
    5   1   1
    6   2   1
    7   2   2
    8   2   2
    9   2   2
    10  2   2
    11  2   2
    12  2   2
    13  2   3
    14  3   3
    15  3   3
    16  3   3
    17  3   3
    18  3   3
    19  3   3
    20  3   3
    
    

    4.2.3 分析效果

    > ltab3 = table(G3,lG3)
    Error in table(G3, lG3) : object 'G3' not found
    > ltab3 = table(G2,lG3)
    > ltab3
       lG3
    G2  1 2 3
      1 5 0 0
      2 1 6 1
      3 0 0 7
     ##
    

    4.2.4 预测

    > predict(ld3, data.frame(Q = 8, C = 7.5, P = 6.5))
    	$`class`
    	[1] 1
    	Levels: 1 2 3
    	
    	$posterior
    	          1            2            3
    	1 0.9999632 3.640207e-05 4.438143e-07
    	
    	$x
    	        LD1      LD2
    	1 -2.461009 4.996961
    

    5 Bayes判别分析

    5.1 判别分析

    > ld42 = lda(G2~Q+C+P,prior = c(5,8,7)/20)
    > Z = predict(ld42)
    > data.frame(G2,ld42G=Z$class)
       G2 ld42G
    1   1     1
    2   1     1
    3   1     1
    4   1     1
    5   1     1
    6   2     1
    7   2     2
    8   2     2
    9   2     2
    10  2     2
    11  2     2
    12  2     2
    13  2     3
    14  3     3
    15  3     3
    16  3     3
    17  3     3
    18  3     3
    19  3     3
    20  3     3
    

    5.2 效果分析

    > T = table(G2,Z$class)
    > T
       
    G2  1 2 3
      1 5 0 0
      2 1 6 1
      3 0 0 7
    > sum(diag(T))/sum(T)
    [1] 0.9
    
    展开全文
  • R语言 判别分析小结

    千次阅读 2017-02-18 14:57:35
    判别分析(discriminant analysis)是一种分类技术。它通过一个已知类别的“训练样本”来建立判别准则,并通过预测变量来为未知类别的数据进行分类。判别分析的方法大体上有三类,即距离判别、Fisher判别和Bayes判别...

    判别分析(discriminant analysis)是一种分类技术。它通过一个已知类别的“训练样本”来建立判别准则,并通过预测变量来为未知类别的数据进行分类。

    判别分析的方法大体上有三类,即距离判别、Fisher判别和Bayes判别和。距离判别思想是根据已知分类的数据计算各类别的重心,对未知分类的数据,计算它与各类重心的距离,与某个重心距离最近则归于该类。Fisher判别思想是投影降维,使多维问题简化为一维问题来处理。选择一个适当的投影轴,使所有的样品点都投影到这个轴上得到一个投影值。对这个投影轴的方向的要求是:使每一组内的投影值所形成的组内离差尽可能小,而不同组间的投影值所形成的类间离差尽可能大。Bayes判别思想是根据先验概率求出后验概率,并依据后验概率分布作出统计推断。

    用R进行判别分析的方法在MASS包,里面有lda(线性)和qda(二次)
    注意使用条件:1、正态总体,2、协方差相同(线性)/不同(二次)

    1、线性的判别分析

    #载入相关包和数据集
    library(MASS)
    library(sampling)
    #把iris重新赋值,并加入分类标记和行号标记
    i<-iris
    i$lv<-as.numeric(i$Species)
    i$lv<-as.factor(i$lv)
    i$id<-c(1:150)
    #进行分层抽样,每个类别随机抽出10个作为预测集,剩下的作为训练集
    i.s<-strata(data=i,stratanames="lv",size=c(10,10,10),method="srswor",description=F)
    i.train<-i[!(i$id %in% i.s$ID_unit),]
    i.predict<-i[(i$id %in% i.s$ID_unit),]
    #拟合线性判别lda
    fit<-lda(lv~.-id-Species,data=i.train)
    #预测训练集和预测集
    Y<-predict(fit,i.train)
    YN<-predict(fit,i.predict)
    #查看拟合情况
    table(Y$class,i.train$lv)
    table(YN$class,i.predict$lv)
    

    2、二次判别

    #当协方差矩阵不相同时(即来自不同总体),沿用上一个已经做好的数据
    fit2<-qda(lv~.-id-Species,data=i.train,cv=T)
    #再进行结果的拟合
    Y2<-predict(fit,i.train)
    YN2<-predict(fit,i.predict)
    #查看拟合情况
    table(Y2$class,i.train$lv)
    table(YN2$class,i.predict$lv)
    #所得结果是一样的,不知道是否为数据的协方差是一样的原因。
    

    另外,M一个使用贝叶斯进行判断分析的文章:R语言之判别分析、贝叶斯判别分析

    展开全文
  • 线性判别分析(LDA)原理总结

    千次阅读 2021-04-27 01:05:58
    点击上方“小白学视觉”,选择加"星标"或“置顶”重磅干货,第一时间送达 本文转自:机器学习算法那些事前言线性判别分析(Linear Discriminant Analys...

    点击上方“小白学视觉”,选择加"星标"或“置顶

    重磅干货,第一时间送达
    
    

    本文转自:机器学习算法那些事

    前言


    线性判别分析(Linear Discriminant Analysis,以下简称LDA)是有监督的降维方法,在模式识别和机器学习领域中常用来降维。PCA是基于最大投影方差或最小投影距离的降维方法,LDA是基于最佳分类方案的降维方法,本文对其原理进行了详细总结。

    目录


    1. PCA与LDA降维原理对比
    2. 二类LDA算法推导

    3. 多类LDA算法推导

    4. LDA算法流程

    5. 正态性假设

    6. LDA分类算法

    7. LDA小结

    1. PCA与LDA降维原理对比

    1.1    PCA降维原理

    PCA是非监督式的降维方法,在降维过程中没有考虑类别的影响,PCA是基于最大投影方差或最小投影距离的降维方法,通俗点说,PCA降维后的样本集最大程度的保留了初始样本信息,常用投影距离来描述投影前后样本的差异信息。

    用数学公式来阐述这一思想:

      

    其中原始样本集(n个m维数据):

    降维后的样本集(n个k维数据):

    假设投影变换后的新坐标系(标准正交基):

    投影前后的样本关系:

    最小化(1)式,并根据条件(2),可求得最佳的投影坐标系W。给定新的输入样本,利用(2)式可求的对应的降维样本。

    1.2    LDA降维原理

    LDA是有监督的降维方法,在降维过程中考虑了类别的影响,LDA是基于最佳分类效果的降维方法。因此,降维后不同类的样本集具有最大的分类间隔 。

    如何描述最大分类间隔,当不同类样本的投影点尽可能远离且相同类样本的投影点尽可能接近,则样本集具有最大分类间隔。我们用类中心间的距离和类的协方差分别表示不同类的距离和相同类的接近程度。

    本节只考虑二分类的LDA降维,不同类样本间的投影距离:

    不同类的投影协方差之和:

    结合(3)(4)式,得到优化目标函数:

    最大化(5)式,得到投影向量w,其中分别是两个类样本的中心点,分别是两个类的协方差。

    1.3 PCA与LDA降维应用场景对比

    若训练样本集两类的均值有明显的差异,LDA降维的效果较优,如下图:

    由上图可知,LDA降维后的二分类样本集具有明显差异的样本分布。

    若训练样本集两类的均值无明显的差异,但协方差差异很大,PCA降维的效果较优,如下图:

    由上图可知,PCA降维后的二分类样本分布较LDA有明显的差异。


    2. 二类LDA算法推导

    假设二类数据集,其中xi为m维列向量,我们定义两类为C1和C2,即,对应的样本集个数分别为

    根据上一节的LDA的优化目标函数推导投影向量,即最大化目标函数:

    其中为二类的均值向量:

    为二类的协方差矩阵:

    目标函数转化为:

    定义类内散度矩阵和类间散度矩阵

                                                                 

    则(6)式等价于:

    我们对(7)式的分母进行标准化,则(7)式等价于:

    引用拉格朗日乘子法,得:

                             

    因此,只要求出原始二类样本的均值和协方差就可以确定最佳的投影方向w了。


    3. 多类LDA算法推导

    假设k类数据集,其中xi为m维列向量,我们定义k类为

    ,对应的样本集个数分别为。二类样本数据集通过投影向量w降到一维空间,多类样本数据集降到低维空间是一个超平面,假设投影到低维空间的维度为d,对应的基向量矩阵

    因此,多类LDA算法的优化目标函数为:

    其中类内散度矩阵和类间散度矩阵

    为第j类样本的均值向量,u为所有样本的均值向量:

    因为(8)式分子分母都是矩阵,常见的一种实现是取矩阵的迹,优化目标函数转化为:

    优化过程如下:

    参考二类LDA算法,利用拉格朗日乘子法,得:

    两边左乘

    由上式可得LDA的最优投影空间是矩阵最大d个特征值对应的特征向量所组成的。


    4. LDA算法流程

    前两节推导了LDA算法,现在对LDA算法流程进行总结,理清一下思路。

    假设k类数据集,其中xi为m维列向量,我们定义k类为

    ,降维后的维度是d。

    1)计算每个类样本的均值向量和所有数据集的均值向量

    2)计算散度矩阵,包括类内散度矩阵和类间散度矩阵

    3)计算的特征向量和对应的特征值

    4)选择d个最大特征值对应的矩阵,矩阵的每一列表示特征向量

    5)对数据集D进行降维,得到对应的降维数据集,其中


    5. 正态性假设

    LDA算法对数据集进行了如下假设:

    1)数据集是服从正态分布的;

    2)特征间是相互独立的;

    3)每个类的协方差矩阵是相同的;

    但是如果不满足了这三个假设,LDA算法也能用来分类和降维,因此LDA算法对数据集的分布有较好的鲁棒性。

    6. LDA分类算法

    前面我们重点分析了LDA算法在降维的应用,LDA算法也能用于分类 。LDA假设各类的样本数据集符合正态分布,LDA对各类的样本数据进行降维后,我们可以通过最大似然估计去计算各类别投影数据的均值和方差,如下式:

    进而得到各个类样本的概率密度函数:

    其中为降维后的样本。

    因此对一个未标记的输入样本进行LDA分类的步骤:

    1) LDA对该输入样本进行降维;

    2)根据概率密度函数,计算该降维样本属于每一个类的概率;

    3)最大的概率对应的类别即为预测类别。


    7. LDA小结

    PCA是基于最大投影方差的降维方法,LDA是基于最优分类的降维方法,当两类的均值有明显差异时,LDA降维方法较优;当两类的协方差有明显差异时,PCA降维方法较优。在实际应用中也常结合LDA和PCA一起使用,先用PCA降维去消除噪声,再用LDA降维。

    下载1:OpenCV-Contrib扩展模块中文版教程

    在「小白学视觉」公众号后台回复:扩展模块中文教程即可下载全网第一份OpenCV扩展模块教程中文版,涵盖扩展模块安装、SFM算法、立体视觉、目标跟踪、生物视觉、超分辨率处理等二十多章内容。

    下载2:Python视觉实战项目52讲

    在「小白学视觉」公众号后台回复:Python视觉实战项目即可下载包括图像分割、口罩检测、车道线检测、车辆计数、添加眼线、车牌识别、字符识别、情绪检测、文本内容提取、面部识别等31个视觉实战项目,助力快速学校计算机视觉。

    下载3:OpenCV实战项目20讲

    在「小白学视觉」公众号后台回复:OpenCV实战项目20讲即可下载含有20个基于OpenCV实现20个实战项目,实现OpenCV学习进阶。

    交流群

    欢迎加入公众号读者群一起和同行交流,目前有SLAM、三维视觉、传感器、自动驾驶、计算摄影、检测、分割、识别、医学影像、GAN、算法竞赛等微信群(以后会逐渐细分),请扫描下面微信号加群,备注:”昵称+学校/公司+研究方向“,例如:”张三 + 上海交大 + 视觉SLAM“。请按照格式备注,否则不予通过。添加成功后会根据研究方向邀请进入相关微信群。请勿在群内发送广告,否则会请出群,谢谢理解~

    展开全文
  • SPSS判别分析

    千次阅读 2020-12-19 00:47:13
    一、定义判别分析又称“分辨法”,是在分类确定的条件下,根据某一研究对象的各种特征值判别其类型归属问题的一种多变量统计分析方法。二、判别分析的一般形式y=a1x1+a2x2+……+anxn(a1为系数,Xn为变量)。事先非常...
  • 误差分析实验报告

    千次阅读 2021-04-18 12:07:08
    实验一误差的基本性质与处理(一)问题与解题思路:假定该测量列不存在固定的系统误差,则可按下列步骤求测量结果1、算术平均值2、求残余误差3、校核算术平均值及其残余误差4、判断系统误差5、求测量列单次测量的标准...
  • 关于Matlab 主成分分析与K均值聚类分析实验报告,希望对你的学习有所帮助。
  • 判别分析matlab流程

    2021-04-19 08:39:39
    matlab的判别分析_信息与通信_工程科技_专业资料。广西某锰矿床已知两种不同...在判别分析中称这 m 个变量为判别因子。现有一个新的样本点 x = ( x1 , ? , xm )T 要 判断此样本点属于哪一个总体。 Matlab 的统计工具...
  • 信息安全实验总结报告

    千次阅读 2021-06-19 06:39:23
    信息安全实验总结报告篇一:信息安全实验报告课程名称: 信息安全 实验名称: 共五次实验 班级: 姓名: 同组人:指导教师评定: 签名:实验一 木马攻击与防范一、实验目的通过对木马的练习,使读者理解和掌握木马...
  • R语言--判别分析

    千次阅读 2019-07-05 12:42:00
    判别分析(discriminant analysis)是在分类对象的类别归属明确的情况下,根据对象的某些特征指标构造判别函数来判定其类别归属的分类方法。即根据已掌握的若干个样本的数据信息,总结出客观的样本分类的规律,建立...
  • 实验三 语法分析的C语言实现一、实验目的加深对语法分析器工作过程的理解;能够采用一种编程语言实现简单的语法分析程序; 能够使用自己编写的分析程序对简单的程序段进行语法分析。二、实验要求1、在实验一(用c语言...
  • 实验一:基于规则的文本情感极性分析 1.1 基本原理 对语料进行情感打分,若score>0则为positive,反之为negative,其中涉及到情感词、否定词、程度副词、停用词四种词典。整体算法流程图如下图所示: 1.2 数据...
  • 实验三 编译原理综合实验报告--(LR(0)语法分析的实现)一、实验名称:LR(0)语法分析的实现二、仪器、设备:计算机三、参考资料:《编译原理教程》习题解析与上机指导(西安电子科技大 胡元义等)四、实验目的:综合运用...
  • 展开全部实验伏安特性曲线:一、误差分析:1、自拟数据表格,列62616964757a686964616fe58685e5aeb931333433636163表记录和处理数据。2、以电压为横坐标、电流为纵坐标,利用测得的电压和电流数据,分别绘制出稳压...
  • 实验一:计算机控制系统性能分析lrk》由会员分享,可在线阅读,更多相关《实验一:计算机控制系统性能分析lrk(8页珍藏版)》请在人人文库网上搜索。1、实验一:计算机控制系统性能分析一、 实验目的:1.建立计算机...
  • SAS数据分析判别分析

    千次阅读 2019-02-26 21:56:41
    判别分析与聚类分析有非常类似...以下,给出我在判别分析实验中做的一个例子。 判别分析 人文与发展指数是联合国开发计划署于1990年5月发表的第一份《人类发展报告》中公布的。该报告建议,目前对人文发展的衡量指...
  • 模式识别— Fisher线性判别实验

    千次阅读 2021-03-16 13:20:43
    模式识别— Fisher线性判别实验 一、实验目的: 1)加深对Fisher线性判别的基本思想的认识和理解。 2)编写实现Fisher线性判别准则函数的程序。 二、实验原理: 1.基本原理: 一般情况下,我们总可以找到某个方向,...
  • 可以包括任何你想用来分析的代码;我们这里包括了忽略所有注释中字符的功能,传送ID名称和字符串常量内容到主调函数和main函数的功能. (3)实现原理 程序中先判断这个句语句中每个单元为关键字、常数、运算符、界符,...
  • Fisher线性判别器 python实现 实验报告

    千次阅读 2020-01-06 14:56:42
    实验目的 为了进一步理解和掌握Fisher线性判别法的基本原理和实现过程,利用Fisher判别法解决实际问题进行试验。 实验环境 Windows 10,Python 3.7.4,PyCharm 2019.2.3 实验原理 Fisher线性判别法的基本思想...
  • 一、 实验目的 1. 熟悉MATLAB的仿真及应用环境 2. 在MATLAB的环境下研究控制系统稳定性 二、 实验内容和要求 1. 学会使用MATLAB中的代数稳定判据判别系统稳定性 2. 学会使用MATLAB中的根轨迹法判别系统稳定性 3...
  • 线性判别分析(LDA)原理分析

    千次阅读 2018-05-13 21:12:47
    转:...线性判别分析(Linear Discriminant Analysis),简称为LDA。也称为Fisher线性判别(FisherLinear Discriminant,FLD),是模式识别的经典算法,在199...
  • 编译原理 实验3《算符优先分析法设计与实现》

    千次阅读 多人点赞 2019-08-04 16:26:25
    实验3《算符优先分析法设计与实现》 一、实验目的   加深对语法分析器工作过程的理解;加强对算符优先分析法实现语法分析程序的掌握;能够采用一种编程语言实现简单的语法分析程序;能够使用自己编写的分析程序对...
  • 时间序列实验报告.doc

    千次阅读 2020-12-19 05:31:28
    1、重 庆 交 通 大 学学 生 实 验 报 告实验课程名称 时间序列分析 开课实验中心 数统学院实验教学中心 开课学院 数学与统计学院 专业年级 应用统计学2015级1班 姓 名 XXXX 学 号 6315XXXXXXXX 任课老师 XXXXX 开课...
  • 实验五 基于Matlab 下的控制系统的稳定性及时、频域分析实验项目名称:基于Matlab 下的控制系统的时、频域分析 实验项目性质:综合型实验 所属课程名称:自动控制原理 实验计划学时:2 学时一、实验目的与要求1、...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 12,346
精华内容 4,938
关键字:

判别分析实验总结