精华内容
下载资源
问答
  • 广义线性回归模型(GLM)是常见正太线性模型的直接推广,它适用于连续数据和离散数据,特别是后者,如属性数据、计数数据。广义线性回归模型要求响应变量...这些推广使许多线性模型的方法能用于一般问题。回顾下线性...

    广义线性回归模型(GLM)是常见正太线性模型的直接推广,它适用于连续数据和离散数据,特别是后者,如属性数据、计数数据。

    广义线性回归模型要求响应变量只能通过线性形式依赖于自变量,从而保持了线性自变量的思想。它们对线性模型进行了两个方面的推广:一是通过设定一个连续函数,将响应变量的期望于线性自变量相联系,二是对误差的分布给出一个误差函数。这些推广使许多线性模型的方法能用于一般问题。

    回顾下线性模型:

    Y = XTβ+ε

    这里ε假定有均值为0的正态分布,因此有:

    Y ~ N(XTβ, σ2)

    于是我们就可以通过最大似然估计法得到参数β和σ的估计,而且这个估计在Y是正态假定下等价于最小估计,对Y取期望可得:

    μ=E(Y)=XTβ=η

    但是有一个问题就来了我们上面的模型需要满足的是Y符合正太分布,但如果Y有其他限制了,比如Y为频数或者二元响应变量,如果方差依赖均值,那我们上面的模型就没办法使用了,为了适应更加广泛的不同分布的变量,需要推广上面的模型广义线性模型就是把μ和η用一个函数g()连接起来也就是:

    g(μ)=η

    这就是广义线性模型,我们把g()函数称为连接函数,广义线性模型要求Y服从包括正态分布的的指数分布族中的已知分布就可。

    与广义线性模型有关的R函数

    R语言提供了拟合计算广义线性模型的函数glm(),其命令格式如下:

    glm(formula, family = gaussian, data, weights, subset,

        na.action, start = NULL, etastart, mustart, offset,

        control = list(...), model = TRUE, method = "glm.fit",

        x = FALSE, y = TRUE, singular.ok = TRUE, contrasts = NULL, ...)

    其中formula是拟合公式,这里的意义与线性模型相同;family是分布族,即广义线性模型的种类,如正态分布,Poisson分布、二项分布等;data是数据框,这里面的意义与线性模型相同。

    对于每个每个分布族(family),提供了相应的链接函数,下图所示:

    a9e91aa50db14dc7c4865b3dc68e61ca.png

    2fe18c23e8a156e87d8ba587a9b016cb.png

    有了这些分布族和连续函数,就可以完成相应的广义线性模型的拟合问题。

    43caa35dc4c721fd3ad804aa3935300e.png

    正态分布族

    简单地说,广义线性模型一般(默认)模式是正态分布族,也是常规的线性模型。

    所以正态分布族:

    fm 

    #其中family = gaussian(link = identity)可以省略,因为正态分布的连接函数,默认值是恒等(identity)。同时,分布族的默认值是正态分布。

    与线性模型:

    fm

    输出结果一样,仅存在效率差异。

    二线分布族

    在二项分布族中,logistics回归模型是最重要的模型。在某些回归问题中,响应变量是分类的,比如成功和失败,得病与不得病。对于这种问题,正态分布模型显然不合适,因为正态误差不对应0-1响应。在这种情况需要采用logistics回归作为连接函数。

    对于响应变量Y有p个自变量,那么logistics回归模型为

    65e1520c2c22edfc14b9cb3ab52bb799.png

    其中β0为常数项(截距),β1,β2,……,βp为logistics模型回归系数。

    从上公式可以看出,logistics回归模型是一个非线性回归模型,自变量Xj(j=1,2,…,p)可以是连续变量,也可以是分类变量或哑变量(又称虚拟变量 ( Dummy Variables) ,用以反映质的属性的一个人工变量,是量化了的自变量,通常取值为0或1)

    对上公式进行logit变换,logistics回归模型可以变成下列线性形式:

    db33054a702faea0ee993007be3390a8.png

    从变换后公式可以看出,可以使用线性回归模型对参数进行估计。

    R语言计算logistics回归模型的语句为

    fm

    #式中link = logit为默认值,可省略不写。

    举例:有一组关于献血数据的例子,变量有Recency(上次献血距离研究时的年份),Frequency(总献血次数),Time(第一次献血是多少月之前),Donate(是否此次研究时间段是否会再次献血,1为会,0为不会),数据记录在“Trans.csv“”表格中。

    以Donate为因变量,我们可以看出Donate是二分变量,它有1和0两个亚元值,分别代表会和不会再次来献血。

    >setwd("D:/R/Test/Try9")

    >trans

    >head(trans)     #查看数据是否成功导入

    >glm.trans

    >summary(glm.trans)

    Call:

    glm(formula = Donate ~ Frequency + Time + Recency, data = trans)

    Deviance Residuals: 

         Min        1Q    Median        3Q       Max  

    -0.96668  -0.28733  -0.16228   0.05677   0.99111  

    Coefficients:

                  Estimate Std. Error t value Pr(>|t|)    

    (Intercept)  0.3291940  0.0295579  11.137  < 2e-16 ***

    Frequency    0.0229148  0.0034838   6.577 9.02e-11 ***

    Time        -0.0035797  0.0008313  -4.306 1.88e-05 ***

    Recency     -0.0099798  0.0019669  -5.074 4.93e-07 ***

    ---

    Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

    (Dispersion parameter for gaussian family taken to be 0.1587853)

    从结果可以看出,三个因素都会影响是否会在该月再次献血

    对于广义线性模型GLM,同样可以做变量筛选、模型修正、回归诊断等工作!


    以下简述一下其他分布族(由于知识体系有限,生啃吃力,先马克一下,方到用时或知识积累足够后再继续学习):

    poisson分布族与拟poisson分布族

    poisson分布族模型使用方法:

    fm

    拟poisson分布族模型使用方法:

    fm

    其直观概念是:

    ln(E(Y)) = β0 1X12X2+…βpXp

    Poisson分布族模型要求相应变量Y是整数,而拟Poisson分布族模型则没有这一要求。

    Gamma分布族

    Gamma分布族模型使用方法为:

    fm

    其直观概念是

    1/E(Y) = β1X12X2+…βpXp

    quasi分布族

    quasi分布族模型使用方法为

    fm

    另外还有quasibinomial分布族,inverse.gaussian分布族等。

    展开全文
  • ** 线性回归模型 ** 1、一元线性回归 核心:y = a +bx + ε 1.1、借助散点图:相关性分析 ...这里需要注意是我们在多元线性回归时候一般要求xa 与xb相关性不能太强,这在行列式运算中就表

    **

    线性回归模型

    **

    1、一元线性回归

    核心:y = a +bx + ε

    1.1、借助散点图:相关性分析

    在这里插入图片描述
    在这里插入图片描述
    这里可以直接用pandas里面的corr来求:
    在这里插入图片描述
    或者
    在这里插入图片描述

    1.2、思路与方法:

    具体求解其实比较简单,就是使得后面的误差项ε最小
    在这里插入图片描述
    这里,对a,b求偏导= 0,取误差时最小时的a,b

    1.3、Python实现

    在这里插入图片描述

    2、多元线性回归

    2.1、核心理解:

    在这里插入图片描述
    类似一元线性,这里写一下推导,也挺简单的:
    在这里插入图片描述
    这里需要注意的是我们在做多元线性回归的时候一般要求xa 与xb的相关性不能太强,这在行列式运算中就表现为r不能小于n,否则会有无数解。
    所以在后面的state那里,需要把Newyork,California,Florida拆开,只保留两个,避免三组x,相关性太强。
    那么这里就涉及到,三类数据,把哪个去掉:
    由此衍生出哑变量:
    设置方法如下:
    dummies = pd,get_dummies(Profit.state)
    这里相当于这种形式
    newyork Florida California
    0 1 1

    Profit_New = pd.concat(Profit,dummies],axis =1)
    Profit_New.drop(labels = [‘State’,‘New York’],axis = 1,inplace=True) #retain Florida and California

    2.2、相关性分析

    在这里插入图片描述

    2.3、Python实现:

    这是要拟合的数据的一部分:
    在这里插入图片描述
    注意:下面的model_selection要提前import:
    from sklearn import model_selection
    在这里插入图片描述

    这里可能需要重点学习一下train_test_split()函数和OLS()函数:

    model_selection.train_test_split(*arrays, **options)

    这里主要的几个参数就是:
    *arrays : 数据源

    test_size : 这里可以是浮点数和整数,浮点数就是选取多少比例的数据作为测试集,整数就选取多少数据样本

    train_size :同上
    注意:这里的size是根据index划分的,比如该数据有48行,那么test_size= 0.5 即选取24行为测试集数据
    random_state : int, RandomState instance or None, optional (default=None):这一步输入int就是提供一个随机数种子,举例来说:random_state = 1,这个就代表一个确定的随机数集合,当换成其他数字时则选择其他的随机数集合。

    sm.formula.ols(formula, data, subset=None, drop_cols=None, *args, **kwargs)

    这个比较好理解,其中例子里那个c(state)是强调那一列是分类数据,而不是数字。
    formula : str or generic Formula object
    The formula specifying the model
    data : array-like
    The data for the model. See Notes.
    subset : array-like
    An array-like object of booleans, integers, or index values that
    indicate the subset of df to use in the model. Assumes df is a
    pandas.DataFrame
    drop_cols : array-like
    Columns to drop from the design matrix. Cannot be used to
    drop terms involving categoricals.
    args : extra arguments
    These are passed to the model

    3、模型的假设检验

    F检验

    在零假设(null hypothesis, H0)之下,统计值服从F-分布的检验。其通常是用来分析用了超过一个参数的统计模型,以判断该模型中的全部或一部分参数是否适合用来估计母体

    结果判断:
    F < F表 表明两组数据没有显著差异;
    F ≥ F表 表明两组数据存在显著差异,拒绝零假设

    假设:
    在这里插入图片描述
    即求线性方程组的是否有解的判断。
    这里采用的方法是利用残差平方和(ESS)和回归平方和(RSS),来构造统计量
    根据左式的结果去和右边的F(p,n-p-1)作比较(p是统计量个数,n是观测个数)
    在这里插入图片描述
    在这里插入图片描述
    Python实现:
    在这里插入图片描述

    t检验

    t检验,亦称student t检验(Student’s t test),主要用于样本含量较小(例如n < 30),总体标准差σ未知的正态分布。 t检验是用t分布理论来推论差异发生的概率,从而比较两个平均数的差异是否显著

    查附表,t0.025 / 34 = 2.032, t < t0.025 / 34, P >0.05,按α=0.05水准,不拒绝H0,两者的差别无统计学意义
    假设:
    在这里插入图片描述
    Python实现:
    在这里插入图片描述
    最后补充一下多元线性回归的用处:
    抛开里面的数学问题,我们进行多元线性回归,无非根据从多个能影响我们的结果的因素的一系列数据中获得最近似结果。

    展开全文
  • 1)一维线性回归模型的理论基础 给定数据集,线性回归希望能够优化出一个好的函数,使得能够和尽可能接近。 如何才能学习到参数和呢?很简单,只需要确定如何衡量与之间的差别,我们一般通过损失函数(Loss Funciton...
  • 可从模型的返回参数中的P值进行检验,一般P值小于0.1即可。如果发现模型中某些变量不显著,则需要检验一下两种可能性: 1)该变量本身不显著。检验方法:将该变量单独与目标变量逻辑回归模型,如果在单变量回归的...

    逻辑回归模型

    一、优点和不足

    二、对变量的要求

    当用逻辑回归模型来构建评分模型时,入模变量需要满足以下条件:

    1、变量间不存在较强的线性相关性和多重共线性。可在单变量分析和多变量分析过程中予以解决,删除相关性较高的某些变量。

    2、变量具有显著性。可从模型的返回参数中的P值进行检验,一般P值小于0.1即可。如果发现模型中某些变量不显著,则需要检验一下两种可能性:

    1)该变量本身不显著。检验方法:将该变量单独与目标变量做逻辑回归模型,如果在单变量回归的情形下系数的P值仍然较高,即表明该变量本身的显著性较低。

    2)该变量显著,但是由于有一定的线性相关性或多重共线性,导致该变量在多元回归中不显著。

    先检验第一种可能性,如果排除,再检验第二种可能性,此时可再查看相关系数。

    3、变量具有合理的业务含义,即变量对于风控业务是正确的。可从模型的返回参数中的系数进行检验,如在计算woe过程中用的是好坏比,则系数应为负,否则为正。

     

    三、WOE(Weight of Evidence)和IV(Infomation Value)

    1、逻辑回归是线性的统计模式,因此遇到非线性趋势的变量会造成无法建立有效的模型,因此需要将变量进行WOE化。

    WOE的性质:

    1)、WOE与风险正相关,WOE越大,风险越高,代表该层级的客户资质越差。如果WOE接近于0,表示接近平均水平。(正负相关视WOE的计算方式而定)

    2)、进行WOE检定时,观察WOE的变动趋势是否符合单调性,即单调递增或单调递减,抑或是呈现u型和n型,这里视业务逻辑而定,是否是属于正常的。如果WOE趋势呈现不稳定的锯齿状波动如W型或M型,则必须通过调整分箱进行合并以解决,否则就得放弃该变量。

    3)、WOE不会因为抽样误差造成数值大幅变化,即WOE的操作过程使模型排除了因数据的随机因素造成的波动,不会因为个别出现较大数据波动而影响模型性能,除非是政策、市场发生较大的变化,否则该模型应趋于稳定,并且经WOE制作的评分卡可解释性强,这也就是其经典所在的原因。

    2、变量筛选,可根据每个变量的分箱结果计算IV值,一般挑选IV大于0.03的变量进入模型(如变量特征较多大于0.1,则可把阈值定为0.1),小于0.03的均不予考虑。

     

    四、评分尺度化

    得到符合要求的逻辑回归模型后,通常还需要将概率转化成分数。分数的单调性与概率相反,及分数越高表明违约的概率越低,信用资质越好。在评分卡模型中,上述过程称为尺度化,转换公式为:

    score = Base Point + \frac{PDO}{ln(2)}(-y),其中,y = ln(\frac{p}{1-p}),PDO:point to double odds

    1 - p:为现实数据违约的概率,则y可从现实数据计算可得

    PDO的含义:当好坏比上升1倍时,分数上升PDO个单位

     

    五、评估信用模型

    KS检验:模型区分好坏客户的力度。KS>30%时,模型才能用。

    ROC检验:模型判别真假的准确度。AUC>70%时,模型才能用。

    模型的上线和部署,以上两个条件缺一不可。

     

     

     

     

    展开全文
  • ASP.NET网页代码模型及生命周期

    热门讨论 2009-07-28 14:22:11
    在ASP.NET中,通过使用模拟事件驱动模型的行为代替了ASP的线性处理模型。ASP.NET页框架模型隐式的为用户建立了事件和事件处理程序的关联。ASP.NET让用户可以为从浏览器传递的事件在服务器代码中设置相应的处理程序。...
  • 之前我们说了一下Tensorflow的基本内容,这次我们用它来实现一些简单模型。包括线性回归模型,logistic回归,最近邻...inference指的是构建好模型,使其能够完成预测的要求。loss指的是确定好损失函数。training指...

    之前我们说了一下Tensorflow的基本内容,这次我们用它来实现一些简单模型。包括线性回归模型,logistic回归,最近邻分类。

    首先理顺一下思维,无论是要做什么模型,必须要有的几个是:

    输入值输出值实际值模型参数损失函数。

    步骤一般是 inference、losstraining。

    inference指的是构建好模型,使其能够完成预测的要求。

    loss指的是确定好损失函数。

    training指的是对模型进行拟合。

    下面我们来用线性回归,logistic回归和KNN算法来说明一下一个简单模型如何在tf中构建。

    线性回归

    import tensorflow as tf
    import numpy as np
    # 简单的线性模型可以用y=x*w+b来表示
    
    # 输入占位符,这个不是输入值,是拟合模型的时候代表了输入值
    x=tf.placeholder('float')
    # 这个不是输出值,是计算损失函数的时候用到的实际值
    y=tf.placeholder('float')
    
    # ----Inference
    # 下面这两个就是模型的参数
    # 权重参量
    W=tf.Variable(np.random.randn(),name='weight')
    # 偏移参量
    b=tf.Variable(np.random.randn(),name='bias')
    # tf里面任何操作都是一个op,不能简单得用*这些符号代替,例如下面这个是错的
    #pred=x*W+b
    # 下面这种表达就是两个op
    pred=tf.add(tf.multiply(x,W),b)
    
    # ----loss
    loss=tf.reduce_sum(tf.pow(pred-y,2))
    learning_rate=0.01
    optimizer=tf.train.GradientDescentOptimizer(learning_rate).minimize(loss)
    init=tf.global_variables_initializer()
    
    # ----training
    with tf.Session() as sess:
        sess.run(init)
        train_x=np.asarray([3.3,4.4,5.5,6.71,6.93,4.168,9.779,6.182,7.59,2.167,7.042,10.791,5.313,7.997,5.654,9.27,3.1])
        train_y=np.asarray([1.7,2.76,2.09,3.19,1.694,1.573,3.366,2.596,2.53,1.221,2.827,3.465,1.65,2.904,2.42,2.94,1.3])
        training_epochs=1000
        for epoch in range(training_epochs):
            for (x,y) in zip(train_x,train_y):
                sess.run(optimizer,feed_dict={x:x,y:y})

    上面这些有一些没有提到的,比如说learning_rate,training_epochs这些参数。这些就是在inference,loss,training这三个过程中可能需要的参数,视情况而定。

    另外,如果按照上面代码来运行,我们不知道模型的好坏,因为看不到模型的具体信息,因此需要下面的。

    train_cost=sess.run(lost,feed_dict={x:train_x,y:trian_y})
    print(train_cost)

    如果嫌数字表示不好看出趋势,可以用matplotlib.pyplot来绘制相关图。

    logistic回归

    import tensorflow as tf
    import numpy as np
    from tensorflow.examples.tutorials.mnist import input_data
    # 输入占位符,跟线性回归不一样,这个是tensor。不是一个值,所以要用tf.float32。mnist数据的shape是28*28=784
    x=tf.placeholder(tf.float32,[None,784])
    # 输出占位符,mnist的标签值是10个数字0-9
    y=tf.placeholder(tf.float32,[None,10])
    # 将784转化为10维,权重参量
    W=tf.Variable(tf.zeros([784,10]))
    # 偏移参量
    b=tf.Variable(tf.zeros([10]))
    # 这个不知道为什么不用tf.add,直接用+就可以了。
    #pred=tf.nn.softmax(tf.add(tf.matmul(x,W),b)
    pred=tf.nn.softmax(tf.matmul(x,W)+b)
    # 交叉熵,reduce的意思是坍塌的意思,就是坍塌完之后进行计算。
    cost=tf.reduce_mean(-tf.reduce_sum(y*tf.log(pred),reduction_indices=1))
    training_rate=0.01
    optimizer=tf.train.GradientDescentOptimizer(training_rate).minimize(cost)
    init=tf.global_variables_initializer()
    with tf.Session() as sess:
        sess.run(init)
        training_epochs=1000
        batch_size=50
        mnist = input_data.read_data_sets('/tmp/data', one_hot=True)
        for epoch in range(training_epochs):
            total_batch=int(mnist.train.num_examples/batch_size)
            for batch in range(total_batch):
                batch_xs,batch_ys=mnist.train.next_batch(batch_size)
                # sess.run的时候可以用list来同时启动两个op
                _,c=sess.run([optimizer,cost],feed_dict={x:batch_xs,y:batch_ys}

    这次跟线性回归除了模型不同之外还有训练数据的不同,线性回归模型我们使用的是自己创的数据集,而logistic回归用的是mnist数据集,这个是数字识别数据集。这点不同导致了,我们需要对输入输出占位符,模型参数,训练数据集进行修改。比如batch,是因为mnist的数据集过于大,因此需要分批训练拟合。

    另外,关于logistic回归代码中,tf.matmul和tf.multiply的区别,交叉熵的意义。


    KNN算法

    import tensorflow as tf
    import numpy as np
    mnist=input_data.read_data_sets('/tmp/data/',one_hot=True)
    Xtr,Ytr=mnist.train.next_batch(2000)
    Xte,Yte=mnist.test.next_batch(200)
    xtr=tf.placeholder('float',[None,784])
    xte=tf.placeholder('float',[784])
    distance=tf.reduce_sum(tf.abs(tf.add(xtr,tf.negative(xte))),reduction_indices=1)
    pred=tf.arg_min(distance,0)
    init=tf.global_variables_initializer()
    with tf.Session() as sess:
        sess.run(init)
        for i in range(len(Xte)):
            nn_index=sess.run(pred,feed_dict={xtr:Xtr,xte:Xte[i,:]})
            print('Test',i,'Prediction:',np.argmax(Ytr[nn_index]),'True class',np.argmax(Yte[i]))

    上面的代码简单的说就是从数据集中取出一部分作训练集,一部分作测试集。对测试集中每一个跟训练集进行距离比较。取出距离最小的索引,这个索引对应预测的标签。

    总结

    从上面三个简单模型来看,如果要构建一个模型,一般的步骤就是:

    1. 构建能够得到预测结果的模型
    2. 如果需要的话,确定好损失函数
    3. 确定好训练模型的相关参数,进行训练
    4. 评价模型

    以上代码均来自TensorFlow-Examples ,可以到此查看详细代码。

    展开全文
  • 卡尔曼滤波要求噪声模型是高斯,而粒子滤波对噪声模型没有要求。目标跟踪是非线性问题。...考虑一般的雷达目标跟踪问题,设目标匀速直线运动,雷达位于(x0,y0)。 非高斯粒子滤波模型 状...
  • 15、关系模型的数据操纵既是建立在关系上的数据操纵,一般有(插入)、增加、删除、和修改四种操作。 16、TIME()的返回值的数据类型是(String)类型。 17、编写SQL语句 1)、创建一张学生表,包含以下...
  • 线性回归过程中,一般线性模型假定: (线性性、独立性、齐方差性以及正态性) 真实数据往往不完美符合这四个特性,而大多数数据统计都要求数据为正态分布(比如pearson相关系数)。因此可以通过boxcox...
  • 关于Rocchio分类算法总结与思考

    千次阅读 2015-03-23 10:51:14
    除了Bayes(概率模型)、KNN(相似度模型)、SVM(非线性模型)等,发现还有个Rocchio算法,以前没有研究,查阅众多文献,都说分类效率高,但是效果不好,一般作为基准比较对象。~~~~于是决定研究一下,实实在在验证...
  • 语音识别MATLAB实现

    热门讨论 2009-03-03 21:39:18
    全极点线性预测模型(LPC)可以对声管模型进行很好的描述,每段声管对应一个LPC模型的极点。一般情况下,极点的个数在12-16个之间就可以足够清晰地描述语音信号的特征了。 语音信号经过预处理,它的每个样值均可由...
  • 机器学习-堆叠泛化

    2021-01-29 18:54:17
    一般有两种简单的方式组合各种模型的输出:通过投票和通过平均,投票就像分类任务一样,当有多个模型输出时,将得到票数最多的那一类作为样本最终的分类结果。而通过平均,则常使用在概率模型或回归模型,将多个...
  • 却有着严格的要求,这是数字电路的一个特点。 2 系统的总体设计: 2.1 原理设计 本频率计的设计以AT89S52 单片机为核心,利用它内部的定时/计数器完成 待测信号周期/频率的测量。单片机AT89S52 内部具有2 个16 位...
  • 机器学习总结

    2018-10-02 16:27:21
    模型训练中交叉验证:将数据分为几份,每份第一次训练训练集,第二次了测试集 机器学习评价:混淆矩阵 AUC ROC 一 线性回归 θ解析解求解过程,要求自己推导  目标函数,过拟合,正则式 模型效果...
  • 公交车调度问题.doc

    2019-08-27 14:25:36
    通过稳定性分析发现在对最大满载率及乘客在一般时间内的等待时间微小变动时,模型Ⅰ、Ⅱ 结果都没有太大变化,由此可知两个模型的稳定性都比较好。 本文中的模型通俗易懂,易于用软件得到确切结果,具有实际意义,...
  • 5.15 采用光线跟踪更完整整体光照模型 431 5.16 光线跟踪技术最新进展 433 5.16.1 圆锥跟踪 433 5.16.2 光束跟踪 434 5.16.3 一般光束跟踪 434 5.16.4 随机采样 435 5.16.5 从光源出发光线跟踪 437 ...
  • 06. 支持向量机

    2020-12-07 17:25:42
    感知机算法对这个不做要求,而支持向量机要求寻找超平面距离数据点尽可能远,这就是支持向量机主要思想。 那如果现在如果数据不是线性可分呢? 这里有两个策略:其一,我们可以允许支持向量机存在噪声点;其二...
  • 软件工程知识点

    2012-12-02 21:34:25
    因此,需要对准备开发的软件系统提出高层模型,并根据高层模型的特征,从技术可行性、经济可行性和操作可行性这三个方面,以“可行性研究报告”的形式,对项目作出是否值得往下进行的回答,由此决定项 目是否继续...
  • (15) 在软件生命周期中,能准确地确定软件系统必须什么和必须具备哪些功能阶段是(D) 注:即第一个阶段 A. 概要设计 B. 详细设计 C. 可行性分析 D. 需求分析 (16) 数据流图用于抽象描述一个软件逻辑模型,数据...

空空如也

空空如也

1 2 3
收藏数 55
精华内容 22
关键字:

做一般线性模型的要求