精华内容
下载资源
问答
  • 这项探索性研究的目的是通过使用分层对数线性模型来研究影响欧洲制造业中小企业绩效的变量之间的复杂相互作用。 在本研究中,公司绩效是根据营业额增长进行经验衡量的。 原始数据来自欧盟委员会“部门电子商务观察”...
  • 精品教育教学资料
  • 高校学生互联网投资理财影响因素的对数线性模型分析.pdf
  • 常见的广义线性模型有:probit模型、poisson模型、对数线性模型等等。对数线性模型里有:logistic regression、Maxinum entropy。本篇是对逻辑回归理论和应用的学习总结、以及广义线性模型导出逻辑回归的过程,下一...

            经典线性模型自变量的线性预测就是因变量的估计值。 广义线性模型:自变量的线性预测的函数是因变量的估计值。常见的广义线性模型有:probit模型、poisson模型、对数线性模型等等。对数线性模型里有:logistic regression、Maxinum entropy。本篇是对逻辑回归的学习总结,以及广义线性模型导出逻辑回归的过程。下一篇将是对最大熵模型的学习总结。本篇介绍的大纲如下:

    1、逻辑斯蒂分布,logit转换

    2、在二分类问题中,为什么弃用传统的线性回归模型,改用逻辑斯蒂回归?

    3、逻辑回归模型的求解过程?

    4、实际应用逻辑回归时数据预处理的经验总结。但经验有限,如果有哪位网友这块经验丰富,忘指教,先谢过

    5、为什么我们在实际中,经典线性模型的优化目标函数是最小二乘,而逻辑回归则是似然函数

    6、从最根本的广义线性模型角度,导出经典线性模型以及逻辑回归


    1、逻辑斯蒂分布,logit转换

     一个连续随机变量X,如果它的分布函数形式如下,则X服从逻辑斯蒂分布,F(x)的值在0~1之间,它的的图形是一条S型曲线

    2、在二分类问题中,为什么弃用传统的线性回归模型,改用逻辑斯蒂回归?

          线性回归用于二分类时,首先想到下面这种形式,p是属于类别的概率:

         

          但是这时存在的问题是:

          1)等式两边的取值范围不同,右边是负无穷到正无穷,左边是[0,1],这个分类模型的存在问题

          2)实际中的很多问题,都是当x很小或很大时,对于因变量P的影响很小,当x达到中间某个阈值时,影响很大。即实际中很多问题,概率P与自变量并不是直线关系。

          所以,上面这分类模型需要修整,怎么修正呢?统计学家们找到的一种方法是通过logit变换对因变量加以变换,具体如下:

            

          

            从而,        

           

            这里的P完全解决了上面的两个问题。

    3、逻辑回归模型的求解过程?

          1)求解方式

            逻辑回归中,Y服从二项分布,误差服从二项分布,而非高斯分布,所以不能用最小二乘进行模型参数估计,可以用极大似然估计来进行参数估计。

          2)似然函数、目标函数

            严谨一点的公式如下:

            

            似然函数如下:

            

            对数似然函数,优化目标函数如下:

            

             整个逻辑回归问题就转化为求解目标函数,即对数似然函数的极大值的问题,即最优化问题,可采用梯度下降法、拟牛顿法等等。

    4、实际应用逻辑回归时数据预处理的经验总结,但经验有限,如果有哪位网友这块经验丰富,忘指教,先谢过

          1)枚举型的特征直接进行binary

          2)数值型特征,可以:标准化、根据分布进行binary

          3)进行pairwise

    5、为什么我们在实际中,经典线性模型的优化目标函数是最小二乘,而逻辑回归则是似然函数

          下面公式直接从Ng notes里面复制过来。

         1) 经典线性模型的满足下面等式:

          

           这里有个假设,即最后这个误差扰动项独立同分布于均值为0的正态分布,即:

          

          从而:

          

          由于有上面的假设,从而就有下面的似然函数:

          

          从而这线性回归的问题就可转化为最大化下面的对数似然估计,由于下面公式前面的项是常数,所以这个问题等价于最小化下面等式中的最后一项,即least mean squares。

          

          2)逻辑斯蒂回归中,因变量y不再是连续的变量,而是二值的{0,1},中间用到logit变换,将连续性的y值通过此变换映射到比较合理的0~1区间。在广义线性回归用于分类问题中,也有一个假设(对应于上面回归问题中误差项独立同分布于正态分布),其中h(x)是logistic function

          

          即,给定x和参数,y服从二项分布,上面回归问题中,给定x和参数,y服从正态分布。从而。

          

                

          问题不同(一个是分类、一个是回归)对应假设也就不同,决定了logistic regression问题最优化目标函数是上面这项,而非回归问题中的均方误差LMS。

    6、从最根本的广义线性模型角度,导出经典线性模型以及逻辑回归

         1)指数家族

          

            当固定T时,这个分布属于指数家族中的哪种分布就由a和b两个函数决定。下面这种是伯努利分布,对应于逻辑回归问题

                                       

              注:从上面可知 ,从而,在后面用GLM导logistic regression的时候会用到这个sigmoid函数。

            下面这种是高斯分布,对应于经典线性回归问题

                    

          2)GLM(广义线性模型)

            指数家族的问题可以通过广义线性模型来解决。如何构建GLM呢?在给定x和参数后,y的条件概率p(y|x,θ) 需要满足下面三个假设:

            assum1)      y | x; θ ∼ ExponentialFamily(η).

            assum2)      h(x) = E[y|x]. 即给定x,目标是预测T(y)的期望,通常问题中T(y)=y

            assum3)       η = θTx,即η和x之间是线性的

           3)经典线性回归、逻辑回归

           经典线性回归:预测值y是连续的,假设给定x和参数,y的概率分布服从高斯分布(对应构建GLM的第一条假设)。由上面高斯分布和指数家族分布的对应关系可知,η=µ,根据构建GLM的第2、3条假设可将model表示成:

          
            

            逻辑回归:以二分类为例,预测值y是二值的{1,0},假设给定x和参数,y的概率分布服从伯努利分布(对应构建GLM的第一条假设)。由上面高斯分布和指数家族分布的对应关系可知,,根据构建GLM的第2、3条假设可model表示成:

            

            可以从GLM这种角度理解为什么logistic regression的公式是这个形式~


          参考资料:

          [1] NG的lecture notes,http://cs229.stanford.edu/notes/cs229-notes1.pdf

          [2] 其他网络资源

    展开全文
  • -------------------------------------------------- ---------- 目的:执行对数线性化。 -------------------------------------------------- ---------- 语法:result = LogLin( VarEndoNames, VarExoNames, ...
  • 机器学习篇——对数线性模型

    千次阅读 2018-04-14 15:36:29
    对数线性模型包括逻辑回归、最大熵模型和条件随机场等 1、模型 条件概率分布(对数线性模型、概率模型)、判别模型 逻辑回归: 概率分布可由广义线性模型推导得到 多分类时,分子部分为:第k类exp(-wk*x+b),...

    建议首先看cs229讲的广义线性模型、exponential family(指数分布族)
    对数线性模型包括逻辑回归、最大熵模型和条件随机场等
    1、模型
    条件概率分布(对数线性模型、概率模型)、判别模型
    对数线性模型公式
    逻辑回归:
    概率分布可由广义线性模型推导得到
    多分类时,分子部分为:第k类exp(-wk*x+b),第一类为1
    分母部分为所有类分子之和,即标准化因子
    最大熵模型:
    概率分布由最大熵原理进行建模
    分子部分为:exp(特征函数的加权和)
    分母部分为对分子的标准化因子
    条件随机场:
    概率分布由线性链(简单情况)条件随机场确定
    分子为:这里写图片描述
    分母为:这里写图片描述
    2、策略
    最大似然估计
    注:凡是已知条件概率分布(其实是似然)的模型,一般策略都是最大似然估计,即最小化对数损失函数
    最大似然估计是一种参数估计方法,其他还有最大后验概率(考虑先验的最大似然)、贝叶斯估计(最大后验的基础上进一步增强,分母看做归一化因子,即对分子的积分)最小二乘估计(最小平方估计,最小化误差的平方)等,会在后面总结一节
    3、算法
    对数线性模型参数估计用到的算法即是最大似然估计用的算法,也就是梯度下降法等
    注:条件随机场其他两个问题中,概率用前向-后向算法,预测用维特比算法(同隐马尔科夫模型)
    4、补充
    最大熵模型推导过程:
    一是最大化条件熵
    条件熵等于联合熵减去熵
    二是由特征函数确定约束条件
    特征函数关于(联合概率的经验分布)的期望值等于特征函数关于条件分布(模型)与边缘概率的期望值
    三是建立原始约束最优化问题
    即max最大熵模型
    s.t 约束条件
    四是建立最小最大化原问题
    引入拉格朗日乘子
    五是转化为最大最小化问题
    引入kkt条件
    六是转化为极大似然估计

    展开全文
  • 对数线性模型》是最好的对数线性模型教学材料之一,不仅讨论了一般对数线性模型,还讨论了logit模型,这一模型通过分析作为自变量函数的因变量的期望发生比来检验自变量与因变量之间的关系。作者从处理二分变量的...
  • 很多非线性模型是在线性模型的基础上通过引入层级结构或高维映射得到的。 权重矩阵直观表达了各个属性的重要性,因此具有良好解释性。 线性回归 1、线性回归介绍与离散属性转换为实数值 线性回归(linear ...

    基本形式

    优点:线性模型形式简单、易于建模。

               很多非线性模型是在线性模型的基础上通过引入层级结构或高维映射得到的。

               权重矩阵直观表达了各个属性的重要性,因此具有良好解释性。

    线性回归

     1、线性回归介绍与离散属性转换为实数值

    线性回归(linear regeression)试图学习一个线性模型以尽可能准确预测实值输出标记。

    对于预测值本来就是实数值的数据还好说,对于离散属性,其离散值转化为实数值有两种方法:第一种,若属性存在“序”的关系,可通过连续化进行转换(例如身高取值“高”“矮”,就可以转化为“1.0”“0.0”);第二种,若属性没有序的关系,可以转化为k维向量(例如“西瓜”“南瓜”,可以转化为{1,0}{0,1})。

    2、线性模型学习策略

    3、线性模型学习算法

    先举一个单属性的例子:

    再举更为一般的例子,也就是多元线性回归:

    4、广义线性模型

    注意(以下是个人理解):广义线性模型和后续介绍的广义线性判别分析(函数)殊途同归,都是利用线性判别分析进行扩展,解决非线性问题,但从形式上老说,不像是一回事。

     

    对数几率回归

    1、引言

    上述讨论的都是回归问题,如果用线性判别模型进行分类学习,就需要将实数值转化为离散值。

    利用广义线性模型,我们易知最理想的函数是“单位阶跃函数”,但是它不连续,无法适用于g-1(·)。因此我们找了个替代品,即对数几率函数(logistic function)(是一种sigmoid函数,还是其最重要的代表):

    因此虽然对应模型名称“对数几率回归”,但是其实是一种分类方法。

    2、学习策略与学习方法

    移步我的另一篇博客:https://www.cnblogs.com/CJT-blog/p/10135077.html

     

    线性判别分析

    1、引言

    线性判别分析(Linear Discriminant Analysis,LDA)是一种经典的线性学习方法,亦称“Fisher判别分析”。

    2、模型、学习策略与学习方法

    请移步我的另一篇博客:https://www.cnblogs.com/CJT-blog/p/10187720.html 

     

    广义线性判别分析

    1、引言

    2、广义线性判别函数

    3、特例——线性判别函数的齐次简化

    转载于:https://www.cnblogs.com/CJT-blog/p/10187905.html

    展开全文
  • 常用的三个线性模型的原理及python实现——线性回归(Linear Regression)、对数几率回归(Logostic Regression)、线性判别分析(Linear Discriminant)。 这可能会是对线性模型介绍最全面的博客一、线性模型 ...

    常用的三个线性模型的原理及python实现——线性回归(Linear Regression)、对数几率回归(Logostic Regression)、线性判别分析(Linear Discriminant)。 这可能会是对线性模型介绍最全面的博客

    一、线性模型 (Linear Model)

    对于一个具有d个属性的对象来说,我们可以用下面这一组向量描述

    这里写图片描述

    向量中的每个值都是对象一个属性的值,由上可以看出,线性模型是一个通过属性的线性组合来进行对象判定的函数,即

    这里写图片描述

    用向量的形式可以写成

    这里写图片描述

    其中

    这里写图片描述

    当求得wb后,线性模型就得以确定。线性模型是最简单也是最常用的模型之一,同时,很多更为强大的非线性模型也是由线性模型发展来的,所以,了解掌握线性模型十分必要

    二、线性回归 (Linear Regression)

    线性回归是指,模型试图学得

    这里写图片描述

    求解模型的关键在于,如何求得wb,解决问题的落点在于,如何衡量f(x)y 差距,通常我们使用均方误差来衡量这种差距的大小,即

    这里写图片描述

    均方差有非常良好的几何意义,它对应了常用的欧几里得距离即“欧式距离”。基于均方误差最小化的原理来求解模型的方法叫做“最小二乘法”(least square method),在线性回归中,最小二乘法就是试图找到一条直线,使所有样本到直线上的欧式距离之和最小,现令

    这里写图片描述

    将其对wb分别求导,并令其导数为0,可得

    这里写图片描述

    对于更一般的情形,若样本由d个属性描述,此时我们应当求解

    这里写图片描述

    这就是我们通常所说的多元线性回归(multivariate linear regression)
    现在利用最小二乘法对w和b进行估计。将wb统一记为

    这里写图片描述

    同时也把数据集D表示为一个 *m x (d + 1)*的矩阵 X

    这里写图片描述

    将标记也写成向量形式

    这里写图片描述

    此时的求解方程可以写为

    这里写图片描述

    用上式对w进行求导,当X 的转置与其相乘为满秩矩阵或者正定矩阵时,令导数为0可得

    这里写图片描述

    最终得到的多元线性回归模型如下

    这里写图片描述

    基于上述理论,其python源码如下:

    
    '''
    1.using least square method figure out linear regression
    '''
    import numpy as np
    import matplotlib.pyplot as plt
    
    def linear_regression(x,y):     
        def preprocess(x):
            X = np.mat(x)
            b = np.mat([1]*len(x))
            X = np.hstack((X,b.T))
            return X
    
        def cal_w(x,y):
            X = preprocess(x)
            Y = np.mat(y).T
            return (X.T*X).I*X.T*Y     
        
        return preprocess(x)*cal_w(x,y),cal_w(x,y).tolist()
    

    其测试代码如下(注本文所有的代码原为一个文件,运行时,请完整复制全部代码)

    
    #visiable and output test
    x = [[0.697,0.460],[0.774,0.376],[0.634,0.264],[0.608,0.318],[0.556,0.215],[0.403,0.237],[0.481,0.149],
         [0.437,0.211],[0.666,0.091],[0.243,0.267],[0.245,0.057],[0.343,0.099],[0.639,0.161],[0.657,0.198],
         [0.360,0.370],[0.593,0.042],[0.719,0.103]]
    y = [1,1,1,1,1,1,1,1,0,0,0,0,0,0,0,0,0]
    yy,w = linear_regression(x,y)
    i,x1,x2 = 0,[],[]
    while i < len(x):
        x1.append(x[i][0])
        x2.append(x[i][1])
        i += 1
    
    i = 0
    plt.figure(1)
    plt.subplot(121)
    plt.title('linear regression')
    while i < len(x1):
        if y[i] == 0:
            plt.scatter(x1[i],x2[i],color = 'r')
        elif y[i] == 1:
            plt.scatter(x1[i],x2[i],color = 'g')
        i += 1
    a = -(w[2][0]/w[1][0])
    b = -(w[0][0]+w[2][0])/w[1][0]
    plt.plot([0,1],[a,b])
    

    三、对数几率回归(Logistic Regression)

    对数几率回归实质上使用Sigmoid函数对线性回归的结果进行了一次非线形的转换,Sigmoid函数如下

    这里写图片描述

    将线性模型带入可得

    这里写图片描述

    该式实际上是在用线性回归模型的预测结果去逼近真实标记的对数几率,因此,其对应的模型称为“对数几率回归”(logistic regression),将上式取常用对数,可转化为

    这里写图片描述

    现在我们开始对wb进行估计,将上式中的y视为类后验概率估计

    这里写图片描述

    则可以将模型转化为

    这里写图片描述

    显然有

    这里写图片描述
    这里写图片描述

    到这里,我们便可以使用“极大似然法”(maximum likelihood method)来估计wb,给定数据集如下

    这里写图片描述

    对率回归模型最大化“对数似然”,记为式 1

    这里写图片描述

    即令每个样本属于其真实标记的概率越大越好,现令

    这里写图片描述

    再令

    这里写图片描述

    此时,便可将之前式1里的似然项改写为

    这里写图片描述

    由此可知,式1等于

    这里写图片描述

    这是一个高阶可导连续凸函数,接下来给出牛顿法的推导公式,首先为
    这里写图片描述设置任意值
    设定允许误差,再代入下式循环求解求解

    这里写图片描述

    其中

    这里写图片描述
    这里写图片描述

    基于上述理论,其python源码如下:

    '''
    2.Newton method figure out logistic regression
    '''
    
    def logistic_regression(x,y,error,n):
        def preprocess(x,y):
            X = np.mat(x)
            b = np.mat([1]*len(x))
            X = np.hstack((X,b.T))
            w = [1]*(len(x[0])+1)
            W = np.mat(w).T
            Y = y
            return X,W,Y   
        
        def func_p(X,W):
            a = (X*W).tolist()
            b = float(a[0][0])
            temp = np.exp(b)/(1+np.exp(b))
            return temp
        
        def dfunc(X,Y,W):
            i,num,sum1 = 0,len(X),0
            while i < num:
                temp = Y[i] - func_p(X[i],W)
                sum1 += X[i]*temp
                i += 1
            return sum1*(-1)
        
        def d2func(X,Y,W):
            i,num,sum1 = 0,len(X),0
            while i < num:         
                temp = func_p(X[i],W)*(1 - func_p(X[i],W))
                sum1 += X[i]*(X[i].T)*temp
                i += 1
            sum1 = sum1.tolist()
            return float(sum1[0][0])
    
        def Newton(x,y,error,n):
            X,W,Y = preprocess(x,y)
            i = 1
            while i < n:
                d1 = dfunc(X,Y,W)
                a = (d1*d1.T).tolist()
                a = float(a[0][0])
                if a < error:
                    return W
                    break
                temp = dfunc(X,Y,W)
                W = W - temp.T*(d2func(X,Y,W)**(-1))
                i += 1
            if i == n:
                return 'error'
        
        w = Newton(x,y,error,n)
        X,W,Y = preprocess(x,y)
        yy = (X*w).tolist()
        w = w.tolist()
        return w,yy
    
    

    测试代码如下

    
    #visiable and output test           
    w,yy = logistic_regression(x,y,0.0001,1000)
    
    i,x1,x2,z = 0,[],[],[]
    while i < len(x):
        x1.append(x[i][0])
        x2.append(x[i][1])
        z.append(yy[i][0])
        i += 1
    
    i = 0
    
    plt.subplot(122)
    plt.title('logistic regression')
    while i < len(x1):
        if y[i] == 0:
            plt.scatter(x1[i],x2[i],color = 'r')
        elif y[i] == 1:
            plt.scatter(x1[i],x2[i],color = 'g')
        i += 1
    a = -(w[2][0]/w[1][0])
    b = -(w[0][0]+w[2][0])/w[1][0]
    plt.plot([0,1],[a,b])
    

    四、线性判别分析(Linear Discriminant Analysis)

    线性判别分析是一种经典的线形学习方法,最早由费舍尔(Fisher)在二分类问题上提出,所以也称为“Fisher判别分析”
    其思想非常朴素:给定训练样例集,设法将样例点投影到一条直线上,使得同类样例的投影点尽可能接近、异类样例的投影点尽可能远离;在对测试样例进行分类时,将其投影到同样的这条直线上,再根据投影点的位置来确定新样本的类别。这里只讲述二分类问题的原理和求解,给定数据集

    这里写图片描述

    再分别令

    这里写图片描述

    表示i(等于0或1)类示例的集合、均值向量、协方差矩阵,将数据投影到直线w上,则两类样本的中心在直线上的投影分别为

    这里写图片描述

    若将所有样本点都投影到直线上,则两类样本的协方差分别为

    这里写图片描述

    想要使同类样例的投影点尽可能接近,可以让同类样例的协方差尽可能小,即

    这里写图片描述

    尽可能小;同时,也想要让异类样例的投影点尽可能远离,可以让类中心之间的距离尽可能大,即

    这里写图片描述

    尽可能的大,则可以定义最大化目标

    这里写图片描述

    定义类内散度矩阵(within class scatter matrix)

    这里写图片描述

    以及类间散度矩阵(between class)

    这里写图片描述

    可将最大化目标重写为

    这里写图片描述

    由拉格朗日乘法子可从上式求出

    这里写图片描述

    由此可解出二分类问题的LDA模型,基于上述理论,其python源码如下:

    '''
    3.Linear Discriminant Analysis for binary classification problem
    '''
    
    def LDA(x,y):
        def preprocess(x,y):
            i = 0
            X0,X1 = [],[]
            while i < len(y):
                if y[i] == 0:
                    X0.append(x[i])
                elif y[i] == 1:
                    X1.append(x[i])
                i += 1
            return X0,X1
        
        def average(X):
            X = np.mat(X)
            i = 1
            while i < len(X):
                X[0] = X[0] + X[i]
                i += 1
            res = X[0]/i
            return res
        
        def Sw(X0,X1,u0,u1):
            X_0 = np.mat(X0)
            X_1 = np.mat(X1)
            Sw0,i = 0,0
            temp0 = (X_0 - u0).T*((X_0 - u0))
    #        while i < len(temp0):
    #            Sw0 += float(temp0[i,i])
    #            i += 1
    #        Sw1,i = 0,0
            temp1 = (X_1 - u1).T*((X_1 - u1))
    #        while i < len(temp1):
    #            Sw1 += float(temp1[i,i])
    #            i += 1
    #        return Sw0+Sw1
            return temp0 + temp1
           
        X0,X1 = preprocess(x,y)
        u0,u1 = average(X0),average(X1)
    
        SW = Sw(X0,X1,u0,u1)
        return (SW**(-1)*numpy.mat(u0-u1).T).tolist()   
    
    #visiable and output test           
    W = LDA(x,y)
    
    i,x1,x2,z = 0,[],[],[]
    while i < len(x):
        x1.append(x[i][0])
        x2.append(x[i][1])
        i += 1
    i = 0
    plt.figure(2)
    plt.subplot(121)
    plt.title('LDA')
    while i < len(x1):
        if y[i] == 0:
            plt.scatter(x1[i],x2[i],color = 'r')
        elif y[i] == 1:
            plt.scatter(x1[i],x2[i],color = 'g')
        i += 1
    print(W)
    
    plt.plot([0,-W[0][0]],[0,-W[1][0]])
    

    五、三个模型结果对比图

    完整代码地址:https://github.com/LiangjunFeng/Machine-Learning/blob/master/1.linear_model.py

    这里写图片描述

    六、更多资源下载

    微信搜索“老和山算法指南”获取更多下载链接与技术交流群
    在这里插入图片描述
    有问题可以私信博主,点赞关注的一般都会回复,一起努力,谢谢支持。

    展开全文
  • 结果表明,带有 skew-t 误差的对数线性模型可用于将总销售额(以千美元计)建模为员工人数和总资产(以千美元计)的函数,并且是通过比较具有误差项的几个对数线性模型之间的 Akaike 信息标准而获得的,这些误差项...
  • 第4-18章主要介绍各种统计分析方法及其对应SPSS过程的操作方式,包括描述性统计、均值比较、一般线性模型、相关分析、回归分析对数线性模型、聚类分析、生存分析、时间序列分析、多重响应分析等几大类。...
  • 对数线性模型(Logistic回归算法)

    千次阅读 2017-09-07 19:42:37
    对数损失函数的标准形式为:L(Y,P(Y|X)) = -logP(Y|X) 意思就是什么样的参数才能使观测到目前这组数据的概率最大。 因为log函数是单调递增函数,所以log(P(Y|X)能够得到最大值,但L(Y,P(Y|X))=-logP(Y|X),所以...
  • 对数线性模型是用于离散型数据或整理成列联表格式的计数资料的统计分析工具。在对数线性模型中,所有用作的分类的因素均为独立变量,列联表各单元中的例数为应变量。对于列联表资料,通常作χ2 检验,但χ2 检验无法...
  • Wi-Fi环境下线性对数强度的RADAR邻居匹配定位误差分析
  • 更多CFA官方教材详解,请关注“边际实验室”。“边际实验室”是一家专注于金融科技...■在估计回归之前,可能需要转换一个或多个回归变量(例如,通过对变量取自然对数)。■回归模型汇集了来自不同样本中不应该被汇集...
  • 研究了对数型非线性电介质中空间亮孤子,认为对数型电介质中可支持亮空间孤子,并对其束宽变化作了分析,指出其束宽变化与光源峰值功率成反比:当功率较低时,束宽随功率的增大而急剧减小,表现出良好的非线性效应;...
  • Excel—对数回归分析与预测

    千次阅读 2018-06-08 10:12:49
    背景:很多业务并不是线性增长,当增长某一程度时,其增长率会开始减缓1、准备数据 案例中准备数据如下 以excel2013为例选择数据“插入”散点图,见下图选择增加“趋势线”选择对数配置,选择公式显示,便可以看到...
  • DataScience:深入探讨与分析机器学习中的数据处理之非线性变换—log对数变换、sigmoid/softmax变换 目录 深入探讨与分析机器学习中的数据处理之非线性变换 log对数变换 sigmoid/softmax变换 Sigmoid函数...
  • 由非线性传播方程导出了对数可饱和非线性介质(LSNM)中高斯光束参量变化所遵循的耦合方程,在输入参量偏离孤子条件较小的情况下导出了高斯光束变化的解析表达式,在一般情况下对高斯型呼吸模式的主要特征进行了分析
  • 线性模型分析

    千次阅读 2018-01-31 16:07:59
    线性模型分析 摘要     线性模型是线性统计模型的一种简称,是数理统计学中研究变量之间关系的一种模型,在线性模型中,未知参数以线性形式出现。本文主要分析和介绍机器学习中两种经典的线性模型:线性...
  • 简要介绍对数正态分布线性矩与分布参数的关系,提出两种可考虑历史洪水的样本线性矩...此外,对线性矩法与矩法、适线法作了对比分析,结果表明,线性矩法比矩法、适线法有较大的优越性,其不偏性能最好且具有良好的有效性.
  • 本文摘要三段代码对比了以线性级别增长的代码(a,b)和以线性对数级别增长的代码(c)的区别;代码结构// 输入条件 N for(; ;) for(; ;) sum ++;两层for( ; ; )循环,@param sum记录语句执行次数,不同输入条件N,...
  • 线性回归、最小二乘法
  • 文中介绍了基于对数似然比(LLR)统计方法的两种多重线性密码分析方法,这两种方法利用多个线性逼近式分别扩展了Matsui最初提出的线性攻击算法1和算法2.在考察这两种算法的数据复杂度N、比特优势a,以及预期成功率PS三者...
  • 主成分分析(PCA)和线性判别分析(LDA)原理简介

    万次阅读 多人点赞 2018-02-04 21:58:53
    线性判别分析LDA与主成分分析PCA 3). PCA(主成成分分析)和LDA(线性判别分析)详解-共性和区别 4).什么时候使用PCA和LDA? 5).PCA的数学原理 6).Dimensionality Reduction——LDA线性判别分析原理篇 7).主成分...
  • 线性回归 高斯曲线 对数正态分布

    千次阅读 2013-12-28 23:14:44
     回归分析中,只包括一个自变量和一个因变量,且二者的关系可用一条直线近似表示,这种回归分析称为一元线性回归分析。如果回归分析中包括两个或两个以上的自变量,且因变量和自变量之间是线性关系,则称为多元线性...
  • 3.1 对数变换 3.2 伽马变换 参考资料 1 灰度变换简介 灰度变换是图像增强的一种重要手段,用于改善图像显示效果,属于空间域处理方法,它可以使图像动态范围加大,使图像对比度扩展,图像更加清晰,特征更加明显...
  • 线性回归分析

    千次阅读 2014-09-29 16:19:48
    简单线性回归模型描述了两个变量x和y之间的关系,用以下方程表示。θ0  和θ1 为参数,ξ为误差。 y=θ0 +θ1 x + ξ 如在数据集MASS cats中,它包含了两个随机变量Bwt和Hwt的样本数据,主要描述成年雄猫和雌猫的...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 38,323
精华内容 15,329
关键字:

对数线性分析