精华内容
下载资源
问答
  • 对于大多数数据科学家而言,线性回归方法是他们进行统计学...特征(或称独立变量)可以是任何的degree,甚至是超越函数(transcendentalfunction),比如指数函数、对数函数、正弦函数。因此,很多自然现象可以通过这...

    对于大多数数据科学家而言,线性回归方法是他们进行统计学建模和预测分

    析任务的起点。但我们不可夸大线性模型(快速且准确地)拟合大型数据集的重要性。如

    本文所示,在线性回归模型中,

    「线性」一词指的是回归系数,而不是特征的

    degree

    特征(或称独立变量)可以是任何的

    degree

    ,甚至是超越函数(

    transcendental function

    )

    比如指数函数、对数函数、正弦函数。因此,很多自然现象可以通过这些变换和线性模型

    来近似模拟,即使当输出与特征的函数关系是高度非线性的也没问题。

    另一方面,由于

    Python

    正在快速发展为数据科学家的首选编程语言,所以能够意识到存

    在很多方法用线性模型拟合大型数据集,就显得尤为重要。同样重要的一点是,数据科学

    家需要从模型得到的结果中来评估与每个特征相关的重要性。

    然而,在

    Python

    中是否只有一种方法来执行线性回归分析呢?如果有多种方法,那我们

    应该如何选择最有效的那个呢?

    由于在机器学习中,

    Scikit-learn

    是一个十分流行的

    Python

    库,因此,人们经常会从这个

    库调用线性模型来拟合数据。

    除此之外,

    我们还可以使用该库的

    pipeline

    FeatureUnion

    功能(如:数据归一化、模型回归系数正则化、将线性模型传递给下游模型)

    ,但是一般

    来看,如果一个数据分析师仅需要一个又快又简单的方法来确定回归系数

    (或是一些相关

    的统计学基本结果)

    ,那么这并不是最快或最简洁的方法。

    虽然还存在其他更快更简洁的方法,但是它们都不能提供同样的信息量与模型灵活性。

    请继续阅读。

    有关各种线性回归方法的代码可以参阅笔者的

    GitHub

    。其中大部分都基于

    SciPy

    SciPy

    基于

    Numpy

    建立,

    集合了数学算法与方便易用的函数。

    通过为用户提供高级命令,

    以及用于操作和可视化数据的类,

    SciPy

    显著增强了

    Python

    的交互式会话。

    以下对各种方法进行简要讨论。

    方法

    1

    Scipy.polyfit( )

    numpy.polyfit( )

    展开全文
  • 概念针对因变量为分类变量而...那么线性回归能根据因变量和自变量存在的线性关系来构造回归方程,因变量变成分类变量后就不存在这种关系了,需通过对数变换来进行处理(Sigmoid函数)步骤:1、读取数据;importpandas...

    概念

    针对因变量为分类变量而进行回归分析的一种统计方法,属于概率型非线性回归

    优点:算法易于实现和部署,执行效率和准确度高

    缺点:离散型的自变量数据需要通过生成虚拟变量的方式来使用

    在线性回归中,因变量是连续性变量,那么线性回归能根据因变量和自变量存在的线性关系来构造回归方程,因变量变成分类变量后就不存在这种关系了,需通过对数变换来进行处理(Sigmoid函数)

    步骤:

    1、读取数据;

    importpandasfrom pandas importread_csv

    data=read_csv("C:\\Users\\Jw\\Desktop\\python_work\\Python数据挖掘实战课程课件\\4.4\\data.csv",

    encoding="utf-8")

    data=data.dropna()

    dummyColumns=()

    data.shape

    2、处理字符型和大小无关的字段,如果字段有可比性,可进行大小比较,然后调用map一一映射,将离散型数据转化为数值型数据

    首先处理字符类型和大小无关的字段

    #首先处理字符类型和大小无关的字段

    dummyColumns=['Gender','Home Ownership','Internet Connection', 'Marital Status','Movie Selector', 'Prerec Format', 'TV Signal']for column indummyColumns:

    data[column]=data[column].astype('category')

    dummiesData=pandas.get_dummies(

    data,

    columns=dummyColumns,

    prefix=dummyColumns,

    prefix_sep=" ", #列名和属性值之间的分割符号

    drop_first=True) #根据特征列建模,为避免模型共轭,只选取一列

    data.Gender.unique()#去重

    dummiesData.columns#获取所有列

    处理字符类型和大小有关的字段,然后使用map一一映射

    #有可比性,可进行大小比较

    educationLevelDict={'Post-Doc': 9,'Doctorate': 8,'Master\'s Degree': 7,'Bachelor\'s Degree': 6,'Associate\'s Degree': 5,'Some College': 4,'Trade School': 3,'High School': 2,'Grade School': 1}#调用map一一映射,将离散型数据转化为数值型数据

    dummiesData["Education Level Map"]=dummiesData['Education Level'].map(educationLevelDict)

    freqMap={'Never':0,'Rarely': 1,'Monthly': 2,'Weekly': 3,'Daily': 4}

    dummiesData['PPV Freq Map']=dummiesData['PPV Freq'].map(freqMap)

    dummiesData['Theater Freq Map'] = dummiesData['Theater Freq'].map(freqMap)

    dummiesData['TV Movie Freq Map'] = dummiesData['TV Movie Freq'].map(freqMap)

    dummiesData['Prerec Buying Freq Map'] = dummiesData['Prerec Buying Freq'].map(freqMap)

    dummiesData['Prerec Renting Freq Map'] = dummiesData['Prerec Renting Freq'].map(freqMap)

    dummiesData['Prerec Viewing Freq Map'] = dummiesData['Prerec Viewing Freq'].map(freqMap)

    3、选取自标量和因变量,县选取所有列,然后一一查看选择

    1 #选取自变量和因变量

    2 dummiesData.columns3

    4 #先选取所有列,然后一一查看选择

    5 dummiesSelect =[6 'Age', 'Num Bathrooms', 'Num Bedrooms', 'Num Cars', 'Num Children', 'Num TVs',7 'Education Level Map', 'PPV Freq Map', 'Theater Freq Map', 'TV Movie Freq Map',8 'Prerec Buying Freq Map', 'Prerec Renting Freq Map', 'Prerec Viewing Freq Map',9 'Gender Male',10 'Internet Connection DSL', 'Internet Connection Dial-Up',11 'Internet Connection IDSN', 'Internet Connection No Internet Connection',12 'Internet Connection Other',13 'Marital Status Married', 'Marital Status Never Married',14 'Marital Status Other', 'Marital Status Separated',15 'Movie Selector Me', 'Movie Selector Other', 'Movie Selector Spouse/Partner',16 'Prerec Format DVD', 'Prerec Format Laserdisk', 'Prerec Format Other',17 'Prerec Format VHS', 'Prerec Format Video CD',18 'TV Signal Analog antennae', 'TV Signal Cable',19 'TV Signal Digital Satellite', 'TV Signal Don\'t watch TV'

    20 ]21

    22 inputData=dummiesData[dummiesSelect] #自变量23

    24

    25 outputData=dummiesData[["Home Ownership Rent"]] #因变量

    4、建模、训练、评分

    1 #建模、训练

    2 from sklearn importlinear_model3

    4 lrModel=linear_model.LogisticRegression()5

    6 lrModel.fit(inputData,outputData)7

    8 lrModel.score(inputData,outputData)

    5、预测(因为逻辑回归所用的参数是经过虚拟变量处理过的,所以新数据也许通过处理才能进行预测)

    1 #因为逻辑回归所用的参数是经过虚拟变量处理过的,需对新的数据进行预测,要先处理新数据

    2 newData=read_csv(3 "C:\\Users\\Jw\\Desktop\\python_work\\Python数据挖掘实战课程课件\\4.4\\newData.csv",4 encoding="utf-8")5

    6 for column indummyColumns:7 newData[column]=newData[column].astype(8 "category",9 categories=data[column].cat.categories)10

    11 newData=newData.dropna()12

    13

    14 newData['Education Level Map'] = newData['Education Level'].map(educationLevelDict)15 newData['PPV Freq Map'] = newData['PPV Freq'].map(freqMap)16 newData['Theater Freq Map'] = newData['Theater Freq'].map(freqMap)17 newData['TV Movie Freq Map'] = newData['TV Movie Freq'].map(freqMap)18 newData['Prerec Buying Freq Map'] = newData['Prerec Buying Freq'].map(freqMap)19 newData['Prerec Renting Freq Map'] = newData['Prerec Renting Freq'].map(freqMap)20 newData['Prerec Viewing Freq Map'] = newData['Prerec Viewing Freq'].map(freqMap)21

    22

    23 dummiesNewData=pandas.get_dummies (24 newData,25 columns=dummyColumns,26 prefix=dummyColumns,27 prefix_sep=" ",28 drop_first=True)29

    30 inputNewData =dummiesNewData[dummiesSelect]31

    32 lrModel.predict(inputData)

    处理函数:

    get_dummies(data,prefix=None,prefix_sep="_",dummy_na=False,columns=None,drop_first=False)

    ① data   要处理的DataFrame

    ② prefix 列名的前缀,在多个列有相同的离散项时候使用

    ③ prefix_sep 前缀和离散值的分隔符,默认为下划线,默认即可

    ④ dummy_na 是否把NA值,作为一个离散值进行处理,默认为不处理

    ⑤ columns 要处理的列名,如果不指定该列,那么默认处理所有列

    ⑥ drop_first 是否从备选项中删除第一个,建模的时候为避免共线性使用

    展开全文
  • 在线性回归中,因变量是连续性变量,那么线性回归能根据因变量和自变量存在的线性关系来构造回归方程,因变量变成分类变量后就不存在这种关系了,需通过对数变换来进行处理(Sigmoid函数) ...

    概念

    针对因变量为分类变量而进行回归分析的一种统计方法,属于概率型非线性回归

      优点:算法易于实现和部署,执行效率和准确度高

      缺点:离散型的自变量数据需要通过生成虚拟变量的方式来使用 

    在线性回归中,因变量是连续性变量,那么线性回归能根据因变量和自变量存在的线性关系来构造回归方程,因变量变成分类变量后就不存在这种关系了,需通过对数变换来进行处理(Sigmoid函数)

     

    步骤:

    1、读取数据;

    import pandas
    from pandas import read_csv
    
    data=read_csv(
        "C:\\Users\\Jw\\Desktop\\python_work\\Python数据挖掘实战课程课件\\4.4\\data.csv",
        encoding="utf-8")
    
    data=data.dropna()
    
    dummyColumns=()
    
    data.shape

      

    2、处理字符型和大小无关的字段,如果字段有可比性,可进行大小比较,然后调用map一一映射,将离散型数据转化为数值型数据

      首先处理字符类型和大小无关的字段

    #首先处理字符类型和大小无关的字段
    dummyColumns=[
        'Gender','Home Ownership',
        'Internet Connection', 'Marital Status',
        'Movie Selector', 'Prerec Format', 'TV Signal']
        
    for column in dummyColumns:
        data[column]=data[column].astype('category')
        
    
    dummiesData=pandas.get_dummies(
            data,
            columns=dummyColumns,
            prefix=dummyColumns,
            prefix_sep=" ",  #列名和属性值之间的分割符号
            drop_first=True)  #根据特征列建模,为避免模型共轭,只选取一列
    
    data.Gender.unique()   #去重
    
    dummiesData.columns   #获取所有列

      处理字符类型和大小有关的字段,然后使用map一一映射

    #有可比性,可进行大小比较
    educationLevelDict={
        'Post-Doc': 9,
        'Doctorate': 8,
        'Master\'s Degree': 7,
        'Bachelor\'s Degree': 6,
        'Associate\'s Degree': 5,
        'Some College': 4,
        'Trade School': 3,
        'High School': 2,
        'Grade School': 1
        }
        
    #调用map一一映射,将离散型数据转化为数值型数据
    dummiesData["Education Level Map"]=dummiesData['Education Level'].map(educationLevelDict)
    
    
    freqMap={
        'Never':0,
        'Rarely': 1,
        'Monthly': 2,
        'Weekly': 3,
        'Daily': 4}
        
    dummiesData['PPV Freq Map']=dummiesData['PPV Freq'].map(freqMap)
    dummiesData['Theater Freq Map'] = dummiesData['Theater Freq'].map(freqMap)
    dummiesData['TV Movie Freq Map'] = dummiesData['TV Movie Freq'].map(freqMap)
    dummiesData['Prerec Buying Freq Map'] = dummiesData['Prerec Buying Freq'].map(freqMap)
    dummiesData['Prerec Renting Freq Map'] = dummiesData['Prerec Renting Freq'].map(freqMap)
    dummiesData['Prerec Viewing Freq Map'] = dummiesData['Prerec Viewing Freq'].map(freqMap)

     

     

    3、选取自标量和因变量,县选取所有列,然后一一查看选择

     1 #选取自变量和因变量
     2 dummiesData.columns
     3 
     4 #先选取所有列,然后一一查看选择
     5 dummiesSelect = [
     6     'Age', 'Num Bathrooms', 'Num Bedrooms', 'Num Cars', 'Num Children', 'Num TVs', 
     7     'Education Level Map', 'PPV Freq Map', 'Theater Freq Map', 'TV Movie Freq Map', 
     8     'Prerec Buying Freq Map', 'Prerec Renting Freq Map', 'Prerec Viewing Freq Map', 
     9     'Gender Male',
    10     'Internet Connection DSL', 'Internet Connection Dial-Up', 
    11     'Internet Connection IDSN', 'Internet Connection No Internet Connection',
    12     'Internet Connection Other', 
    13     'Marital Status Married', 'Marital Status Never Married', 
    14     'Marital Status Other', 'Marital Status Separated', 
    15     'Movie Selector Me', 'Movie Selector Other', 'Movie Selector Spouse/Partner', 
    16     'Prerec Format DVD', 'Prerec Format Laserdisk', 'Prerec Format Other', 
    17     'Prerec Format VHS', 'Prerec Format Video CD', 
    18     'TV Signal Analog antennae', 'TV Signal Cable', 
    19     'TV Signal Digital Satellite', 'TV Signal Don\'t watch TV'
    20 ]
    21 
    22 inputData=dummiesData[dummiesSelect]   #自变量
    23 
    24 
    25 outputData=dummiesData[["Home Ownership Rent"]]   #因变量

     

     

    4、建模、训练、评分   

    1 #建模、训练
    2 from sklearn import linear_model
    3 
    4 lrModel=linear_model.LogisticRegression()
    5 
    6 lrModel.fit(inputData,outputData)
    7 
    8 lrModel.score(inputData,outputData)

     

    5、预测(因为逻辑回归所用的参数是经过虚拟变量处理过的,所以新数据也许通过处理才能进行预测)

     1 #因为逻辑回归所用的参数是经过虚拟变量处理过的,需对新的数据进行预测,要先处理新数据
     2 newData=read_csv(
     3     "C:\\Users\\Jw\\Desktop\\python_work\\Python数据挖掘实战课程课件\\4.4\\newData.csv",
     4     encoding="utf-8")
     5 
     6 for column in dummyColumns:
     7     newData[column]=newData[column].astype(
     8         "category",
     9         categories=data[column].cat.categories)
    10     
    11 newData=newData.dropna()
    12 
    13 
    14 newData['Education Level Map'] = newData['Education Level'].map(educationLevelDict)
    15 newData['PPV Freq Map'] = newData['PPV Freq'].map(freqMap)
    16 newData['Theater Freq Map'] = newData['Theater Freq'].map(freqMap)
    17 newData['TV Movie Freq Map'] = newData['TV Movie Freq'].map(freqMap)
    18 newData['Prerec Buying Freq Map'] = newData['Prerec Buying Freq'].map(freqMap)
    19 newData['Prerec Renting Freq Map'] = newData['Prerec Renting Freq'].map(freqMap)
    20 newData['Prerec Viewing Freq Map'] = newData['Prerec Viewing Freq'].map(freqMap)
    21 
    22 
    23 dummiesNewData=pandas.get_dummies (
    24         newData,
    25         columns=dummyColumns,
    26         prefix=dummyColumns,
    27         prefix_sep=" ",
    28         drop_first=True)
    29 
    30 inputNewData = dummiesNewData[dummiesSelect]
    31 
    32 lrModel.predict(inputData)

     

     

    处理函数:

    get_dummies(data,prefix=None,prefix_sep="_",dummy_na=False,columns=None,drop_first=False)
    ① data   要处理的DataFrame
    ② prefix 列名的前缀,在多个列有相同的离散项时候使用
    ③ prefix_sep 前缀和离散值的分隔符,默认为下划线,默认即可
    ④ dummy_na 是否把NA值,作为一个离散值进行处理,默认为不处理
    ⑤ columns 要处理的列名,如果不指定该列,那么默认处理所有列
    ⑥ drop_first 是否从备选项中删除第一个,建模的时候为避免共线性使用

    转载于:https://www.cnblogs.com/U940634/p/9742721.html

    展开全文
  • 在线性回归中,因变量是连续变量,那么线性回归能够根据因变量和自变量之间存在的线性关系来构造回归方程;但是,一旦因变量是分类变量,那么因变量与自变量就不会存在上面这种线性关系了,这时候就要通过某种变换来...
    • 逻辑回归(Logistic Regression)

      • 针对因变量为分类变量而进行回归分析的一种统计方法,属于概率型非线性回归。

      • 优点:算法易于实现和部署,执行效率和准确度高;

      • 缺点:离散型的自变量数据需要通过生产虚拟变量的方式来使用;

    (二)底层原理及逻辑

    • 在线性回归中,因变量是连续变量,那么线性回归能够根据因变量和自变量之间存在的线性关系来构造回归方程;但是,一旦因变量是分类变量,那么因变量与自变量就不会存在上面这种线性关系了,这时候就要通过某种变换来解决这个问题,这个变换就是对数变换;

    • 要理解对数变换,我们要先来学习一个函数Singmoid;

      • Singmoid函数又叫”S型”函数,在数据挖掘领域大量使用,它得图形是一个S形状,如下图所示:

    @数据分析-jacky

    • 它得公式为:

    @数据分析-jacky

    • 我们经常把它作为归一化的函数来使用,所谓归一化函数是指可以把连续数值,如上图X轴正无穷大到负无穷大的范围转化为0到1的范围,这就叫归一化;因此,S函数可以为我们提供了一种将连续型的数据离散化为离散型数据的方法;
    • 如果f(x)>0.5,那么我们可以把输入转换为1,如果f(x)<0.5,那么转换为0;

    (三)案例实操-金融场景

    1.场景介绍

    • 什么是金融场景中的信用风险?

      • 信用风险是指借款人、证券发行人或交易对手因某些原因不愿或无力履行合同而构成违约,使银行、投资者或交易对手遭受损失的可能性。信用风险还包括由于履约能力的变化引起的损失的可能性。因此信用风险的大小主要取决于客户的财务状况和风险状况。

    2.痛点剖析

    • 互联网金融的痛点在于信用风险控制。很多金融平台没有相应资质或者经验,审查材料不严,导致大量资信不良的个人成功借贷,有些还是大数额的贷款。那么,针对这个痛点,可以利用逻辑回归模型得以解决,下面jacky就跟大家介绍如何利用该模型解决互联网金融信用风险问题,并用Python实现;

    3.特征选择

    (1) 因变量

    • 借贷人是否违约

      • 违约:0

      • 未违约:1

    (2) 自变量

    • 违约记录

    • 借贷时间

    • 银行存款数额

    • 工作状态

    • 房贷情况

    • 个人财产

    • 年龄

    • 电话号码

    • 户口所在地

    • 购买金融产品的种类

    4.代码实操

    (1) 导入数据

    #---author:朱元禄---
    #导入数据
    import pandas
    data = pandas.read_csv(
     'file:///Users/apple/Desktop/jacky_reinvest.csv',encoding='GBK'
    )
    #处理缺失值
    data = data.dropna()
    #查看数据规模
    data.shape

    (2) 数据预处理

    • 逻辑回归要求输入的数据是数值型的数据,因此我们要对离散数据进行虚拟数据的生成;

    1)处理字符型与大小无关的字段

    dummyColumns = [
        '工作状态','房贷情况','电话号码','户口所在地'
    ]
    for column in dummyColumns:
        data[column]=data[column].astype('category')
    dummiesData = pandas.get_dummies(
        data,
        columns=dummyColumns,
        prefix=dummyColumns,
        prefix_sep=" ",
        drop_first=True
    )

    2)调用Map方法进行可比较大小虚拟变量的转换

    productDict={
    '12个月定存':4,'6个月定存':3,'3个月定存':2,'1个月定存':1}
    data['产品Map']=data['金融产品'].map(productDict)

    (3) 挑选可以建模的变量(特征列)

    • 数据挖掘对数据和业务知识的理解是非常重要的;

    • 挑选特征列也是建模中最耗费精力的事情,特征变量需要一一比较,才能选择出来,在本案例中,jacky就简化处理了,毕竟是分享

    dummiesSelect = [
        'jacky选取的特征列1','jacky选取的特征列2','...'
    ]
    inputData = dummiesData[dummiesSelect]
    outputData = dummiesData[['违约结论']]

    (4) 建模求解回归方程

    from sklearn import linear_model
    lrModel = linear_model.LogisticRegression()

    (5) 模型训练

    lrModel.fit(inputData,outputData)

    (6) 模型评估

    lrModel.score(inputData,outputData)

    (7) 使用模型预测未知参数

    • 因为逻辑回归输入的参数是通过虚拟变量进行预处理过的,因此我们要对新的数据进行预测,那么我们必须将我们的新数据使用训练样本的处理方法处理一次,才能作为逻辑模型的输入进行预测,只要依葫芦画瓢在重复写一次代码即可,这里jacky就不赘述了;

    5.模型解读

    本案例,jacky是使用真实案例做的分享,为了数据的保密性,具体结果展示就没法一一呈现了,但是,我会分享结果和模型的解读,对于数据建模的朋友来说,可能是有帮助的;

    • 正相关系数表示自变量越大,违约概率越小;负相关系数表示自变量越大,违约概率越大。下面逐一分析:

    • 1.违约记录:之前没有违约历史记录的客户更加有信用,在之后违约的可能性也比较小。之前有过信用卡逾期未还款、股票融资被平仓后没有归还欠款的客户,违约记录越多的客户,以后违约的可能性也比较大。

    • 2.借贷时间:借贷时间越长的客户,违约的概率越大。借贷时间越长,外在的经济环境和客户自身的资产负债情况的不可预知性越大,违约的概率也随之增加。
    • 3.银行存款数额:银行存款数额的大小,一定程度上反映了客户的财务状况,较好的财务状况表明了更好的偿贷能力,违约的可能性更小。
    • 4.工作状态:客户目前职业,收入对于客户的偿贷愿望都有着直接影响。如果一个客户有着良好的工作,稳定的收入,该客户的现金流更加容易预测,违约的几率也随之降低。
    • 5.房贷情况:这个比较复杂,一方面较高的房贷对于客户来说是财政负担,偿还其他贷款的能力有所降低;另一方面,如果有足够的公积金偿还房贷,又恰恰证明了其较高的收入,能够负担起其余的债务。
    • 6.个人财产:学区房、商业区等较高房价的住房可以作为借贷抵押。一般拥有这些住房的客户,资产较高,可以更好地承担债务。
    • 7.年龄:年龄较小的客户消费欲望强烈,收入不稳定,积蓄不多,更有违约的风险。年龄较大的客户一般都有明确的消费计划,收入稳定,有着较为丰厚的积蓄,性格也比较稳重,个人违约的意愿也比较小。
    • 8.电话号码:联系方式对信用方式有正的方式。且与登记手机号码的客户相比,登记座机号码的客户更加稳定;
    • 9.户口所在地:城市户口的客户一般收人较高,也比较稳定;农村户口的客户一般在城市打工或者在农村务农,收入无法得到切实的保障,遵守契约的意识也比较淡薄,违约可能性更大。
    展开全文
  • logistic_regression-源码

    2021-04-05 00:48:08
    logistic_regression ... 将上述值放在S型方程中: 现在,通过从伯纳利的特征中获得启发,我们找到了对数似然函数并将其微分,从而找到了梯度上升更新方程。 因此,可能性定义为: 对数似然变为:
  • 6.4 求解复系数方程组的全选主元高斯-约当消去法 6.5 求解三对角线方程组的追赶法 6.6 求解一般带型方程组 6.7 求解对称方程组的分解法 6.8 求解对称正定方程组的平方根法 6.9 求解大型系数方程组 6.10 求解托伯利兹...
  • 数据处理494 8.1 随机样本分析494 8.2 一元线性回归分析499 8.3 多元线性回归分析503 8.4 逐步回归分析510 8.5 半对数数据相关521 8.6 对数数据相关525第9章 极值问题的求解529 9.1 一维极值连分式法529 9.2 n维...
  • 6.6 求解一般带型方程组 6.7 求解对称方程组的分解法 6.8 求解对称正定方程组的平方根法 6.9 求解大型系数方程组 6.10 求解托伯利兹方程组的列文逊方法 6.11 高斯-塞德尔失代法 6.12 求解对称正定方程组的共岿梯度法...
  • 6.6 求解一般带型方程组 6.7 求解对称方程组的分解法 6.8 求解对称正定方程组的平方根法 6.9 求解大型系数方程组 6.10 求解托伯利兹方程组的列文逊方法 6.11 高斯-塞德尔失代法 6.12 求解对称正定方程组的共岿梯度法...
  • 6.6 求解一般带型方程组 6.7 求解对称方程组的分解法 6.8 求解对称正定方程组的平方根法 6.9 求解大型系数方程组 6.10 求解托伯利兹方程组的列文逊方法 6.11 高斯-塞德尔失代法 6.12 求解对称正定方程组的共岿梯度法...
  • C++常用算法程序集

    热门讨论 2011-03-24 09:15:32
    3.6 求解一般带型方程组139 3.7 求解对称方程组的分解法146 3.8 求解对称正定方程组的平方根法151 3.9 求解托伯利兹方程组的列文逊方法155 3.10 高斯\|赛德尔迭代法161 3.11 求解对称正定方程组的共轭梯度法165 3.12...
  • 6.6 求解一般带型方程组 6.7 求解对称方程组的分解法 6.8 求解对称正定方程组的平方根法 6.9 求解大型系数方程组 6.10 求解托伯利兹方程组的列文逊方法 6.11 高斯-塞德尔失代法 6.12 求解对称正定方程组的共岿梯度法...
  • 6.6 求解一般带型方程组 6.7 求解对称方程组的分解法 6.8 求解对称正定方程组的平方根法 6.9 求解大型系数方程组 6.10 求解托伯利兹方程组的列文逊方法 6.11 高斯-塞德尔失代法 6.12 求解对称正定方程组的共岿梯度法...
  • 6.6 求解一般带型方程组 6.7 求解对称方程组的分解法 6.8 求解对称正定方程组的平方根法 6.9 求解大型系数方程组 6.10 求解托伯利兹方程组的列文逊方法 6.11 高斯-塞德尔失代法 6.12 求解对称正定方程组的共岿梯度法...
  • 3.6 求解一般带型方程组139 3.7 求解对称方程组的分解法146 3.8 求解对称正定方程组的平方根法151 3.9 求解托伯利兹方程组的列文逊方法155 3.10 高斯\|赛德尔迭代法161 3.11 求解对称正定方程组的共轭梯度法165 3.12...
  • 灰色预测模型 一元线性回归模型 二次曲线分析模型 三次曲线分析模型 指数分析模型 对数分析模型 倒指数预测模型 双曲线预测模型 逻辑曲线预测模型逻辑例指数预测模型 幂函数预测模型 幂指函数预测模型 倒幂指函数...
  • 确定性地描述了无风险资产的演变,而几何均值回归(GMR)模型描述了风险资产的动态。 利用动态规划原理(DPP)和HJB理论,通过随机控制技术理论,成功地建立和解决了受控财富随机微分方程(SDE)和最优投资组合问题...
  • 约当消去法 6.3 求解复系数方程组的全选主元高斯消去法 6.4 求解复系数方程组的全选主元高斯-约当消去法 6.5 求解三对角线方程组的追赶法 6.6 求解一般带型方程组 6.7 求解对称方程组的分解法 6.8...
  • 10.1.4对数频率稳定判据 10.1.5开环频域性能指标 10.2Bode图 10.3Nyquist图 10.4系统稳定性的判定 10.4.1用Bode图法判断系统稳定性 10.4.2用Nyquist曲线法判断系统稳定性 第11章基于频域滤波的图像分析与实现...
  • C语言通用范例开发金典.part1.rar

    热门讨论 2012-08-31 14:09:26
    第1章 数据结构. 1 1.1 数组和字符串 2 1.1.1 一维数组的倒置 2 范例1-1 一维数组的倒置 2 ∷相关函数:fun函数 1.1.2 一维数组应用 3 范例1-2 一维数组应用 3 1.1.3 一维数组的高级应用 5 ...
  • C语言通用范例开发金典.part2.rar

    热门讨论 2012-08-31 14:18:18
    资源简介 第1章 数据结构. 1 1.1 数组和字符串 2 1.1.1 一维数组的倒置 2 范例1-1 一维数组的倒置 2 ∷相关函数:fun函数 1.1.2 一维数组应用 3 范例1-2 一维数组应用 3 ...2.1.6 求反正切 ...
  • 配书光盘Readme文件 C 语言通用范例开发金典 第1章 数据结构. 1 1.1 数组和字符串 2 1.1.1 一维数组的倒置 2 范例1-1 一维数组的倒置 2 ∷相关函数:fun函数 1.1.2 一维数组应用 3 ...∷相关函数:asin...
  • C 开发金典

    2013-06-20 16:20:03
    配书光盘Readme文件 C 语言通用范例开发金典 第1章 数据结构. 1 1.1 数组和字符串 2 1.1.1 一维数组的倒置 2 范例1-1 一维数组的倒置 2 ∷相关函数:fun函数 1.1.2 一维数组应用 3 ...2.1.2 求浮点数的...
  • 2.10 用布尔变量索引NumPy数组 44 2.11 NumPy数组的广播 46 2.12 小结 49 第3章 统计学与线性代数 50 3.1 Numpy和Scipy模块 50 3.2 用NumPy进行简单的描述性统计计算 55 3.3 用NumPy进行线性代数运算 57 ...
  •  6.2.2 直接获取指数回归拟合方程的系数和常量 105  6.2.3 使用指数回归拟合方程预测费用 106  6.2.4 使用GROWTH函数预测费用 107  6.3 线性与指数预测结果比较分析 109  第7章 广告支出费用预测与分析 115  ...
  • 概念针对因变量为分类变量而...那么线性回归能根据因变量和自变量存在的线性关系来构造回归方程,因变量变成分类变量后就不存在这种关系了,需通过对数变换来进行处理(Sigmoid函数)步骤:1、读取数据;importpandas...

空空如也

空空如也

1 2
收藏数 30
精华内容 12
关键字:

对数型回归方程