精华内容
下载资源
问答
  • 线性回归分为单变量线性回归、多变量线性回归 区别 变量比单变量个特征缩放 代码及注释 import numpy as np import matplotlib.pyplot as plt # 中文、负号 plt.rcParams['font.sans-serif'] = ['SimHei'] plt....

    分析

    线性回归分为单变量线性回归、多变量线性回归
    区别 多变量比单变量多个特征缩放

    代码及注释

    import numpy as np
    import matplotlib.pyplot as plt
    
    # 中文、负号
    plt.rcParams['font.sans-serif'] = ['SimHei']
    plt.rcParams['axes.unicode_minus'] = False
    
    # 读取数据
    data = np.loadtxt(r'ex1data2.txt',delimiter=',')
    
    # 洗牌
    np.random.seed(5)
    np.random.permutation(data)
    
    # 提取数据
    x,y = data[:,:-1],data[:,-1]
    
    # 数据预处理
    def preProcess(x,y):
        #特征缩放
        x -= np.mean(x,0)
        x /= np.std(x,0,ddof=1)
    
        # 数据初始化
        x = np.c_[np.ones(len(x)),x]
        y = np.c_[y]
        return x,y
    x,y = preProcess(x,y)
    
    # 切分
    train_x,test_x = np.split(x,[int(0.7*len(x))])
    train_y,test_y = np.split(y,[int(0.7*len(x))])
    
    # 模型
    def model(x,theta):
        h = np.dot(x,theta)
        return h
    
    # 代价函数
    def costFunc(h,y):
        e = h - y
        j = (1/(2*len(y)))*np.dot(e.T,e)
        return j
    
    # 梯度下降函数
    def gradDesc(x,y,alpha=0.01,max_iter = 10000):
        m,n = x.shape
    
        # 初始化
        theta = np.zeros((n,1))
        j_history = np.zeros(max_iter)
    
        for i in range(max_iter):
            h = model(x,theta)
            j_history[i] = costFunc(h,y)
    
            deltatheta = (1/m)*np.dot(x.T,h-y)
            theta -= deltatheta*alpha
        return j_history,theta
    j_history,theta = gradDesc(train_x,train_y)
    print(theta)
    
    plt.title('代价函数图像')
    plt.plot(j_history)
    plt.show()
    
    # 测试值
    train_h = model(train_x,theta)
    test_h = model(test_x,theta)
    
    # 精度
    def score(h,y):
        u = np.sum(np.square(h-y))
        v = np.sum(np.square(y-np.mean(y)))
        return 1-u/v
    
    print('训练集精度:',score(train_h,train_y))
    print('测试集精度:',score(test_h,test_y))
    
    plt.title('真实值与测试值对比图')
    plt.scatter(train_y,train_y,label='真实值')
    plt.scatter(train_y,train_h,label='测试值')
    plt.legend()
    plt.show()
    

    效果展示

    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述

    展开全文
  • 一、单变量分析绘图 什么是单变量分析? 单变量其实就是我们通常接触到的数据集中的一列数据。 单变量分析是数据分析中最简单的形式,其中被分析的数据只包含一个变量。因为它是一个单一的变量,它不处理原因或关系 ...

    一、单变量分析绘图

    什么是单变量分析?

    单变量其实就是我们通常接触到的数据集中的一列数据。

    单变量分析是数据分析中最简单的形式,其中被分析的数据只包含一个变量。因为它是一个单一的变量,它不处理原因或关系

    单变量分析的主要目的是描述数据并找出其中存在的模式,也就是“用最简单的概括形式反映出大量数据资料所容纳的基本信息”。

    本节我们研究的是连续数值型数据的分布。

    那么什么样的数据是连续数值型数据呢?什么样的数据是离散型数据呢?

    • 连续型数据一般应用在计算机领域,在数据挖掘、数据分类时会遇到此类数据,因其数据不是单独的整十整百的数字,包含若干位小数且取值密集,故称为连续型数据,例如,身高、体重、年龄等都是连续变量。
    • 由记录不同类别个体的数目所得到的数据,称为离散型数据。例如,某一类别动物的头数,具有某一特征的种子粒数,血液中不同的细胞数目等。所有这些数据全部都是整数,而且不能再细分,也不能进一步提高他们的精确度

    我们要如何使用seaborn绘制单变量分布呢?

    首先,使用Numpy模块从标准整体分布中随机抽取1000个数,作为我们的连续数值型数据

    data = np.random.normal(size=1000)

    random是Numpy中一个随机模块,在random模块中的normal方法表示从正态分布中随机产生size数值

    import numpy as np
    
    # 从正态分布中随机抽取数据
    data = np.random.normal(size=1000)
    print(data)
    
    [-8.34177638e-01 -4.81175938e-01 -1.25574036e+00 -2.76567172e-01
      1.12767332e+00  3.10682395e-01  7.80228852e-01  6.75012626e-01
      7.73093289e-01 -8.19100385e-01  6.23650934e-01 -4.63975859e-01
      8.05497705e-01  3.96842870e-01  7.08116405e-01  2.33275485e-01
      1.64293668e-02 -8.21838448e-01 -7.55255648e-02  5.80824933e-01
      4.19186101e-01 -1.76393595e-01  2.50923927e-01  2.38633140e+00
      7.01521969e-02 -3.30433240e-01  1.87952220e-01  3.37810590e-01
      1.91988625e-01  2.01966888e+00 -4.86049790e-01  1.19188356e+00
      2.16887486e+00  9.15513599e-01 -2.48352719e+00  1.55961878e-01
      1.31272700e+00 -1.62299621e+00  7.26296821e-01  1.37704098e+00
      6.07926692e-02 -1.19652676e+00  3.76808682e-01  1.85074360e+00
     -1.34054927e+00 -1.13845379e+00  5.20608532e-01  1.27837691e-01
      1.77219926e+00 -2.55291654e-01  2.27639422e+00  1.27685372e+00
      8.22275855e-01 -1.20431897e-01  1.81672628e-01 -1.57782301e-01
      3.85544243e-01 -9.69654269e-01  3.44028022e-01  4.95341055e-01
      2.79191801e-01  3.23729447e-01 -3.95386165e-01  4.66194790e-01
     -1.33714386e-01  3.06156392e-01 -7.70696149e-01  8.19973046e-01
     -1.00993542e+00  9.39025145e-01  7.62757615e-01  2.87180717e-01
      2.25398644e-01 -1.59500193e+00 -1.10465930e-01  8.32425227e-01
     -7.18909399e-01 -1.42882176e+00 -1.05234747e+00  2.62959536e-01
      9.51529808e-01 -2.74716538e-01  8.60910473e-01 -2.19124055e-01
     -2.10194292e+00 -3.77335381e-01 -7.51085854e-01 -8.81017955e-01
      6.74371145e-01  5.98639252e-01  6.10331559e-01  7.14755842e-01
     -5.11928294e-01 -2.30099728e-01  1.15677504e+00 -1.06007336e+00
     -1.01522820e+00  1.71954293e-01 -8.12623339e-01 -7.30640934e-01
     -1.64118008e+00 -6.49698686e-01 -1.70401886e-01 -1.53276763e-01
     -4.22774099e-01 -2.24852915e-01  3.37953391e-01  4.07289668e-01
     -4.61180680e-01  2.20948150e-01 -1.52689033e+00  1.04920136e+00
      1.96450476e+00 -9.05873696e-01  1.61441603e+00  1.28356372e+00
     -6.83415920e-01 -6.45630431e-01  8.99725304e-01  3.05129744e+00
      2.19316668e-01  1.84002833e-01 -2.14166745e+00 -6.27041049e-01
      1.47190685e+00 -7.39355868e-01  1.46162173e-01 -1.01737745e+00
      1.00042232e+00 -2.01625500e-02  6.24353365e-01 -7.02306623e-02
      6.04308724e-01  1.50763805e-01 -6.95982136e-01 -1.15902154e+00
      7.03290461e-01 -1.14620607e+00  6.67298368e-02  2.04423004e-01
      1.20562304e+00  5.50214883e-02  9.96904776e-02 -1.35437182e+00
      3.16389099e-01 -4.39182774e-01  3.55920339e-01 -1.35057367e+00
      1.48302682e+00 -8.69203659e-01 -6.58874553e-01 -4.23855028e-01
      1.50421932e-01 -5.66152593e-01  3.45948614e-01 -7.47523838e-01
     -1.19623426e+00 -3.98605965e-01  2.87306954e-01 -1.01637105e+00
     -2.10535665e-01 -1.72303472e+00 -9.64750506e-02 -2.24236589e+00
     -9.10371270e-01 -8.41739062e-01  1.09801149e+00 -9.42349346e-01
      7.23165681e-01  7.70626473e-01  3.05736539e-01 -1.71333373e+00
      1.92955450e+00  4.65400970e-02 -4.34492447e-02  2.31771452e-01
      8.37837980e-01  1.08126421e+00  1.85025167e+00 -1.16840234e+00
      9.68279908e-01 -2.62325281e-01 -1.53238798e+00  4.37177157e-01
      5.63332241e-01 -3.72169682e-01  8.89878412e-01  8.06846027e-01
     -3.26140782e-01 -1.29885394e+00  1.50610409e+00 -3.91506360e-01
      2.64704947e-01  2.06004029e-01  6.29040471e-01  5.25936357e-01
     -3.62670642e-01 -4.45307357e-02  1.73805342e+00 -1.51459412e+00
     -6.23574644e-01  8.36734046e-01 -3.97223812e-01  2.04096634e-01
      3.82344039e-01 -5.38329816e-01 -6.64114582e-01 -4.36281362e-01
     -2.31595793e-01 -1.47293651e-01 -3.68346675e-01  1.13043248e+00
     -5.42369689e-02 -4.59069394e-01 -1.19212085e-01 -1.53096134e+00
     -2.80671335e-01 -2.14696939e+00  6.82354349e-01  6.95410918e-01
     -1.08724145e+00  1.00653353e+00  1.99529922e+00  1.35160910e+00
      2.23453409e+00  2.01207871e+00 -3.45560502e-01 -1.12993470e+00
     -1.57660633e+00 -1.20479402e-01 -1.38121969e+00 -5.36648316e-01
     -7.29825090e-01  2.42009456e+00  1.47857120e-01 -7.00427315e-01
     -1.23994539e+00 -2.06448490e-01 -1.41790132e-02  5.83170802e-01
     -1.51868606e-01  1.50646153e+00  1.96576757e-01  2.75617559e-01
     -7.95265036e-01 -2.10836801e-01 -5.69139222e-01 -1.29864917e+00
      5.63889982e-01 -1.55530862e+00  1.16185899e+00  1.91957131e+00
      5.52717042e-01 -3.13967811e+00 -9.12944800e-01  3.37661706e-01
     -6.50782425e-02  9.08822283e-01 -1.28407130e+00  1.66829460e+00
     -9.33122091e-01 -1.53480413e-01 -1.09607248e+00  4.94051739e-01
      1.99716421e+00  2.52397481e-01 -8.04190203e-02 -7.10965720e-01
     -5.31788405e-01  7.05460558e-01 -1.87739064e-01 -2.73687078e-03
      9.25871546e-01  1.16163444e+00  2.71796227e-01  2.09531664e-01
     -6.97563354e-01 -1.66336657e-01 -1.72739049e+00  6.29105616e-01
     -6.04239180e-01 -5.07367272e-01  8.95530668e-02  6.70795718e-01
      1.31365215e-01 -1.20064174e+00  5.20231020e-01  9.36537267e-01
     -6.20979550e-01  6.14541161e-01 -3.04013278e-01  4.29336256e-01
     -4.73331586e-01  6.36143583e-01  1.31508333e+00 -1.03617066e+00
      2.78407984e-01  1.39514876e+00  2.00580089e-01 -3.16022059e-01
     -6.36248396e-01 -3.34949213e-01  1.32033106e+00  6.50826742e-01
      5.07976509e-01 -1.20533645e+00 -1.66621758e-01 -1.59461464e-01
      1.06731821e+00  1.05842125e+00 -1.33263554e+00  3.86381352e-01
      2.60219977e-01 -7.12464431e-01  1.18842755e+00  7.48487633e-01
     -1.25607812e-01 -3.07932348e-01 -1.91174644e-02  5.35112221e-01
     -9.41080295e-01  2.02867179e-03  7.46097449e-01 -1.43011900e+00
     -4.59379731e-01  3.71134838e-01  1.21520575e+00  1.59019623e+00
     -1.11857546e-01  1.59739705e+00  2.55413891e+00 -1.25147812e-01
     -6.04724804e-01 -6.96143134e-02  3.48543388e-01 -1.41935629e-01
     -1.78675601e+00 -1.34798677e-01  1.37510144e-01 -2.39196070e-01
      9.94224828e-01 -3.45463996e-01  7.51274078e-01  1.13502040e+00
      2.55126346e-01  2.10996865e+00  7.17082544e-01  7.11734850e-01
     -9.16859807e-01  2.44011053e-01 -1.19199863e+00 -1.14214928e-01
      4.77801219e-01 -1.02765923e+00  3.32053997e+00  8.55415155e-01
     -8.89309190e-01  1.21371929e-01 -1.70169235e+00  7.14161089e-01
     -1.94848200e+00  9.18053536e-01  1.06452917e+00 -2.84051701e-01
     -1.69398111e-01  1.52642904e+00  9.97260703e-02  1.68755040e-02
      2.33981992e-02  6.21840987e-02  9.67863268e-01  1.96911262e+00
     -1.11623638e-01  1.80186406e+00  2.88796457e-01 -3.10158913e-01
     -2.26802967e-01  6.83694320e-01  1.55915002e+00  1.02589790e+00
      7.55330020e-01  2.38602920e+00 -3.45104266e-01 -4.87142197e-01
      7.01321024e-01  1.34883283e+00  1.27381088e-01  3.13531268e-01
     -5.13683489e-01  3.61069123e-01 -1.55837906e+00 -1.01359069e+00
     -5.07144614e-01  6.16774319e-01 -4.30018462e-01  7.05357069e-01
      1.78092198e+00  3.13208478e-01 -2.16426368e+00 -1.64000806e-01
     -1.90645658e+00  1.79643622e+00  1.17069955e+00  4.55892115e-01
     -4.89426360e-02 -1.01723438e+00  6.82734615e-01  6.00445291e-01
      5.91388344e-01 -1.39387091e+00  7.15186207e-01 -3.50482411e-01
     -3.72747426e-01  6.75544119e-01 -5.99036396e-01 -2.30125279e+00
      4.85629591e-01 -7.95903845e-01 -1.19292308e+00  7.46100710e-01
      3.13336747e-01  8.42772740e-01 -5.62002372e-01 -1.42226340e+00
     -9.96759825e-01 -6.07673432e-01  1.42221349e-01  8.75432153e-01
     -4.25759229e-01  1.48611907e+00 -1.71862047e+00  3.02389566e-01
      4.90767818e-01 -7.89522093e-02 -2.98526432e-01 -1.63397946e+00
      1.84371852e-01 -1.56833486e+00  7.86552862e-01 -1.04578615e+00
      2.70608431e-01  1.56212423e+00 -1.11054520e+00 -6.13201224e-02
     -8.24823781e-01  9.07591291e-01 -1.36766365e+00  1.82555750e-01
      5.56388795e-01 -2.80099904e-01 -6.26520917e-01 -2.51760017e-02
      4.88280486e-01  2.37475852e-01  6.53458146e-01  2.46310708e+00
     -1.79044599e+00 -4.72638332e-01 -6.15528290e-01  1.86246191e+00
     -1.59891317e+00  7.69705571e-01  6.50808382e-02 -9.94600066e-01
      1.72543310e+00  1.13244653e-02  2.60693488e-01  1.37576679e+00
      3.59571783e-02 -1.98318367e+00 -3.33319751e-01 -1.96193539e+00
      1.41199363e+00 -1.55585908e+00  5.48388375e-01 -1.43418694e+00
      1.16586502e+00 -1.28120989e-01  3.42364063e-01  1.23059377e+00
      3.39489823e-01 -3.77487668e-02 -1.10763078e+00 -9.53160232e-01
     -4.92898348e-01 -5.97177186e-02 -8.79926329e-02  1.00361419e+00
     -9.54775661e-01 -1.66220354e+00 -1.07170645e-01  1.25648023e+00
      1.22744640e+00  5.61489861e-01 -6.78217439e-01 -3.65594834e-01
      9.26665703e-01  5.97124300e-01  1.74319331e-01 -5.37321014e-01
     -8.61094451e-01  1.31541164e+00 -3.06197999e-01  3.51249960e-01
     -1.78326326e+00  4.00571794e-01 -1.31066526e-01  4.34368066e-01
      1.85145803e+00  1.70503890e+00  3.06242189e-01  1.79638274e+00
      1.11071256e+00  1.20126351e+00  1.28650367e+00 -1.87598858e+00
      5.86659588e-01 -1.17819013e-01 -3.60483276e-01 -8.61117033e-01
     -1.52289173e+00  7.27701783e-01  1.72028336e-01  1.73979112e-01
      1.17774035e+00  1.82491269e+00  2.45478324e+00 -1.02822171e+00
      5.34319835e-01  5.85494983e-01 -6.52038453e-01  1.69221221e+00
     -2.25602912e-01 -7.83268337e-01  8.08819187e-01  3.37301513e-01
     -3.61637081e-01 -1.57412965e+00  1.89114132e+00  1.07852899e+00
      9.83398961e-01  1.51117162e+00  2.67719491e-01  9.70686730e-03
      2.91869473e-01  1.72729591e+00  1.56814876e+00  4.33932055e-01
      2.09768450e-01  8.98908119e-01  1.16546487e-01 -1.01256056e+00
     -8.69788935e-02  6.32182730e-01  3.00688907e-01 -9.14702347e-01
      6.93742438e-01 -5.98483170e-01 -2.21836406e+00  8.32735194e-01
      3.70146390e-01 -4.17765138e-01  9.87252319e-01 -3.84139536e-01
     -8.44172944e-01 -3.98452615e-01  2.19218233e+00  1.23958014e+00
     -8.83418323e-01  2.69798646e-01 -1.68535718e-01  3.97281852e-01
     -1.31397382e+00  6.30342103e-02  3.07848776e-01 -1.58950390e-01
      1.24292773e-01 -1.35067388e+00  2.52455896e-01 -1.93755398e+00
      8.79244877e-02 -1.59022505e+00 -5.72813771e-01  1.09222053e+00
     -1.30552905e+00  3.19641912e-01 -8.72035940e-01  5.74458214e-01
     -1.34866354e+00  8.93840263e-01  3.73908598e-01  1.89302718e+00
     -2.02719553e+00 -4.43039000e-01 -7.30024756e-01  6.63662568e-01
      9.30800931e-01  1.35351122e+00  1.04137619e+00 -1.98123366e-01
     -1.88488081e+00 -2.37276029e-01 -4.15003476e-01  4.98320281e-01
     -9.75608363e-02 -5.25551651e-01  9.14766598e-01 -2.00456785e-01
     -4.57570756e-01  6.76510759e-01 -1.04508600e+00 -2.51121520e-01
     -8.57942233e-01 -1.08330697e-01 -5.71629285e-01  1.07745297e-01
      7.43098270e-01 -7.49244175e-01  1.15560169e+00  9.18636580e-01
     -1.60960411e+00 -2.41094194e-01 -2.02259704e-01  4.62859074e-01
      8.67136474e-02 -4.32569298e-01 -2.42884380e+00 -5.55067740e-01
     -5.41844537e-01  6.72445632e-01  6.24693565e-02  1.12656325e+00
      7.43235903e-01 -6.25515321e-01  6.59583619e-01  8.04508753e-01
      1.64155458e+00  2.18365220e-01  6.13444112e-01  7.61629604e-02
     -5.20283660e-01  7.18630109e-01  1.47876797e+00 -1.07674070e+00
     -1.25332403e+00 -1.88819151e+00 -1.42107808e+00  2.16065780e-01
      1.38950251e+00  2.13957783e+00 -9.28163923e-01 -3.02130352e-01
      6.00203262e-01 -3.03590140e-01  2.25467321e-01 -2.17046411e-01
      7.75271485e-02  3.79930568e-01 -4.24830464e-01 -4.88015681e-01
     -1.08436563e+00 -3.81260442e-01 -1.15930690e-01 -2.51886837e-02
     -5.61110455e-02 -2.22139800e-01  1.08415662e+00  1.96595561e+00
     -1.02573462e+00 -1.51617947e+00 -8.21525192e-01 -3.05396736e-01
      1.92525220e+00 -7.03732630e-01  5.92592747e-01 -4.85675945e-01
     -3.66014112e-01 -1.00376909e-01 -1.96285366e+00  1.15409798e-01
     -1.31837368e+00  2.55083944e-02 -8.63930362e-01 -1.19161238e+00
     -5.13972790e-01  4.02857585e-01 -9.92799260e-02  2.59828164e-01
     -2.88311288e-01 -9.74447294e-01 -9.68427474e-01 -2.09247688e-01
      3.47097014e-01  2.35311878e-01 -4.07639643e-01 -4.74217680e-01
     -8.92363994e-01 -4.15977707e-01  3.51998022e-01 -1.93512090e-01
     -7.75771322e-01  5.02901362e-01  2.37632237e-01 -3.22083193e-01
     -3.67697099e-01  9.74388131e-01  1.16484833e-01 -6.32217397e-01
     -3.22448019e-01  4.70466047e-02 -1.05907881e+00  1.61175479e-01
      7.05626256e-01  5.97576654e-01  5.47004361e-01 -1.74200619e+00
     -4.81447354e-01  1.00271845e+00 -1.05368889e+00  4.24247783e-01
      6.28071719e-01 -1.63332763e+00  2.01183749e+00 -6.05305215e-01
     -1.27889725e-01  2.95665771e-01 -1.53135450e+00 -9.66259818e-01
     -1.63886341e-01 -1.53164023e+00 -2.18356740e-01  8.54419972e-01
      1.48361188e-01  1.72585487e+00 -5.27371681e-01  3.05216013e-01
     -3.50729530e-01 -5.09209768e-01  6.84042498e-01  2.79381170e-01
      2.73126640e-01 -4.89323042e-01 -5.46968770e-02 -2.80235294e+00
      3.58506775e-01  1.86227146e-01 -3.87411883e-03 -1.89347778e+00
     -6.39900991e-03 -8.04219358e-01  1.02872091e+00 -1.25404276e+00
     -6.42310384e-01 -6.76987349e-01  2.30248304e-01  3.01692157e-01
      3.87026534e-01 -2.02786906e+00  3.34390863e-01  1.49222868e+00
      9.94764942e-01 -7.78287435e-01 -4.46830887e-01 -6.79227031e-01
     -1.19079383e+00  5.04418732e-01  6.40563925e-01  1.67564446e+00
      1.98204230e+00 -3.41999970e-01 -2.10368270e-01  4.49395504e-01
      8.85335476e-02  1.66890737e+00  1.25160401e+00  9.31210990e-01
     -2.99761563e-01 -4.47419393e-01  1.55786107e-01  9.99764363e-01
      9.78981062e-01  8.73976119e-03  7.89913268e-01  3.46447770e+00
      1.26165964e+00 -3.06954783e-01 -1.25571979e+00 -6.05367909e-01
     -1.50225255e+00  8.99166429e-01  7.95060888e-01  1.55557134e-01
     -2.62452990e-01  4.80130689e-01 -1.78499012e+00  7.62874463e-01
     -1.67184057e-01  4.46760020e-02  3.95930666e-01 -1.13999802e+00
     -1.22553879e+00  5.17167555e-01  1.02540552e+00 -3.17533634e-01
      8.57944610e-01  1.47324055e+00  6.25886931e-01 -2.76671941e-01
     -2.60586573e+00  5.47848612e-01  6.65940434e-01  1.18949676e+00
     -5.76085303e-01  4.41243809e-01  6.11088847e-01  8.29591883e-01
     -1.17677490e+00 -6.39665287e-01 -8.70414258e-01  5.88896622e-02
     -8.91277699e-01  1.84828048e-01 -1.60955925e+00 -6.52934597e-01
      2.67234818e-01 -9.27336403e-01 -1.31058811e+00  2.74131565e-01
      2.57174783e+00 -1.33577797e+00 -2.28501349e-01  4.69854073e-01
      2.48341759e-01 -2.63334741e+00  3.54525270e-02  9.73856683e-01
      5.87450521e-01 -6.88937843e-01 -2.96148475e-01 -1.27605369e+00
      1.12605900e+00 -1.70296144e+00  2.46620951e-01 -8.82609909e-01
     -1.72835168e+00 -4.48353681e-01 -1.80223512e+00  5.78537986e-01
     -1.24775341e+00 -7.24136777e-01 -1.71594658e+00  5.75603720e-01
     -6.28188413e-01  1.16685609e+00  1.61544331e+00  1.57570240e+00
      3.02807313e-01 -6.04265869e-01  1.28303181e-01  3.75456005e-01
     -2.68805640e-02 -2.86129396e-01  2.67215684e-02  5.53159733e-01
      1.24779167e+00  1.80608024e-02 -5.19008893e-01  1.27324122e+00
      4.18039069e-01  3.75715587e-01 -1.21798274e+00  1.13191754e-01
     -5.52929642e-01  1.78753769e-01  9.95827144e-02 -1.58417573e+00
     -1.05241562e+00 -2.94366109e-03 -9.99725284e-01  2.90350368e-02
     -1.19049344e+00 -3.92403900e-01  1.80007006e+00  2.13904406e+00
      4.03804317e-01  9.56916604e-01 -8.42806618e-01 -7.52427393e-01
     -9.71633128e-01  9.22618974e-02 -1.50412561e+00  3.19007319e-03
     -4.78538398e-01 -2.89051731e-01  9.99864140e-01 -1.83456560e+00
      2.08693594e-01 -1.06135518e-01 -3.79713791e-01  1.51919302e+00
     -9.59161527e-02 -7.50491315e-01  6.98412258e-01  1.54711552e+00
     -2.51378069e-01  8.60391383e-01 -3.97998357e-02  5.36866441e-01
     -1.72308215e+00 -8.86405638e-01 -2.65565290e+00  3.08397923e-01
      2.96129639e-02  1.26257655e-01 -4.91054102e-01 -4.95509485e-01
      1.97077493e-01 -1.29921285e+00  6.58731433e-02 -1.93565383e+00
     -4.89318773e-01 -1.69737929e-01 -1.34828187e+00 -1.84593057e-01
     -1.24107727e-01  3.04006441e-01  1.43290485e+00  1.38595737e+00
      1.62269324e-01 -1.92731061e-01  2.80289219e-01  9.89963033e-01
      8.61966507e-01  8.91970317e-01  4.50924536e-01 -1.91773330e+00
      1.48664730e+00  5.21305848e-02 -2.54053479e-01 -3.32532519e-01
     -5.42074081e-01 -5.07416384e-01 -3.45418230e-01  9.30672742e-01
     -4.12764550e-02  8.81344217e-01 -9.52927144e-01  4.60114355e-01
      6.08995366e-01 -4.95185432e-01  4.77235987e-01  6.65728057e-01
     -1.17426320e+00 -6.01778474e-01 -3.33167342e-01 -1.10351319e+00
      1.35795813e+00 -1.59964914e-01  7.65954244e-01  1.49965783e+00
     -9.41108210e-01 -7.47247022e-01  1.44563551e-02 -3.36867552e-01
     -6.16398619e-01 -3.19034156e-01 -8.40010668e-01 -2.00056185e-01
      1.04040123e+00 -6.57893428e-01  5.38798097e-02 -8.27375821e-01
      1.37090368e+00  7.22089936e-02 -5.62757422e-01 -6.66362388e-02
      9.20173971e-02 -5.08775316e-01  2.13849846e+00  7.41573506e-01
     -4.59214916e-01 -1.20438084e+00 -9.77394043e-01  2.26355164e-01
     -1.95463365e+00 -3.98405561e-01  7.28084469e-01 -7.34710839e-01
     -1.31187407e-01 -6.17300605e-01  1.04342418e+00 -4.97310213e-01
     -4.23126777e-01 -1.45327294e+00  3.44283813e-01 -1.65593641e+00
      4.84726634e-01  9.24397880e-01  6.90162856e-01  3.53596550e-01]
    

    size=1000,表示随机产生1000个数,它们组成的数据是一组连续型的数值型数据。

    在seabonr中,最常用额观察单变量分布的行数distplot(),默认地,这个函数会绘制一个直方图,丙拟合一个核密度估计。

    sns.displot()的使用方法如下:

    sns.distplot(data,bins,hist=True,ked=True)

    • data记录绘图所用的数据
    • bins在绘制直方图时,用于设置分组的个数,默认值时,会根据数据的情况自动分为n个组,若是想要指定分组的个数,可以设置该参数,然后我们也可以增加其数量,来看到更为详细的信息
    • hist和kde参数用于调节是否显示直方图和核密度估计图,默认hist、kde均True
    %matplotlib inline 
    import numpy as np
    import seaborn as sns
    import matplotlib.pyplot as plt
    
    # 从标准正态分布中随机抽取1000个数
    data = np.random.normal(size=1000)
    sns.set(style='whitegrid')
    sns.distplot(data,hist=True,kde=True)
    
    plt.show()
    

    在上面的结果中,横轴表示数据点的取值,纵轴表示概率密度值。使用直方图描述了数据的分布:将数据分成若干个组,用柱形的高度记录每组中数据所占比率。

    在这个图中大家还会发现比我们之前学习的柱状图多一个曲线。

    这条曲线叫做概率密度曲线。就是采用平滑的峰值函数来拟合观察到的数据点,从而对真实的概率分布进行模拟。

    从上图中可以看出,在数字0周围,概率密度值是最大的,但是,随着向两侧的逐渐扩展,概率密度逐渐减小。这样的分布也是一个标准正态分布。

    概率密度曲线的原理比较简单,在我们知道某一事物的概率分布的情况下,如果某一个数在观察中出现了,我们可以认为这个数的概率密度很大,和这个数比较近的数的概率密度也会比较大,而那些离这个数远的数的概率密度会比较小。

    如果我们只想要显示概率密度曲线,不想显示柱状图,我们也可以使用sns.kdeplot()函数绘制数据的概率密度曲线图。

    sns.kdeplot(data,shade=False)

    • shade参数用于设置图形下方的部分是否设置影响,默认值为False,表示不绘制阴影。
    %matplotlib inline
    import numpy as np
    import seaborn as sns
    import matplotlib.pyplot as plt
    
    data = np.random.normal(size=1000)
    sns.set(style='darkgrid')
    sns.kdeplot(data,shade=True)
    plt.show()
    

    在这里插入图片描述

    以上就是连续数值型单变量数据常见的可视化方法,我们常会使用到直方图、核密度图来描述数据的分布。

    在Seaborn中也集成了这两种图像,使用sns.distplot()函数可以将它们绘制在同一张图中。

    二、绘制双变量联合分布图

    有时我们不仅需要查看单个变量的分布,同时也需要查看变量之间的联系,往往还需要进行预测等。这时就需要用到双变量联合分布了。

    在Seaborn中绘制连续数值型双变量我们使用sns.jointplot():
    seaborn.jointplot(x,y,data=None,kind='scatter')

    • x,y:分别记录x轴与y轴的数据名称
    • data:数据集,data的数据类型为DataFrame
    • kind:用于设置图形的类型,可选的类型有:scatter、reg、resid、kde、hex,分别表示散点图、回归图、残差图、核密度图和蜂巢图

    如果我们希望看一看数据中两个变量在二维平面上之间的关系时,则可以使用散点图,因为散点图可以帮助我们很容易地发现一些数据的分布规律。

    现在我们同样使用np.random.normal()函数创建一个含有两列数据的DataFrame,然后根据该数据绘制双变量散点图。

    %matplotlib inline
    import matplotlib.pyplot as plt
    import seaborn as sns
    import pandas as pd
    import numpy as np
    
    # 创建dataframe
    df = pd.DataFrame({'x':np.random.normal(size=500),
                      'y':np.random.normal(size=500)})
    print(df)
    
                x         y
    0    0.311719 -0.167809
    1   -0.708002  1.158129
    2   -0.425021 -0.863146
    3    0.230824 -0.374173
    4   -1.270915  0.791254
    ..        ...       ...
    495  0.150783  1.951766
    496 -0.440655  0.773461
    497 -0.022790 -0.461389
    498  0.600857 -0.416097
    499  0.373607  0.588421
    
    [500 rows x 2 columns]
    
    # 绘制双变量散点图
    sns.jointplot(x='x',y='y',data=df,kind='reg')
    plt.show()
    

    根据结果我们发现,sns.jointplot()函数可以显示两个变量之间的联合关系以及每个单变量的分布。

    我们把函数中的kind参数设置为’reg’就可以做一些简单的线性模型拟合。

    并且在坐标系的上方和左侧分别绘制了两个变量的直方图和核密度图。

    上面我们根据数据绘制了联合散点图,但是你会发现两个数据并没有明确的线性关系,并且散点图有一个问题,就是相同的点会覆盖在一起,导致我们看不出来浓密和稀疏。

    以我们可以使用蜂巢图查看一下数据的分布情况。

    蜂巢图的绘制还是使用seaborn.jointplot()函数,只是将kind参数更该为hex即可。

    # 绘制双变量蜂巢图
    sns.jointplot(x='x',y='y',data=df,kind='hex')
    plt.show()
    

    在这里插入图片描述

    蜂巢图中每个六边形表示一个范围,用颜色表示这个范围内的数据量,颜色越白的地方数据量越小,颜色越深的地方表示数据量越大。

    当数据比较大的时候使用该种方式,更容易找出数据的分布情况。

    在单变量分析的时候,我们绘制了单变量的概率密度曲线,在双变量中我们也可以使用密度图来分析数据的分布情况。

    密度图的绘制还是使用seaborn.jointplot()函数,只是将kind参数更该为kde即可。

    # 绘制双变量蜂巢图
    sns.jointplot(x='x',y='y',data=df,kind='kde')
    plt.show()
    

    在这里插入图片描述

    根据图形可以看出,双变量密度图是使用一些封闭但是不规则的曲线来表示,数据密度越高的地方颜色越深,数据密度越低的地方颜色越浅。

    三、多变量关系分布图

    我们在做数据分析时面对的数据集中往往有很多列数据,在我们还没有确定针对哪两个变量进行挖掘的时候,比较稳妥的做法就是将数据中的每两列都考虑一次,做一个完整的变量关系可视化。

    以著名的iris数据集为例,iris数据集有4个特征,那么每两个特征都考虑一次,就有16种组合。

    %matplotlib inline
    import matplotlib.pyplot as plt
    import seaborn as sns
    import pandas as pd
    import numpy as np
    
    data = pd.read_csv(r'C:\Users\lin-a\Desktop\data\iris.csv')
    data.head()
    
    sepal_length sepal_width petal_length petal_width species
    0 5.1 3.5 1.4 0.2 setosa
    1 4.9 3.0 1.4 0.2 setosa
    2 4.7 3.2 1.3 0.2 setosa
    3 4.6 3.1 1.5 0.2 setosa
    4 5.0 3.6 1.4 0.2 setosa

    我们使用seaborn中的pairplot()方法,就可以绘制连续数值型多变量关系分布图。
    seaborn.pairplot(data,hue,vars,kind,diag_kind)

    参数介绍:

    • data:表示绘图所用到的数据集
    • hue:表示按照某个字段进行分类
    • vars:可以用于筛选绘制图形的变量,用列表的形式传入列名称
    • kind:用于设置变量间图形的类型,可以选择“scatter散点图”或“reg回归图”
    • diag_kind:用于设置对角线上的图形类型,可以选择“hist直方图”或“kde核密度图”
    sns.pairplot(data)
    plt.show()
    

    在这里插入图片描述

    从图中可以看出,在petal_length和petal_width散点图中,呈现了比较明显的线性关系。

    接下来我们将分类变量species考虑在图中,看看不同类别的鸢尾花的数据有没有明显的差别,将hue参数设置为species。

    sns.pairplot(data,hue='species')
    plt.show()
    

    在这里插入图片描述

    从图中可以看出,不同的颜色代表着花的不同种类,同一种的数据聚集在一起,并且与其他类别的数据交集比较少,表示三种花有明显的差别。

    我们也可以使用pairplot函数绘制两个变量的关系分布图。
    使用kind参数设置两个变量间使用回归图,使用diag_kind参数设置对角线上的图像类型为密度图。

    sns.pairplot(data,hue='species',vars=['sepal_length', 'sepal_width'],kind='reg',diag_kind='kde')
    plt.show()
    

    在这里插入图片描述

    我们可以根据自己对于数据的理解,设置不同的图像样式,来继续发掘数据中的信息。

    四、总结

    单变量分析图

    在这里插入图片描述

    双变量联合分布图

    在这里插入图片描述

    多变量关系分布图

    在这里插入图片描述

    五、练习

    1. 使用数据完成以下要求:完成下面的要求: 1. 绘制出每两列变量之间的关系; 2. 不同性别的消费数据有没有明显的差别。 3. 绘制消费总额与小费两个变量的关系分布图。
    %matplotlib inline
    import seaborn as sns
    import pandas as pd
    import matplotlib.pyplot as plt
    
    # 读取数据
    data = pd.read_csv(r'C:\Users\lin-a\Desktop\data\tips.csv')
    # 了解数据基本特征
    print(data.shape)
    data.head()
    
    (244, 7)
    
    total_bill tip sex smoker day time size
    0 16.99 1.01 Female No Sun Dinner 2
    1 10.34 1.66 Male No Sun Dinner 3
    2 21.01 3.50 Male No Sun Dinner 3
    3 23.68 3.31 Male No Sun Dinner 2
    4 24.59 3.61 Female No Sun Dinner 4
    # 绘制出每两列变量之间的关系
    sns.pairplot(data)
    plt.show()
    

    在这里插入图片描述

    # 不同性别的数据是否有明显差异
    sns.pairplot(data,hue='sex')
    plt.show()
    

    在这里插入图片描述

    # 绘制消费总额和消费之间的关系分布图
    sns.pairplot(data,vars=['total_bill','tip'],kind='reg',diag_kind='kde')
    plt.show()
    

    在这里插入图片描述

    1. 继续使用以上数据,完成以下要求: 1. 绘制出用餐人数的概率分布图; 2. 绘制出用餐人数与小费的散点图;
    %matplotlib inline
    import seaborn as sns
    import pandas as pd
    import matplotlib.pyplot as plt
    
    # 读取数据
    data = pd.read_csv(r'C:\Users\lin-a\Desktop\data\tips.csv')
    # 了解数据基本特征
    print(data.shape)
    data.head()
    
    (244, 7)
    
    total_bill tip sex smoker day time size
    0 16.99 1.01 Female No Sun Dinner 2
    1 10.34 1.66 Male No Sun Dinner 3
    2 21.01 3.50 Male No Sun Dinner 3
    3 23.68 3.31 Male No Sun Dinner 2
    4 24.59 3.61 Female No Sun Dinner 4
    # 取出用餐人数列
    size = data['size']
    # 绘制单变量分析图
    sns.set(style='whitegrid')
    sns.distplot(size,kde=True)
    plt.show()
    

    在这里插入图片描述

    # 取出用餐人数与消费列
    data2 = data[['size','tip']]
    # 参数x_jitter,这个参数可以设置size值的偏离范围,这里size代表用餐人数,那么我们设置的x_jitter应该在0-1之间,我们设置为0.3,散点图显得更易观察
    sns.jointplot(x='size',y='tip',data=data2,kind='reg',x_jitter=0.3)
    plt.show()
    

    在这里插入图片描述

    展开全文
  • 机器学习:多变量线性回归

    千次阅读 2015-08-09 11:27:27
    ************************************** 注:本系列博客是博主学习...本系列博客包括线性回归、逻辑回归、神经网络、机器学习的应用和系统设计、支持向量机、聚类、将维、异常检测、推荐系统及大规模机器学习等内容

    **************************************

    注:本系列博客是博主学习Stanford大学 Andrew Ng 教授的《机器学习》课程笔记。博主深感学过课程后,不进行总结很容易遗忘,根据课程加上自己对不明白问题的补充遂有此系列博客。本系列博客包括线性回归、逻辑回归、神经网络、机器学习的应用和系统设计、支持向量机、聚类、将维、异常检测、推荐系统及大规模机器学习等内容。

    **************************************

    多变量线性回归

    多维特征

    目前为止,我们探讨了单变量(特征)的回归模型,现在我们对房价模型增加更多的特征,如房间数楼层等,构成一个含有多个变量的模型,模型中的特征为(x ,x ,...,x )。




    多变量梯度下降

    与单变量线性回归类似,在多变量线性回归中,我们也构建一个代价函数,则这个代价函数是所有建模误差的平方和,即:


    其中:


    我们的目标和单变量线性回归问题中一样,是要找出使得代价函数最小的一系列参数。  多变量线性回归的批量梯度下降算法为: 


    左边为单变量学习方法,右边为多变量学习方法。


    梯度下降法实践

    1 特征缩放

    在我们面对多维特征问题的时候,我们要保证这些特征都具有相近的尺度,这将帮助梯度下降算法更快地收敛。

    以房价问题为例,假设我们使用两个特征,房屋的尺寸和房间的数量,尺寸的值为 0-2000平方英尺,而房间数量的值则是0-5,以两个参数分别为横纵坐标,绘制代价函数的等高线图能,看出图像会显得很扁,梯度下降算法需要非常多次的迭代才能收敛。

    解决的方法是尝试将所有特征的尺度都尽量缩放到-1 到1之间。如图:

    最简单的方法是令:

    2 学习率

    梯度下降算法收敛所需要的迭代次数根据模型的不同而不同,我们不能提前预知,我们可以绘制迭代次数和代价函数的图表来观测算法在何时趋于收敛。


    梯度下降算法的每次迭代受到学习率的影响,如果学习率 α过小,则达到收敛所需的迭代次数会非常高;如果学习率α 过大,每次迭代可能不会减小代价函数,可能会越过局部最小值导致无法收敛。

    通常可以考虑尝试些学习率:α=0.01,0.03,0.1,0.3,1,3,10 

    特征和多项式回归

    如房价预测问题:


    线性回归并不适用于所有数据,有时我们需要曲线来适应我们的数据,通常我们需要先观察数据然后再决定准备尝试怎样的模型。另外,我们可以将模型转化为线性回归模型。如下图 x->size:


    注:如果我们采用多项式回归模型,在运行梯度下降算法前,特征缩放非常有必要。 

    正规方程

    到目前为止,我们都在使用梯度下降算法,但是对于某些线性回归问题,正规方程方法是更好的解决方案,它可以直接解出参数。如:


    假设我们的训练集特征矩阵为X(包含了 x0=1)并且我们的训练集结果为向量 y,则利用正规方程解出向量:

    以下表示数据为例:

     

    则根据公式:   可以得到所需参数。

    梯度下降与正规方程的比较: 


    ******************

    作者:hao_09

    时间:2015/8/9

    文章地址:http://blog.csdn.net/lsh_2013/article/details/47374045

    ******************





      





    展开全文
  • 机器学习之——多变量线性回归

    千次阅读 2016-04-18 19:02:17
    在之前的博客中,描述过单变量线性回归(Linear Regression with One Variables)的模型,这次来分享一下多变量线性回归模型(Linear Regression with Multiple Variables)。 我们还是使用之前的问题,对房价的预测...

    在之前的博客中,描述过单变量线性回归(Linear Regression with One Variables)的模型,这次来分享一下多变量线性回归模型(Linear Regression with Multiple Variables)

    我们还是使用之前的问题,对房价的预测。这一次增加更多的特征,例如房子的楼层数、卧室数量等,这样就构成了一个含有多个变量的模型,模型中的特征我们标记为(X1,X2,X3,...,Xn)。



    增添了更多的特征之后,我们还要引入一些新的标注:


    支持多变量的假设函数 h 的表达式为:


    我们看到,这个表达式中有n+1个参数和n个变量(ø0没有变量),我们为了使公式能够简化一些,添加一个X0使其的值为1,即:X0=1,这样公式便转化为:


    此时,这个模型中的参数是一个n+1维的向量,实际上在多变量回归模型中,任何一个训练集也都是n+1维的向量,特征矩阵X的维度此时是m*n+1。

    所以,我们的假设函数 h 的表达式可以简化成:


    参数向量ø的转置乘上特征向量X。

    到目前,我们得到了模型的假设函数 h ,下一步我们来构建代价函数(Cost Function)

    多变量线性回归的代价函数与单变量线性回归的代价函数相似,是所有建模误差的平方和(MSE),即:


    我们得到了代价函数,我们的目标也就和单变量线性回归问题中的一样,找出使得代价函数最小的一系列参数。我们也是用批量梯度下降(Batch Gradient Descent)的方法:


    将代价函数带入,即:


    求导之后,得到:


    在初始状态,我们随机选择一系列参数值,计算所有的预测结果之后,再给所有的参数一个新的值,如此循环直到收敛(convergence)

    到此,我们已经实现了多变量的线性回归。但是在计算的过程当中,我们发现,有很多时候,参数的取值差距非常大,导致很多时候要进行大量的大数值的计算。在处理多维特征(多变量)的问题时,我们要保证这些特征都具有相近的范围,这样将更好的帮助梯度下降算法更快的收敛。这时,我们可以使用特征缩放(Features Scaling)方法。

    我们还是以放假预测问题为例,假设我们使用两个特征,房屋的尺寸和房间的数量。房屋的尺寸范围在 0 ~ 2000 平方英尺, 房间数量在 0 ~ 5 , 以这两个参数为横纵坐标,绘制代价函数的等高线图能看出图像会显得很扁,梯度下降算法要执行很多次迭代才能收敛。


    特征缩放解决这个问题,是尝试将所有特征的取值范围尽量都缩放到 -1 ~ 1 之间。最简单的方法是令 :


    其中,Xn代表第n个特征,µn代表平均值(AVE),Sn代表标准差(SD)

    梯度下降算法的表达式中,有一个alpha学习速率(Learning Rate)。算法所需要的迭代次数根据模型的不同而不同,我们这方面不能够提前预知,我们可以绘制迭代次数和代价函数的图表来观测算法在何时趋于收敛。


    也有一些自动测试是否收敛的方法,例如:将代价函数的变化值与一个常数阈值(0.001)进行比较。但是我个人感觉还是上面的图表更直观一些。

    梯度下降算法每次迭代,都会受到学习速率的影响,如果学习速率较小,则达到收敛所需要迭代的次数就会非常高;反之,如果alpha过大,则每次迭代可能都不会减小代价函数的结果,甚至会超过局部最小值导致无法收敛。

    通常,在我做一些模型时,我会设置学习速率的值在 0.01,0.03,0.1,0.3,1,3,10 这些参考值。

    综上,就是多变量线性回归模型的主要内容。下一次将给大家分享 多项式回归于正规方程(Polynomial Regression and Normal Equation)


    展开全文
  • 1.rstool工具箱 具体参考官网... 用法:rstool(x,y,model,alpha,xname,yname) ​ 出现一个交互式画面(如下所示) x为一个矩阵(n*m) y矩阵(n*1) alpha:显著水平 ...
  • 机器学习Machine Learning - Andrew NG ...linear regression works with multiple variables or with multiple features多变量线性规划 Multiple Features变量 Gradient Descent for Multiple
  • 回归分析:单变量线性回归

    千次阅读 2015-10-05 12:35:14
    首先用R语言构造数据点 > y (5, 7, 9, 11, 16, 20) ...绘制的散点图像如下所示 用lsfit(x,y)计算回归直线方程的谢啦和截距以及残渣 输入如下所示: > lsfit(x,y) 产生的结果如下: $coefficients I
  • 变量线性回归

    千次阅读 2019-03-18 21:12:44
    x,因为只含有一个特征/输入变量,因此这样的问题叫作单变量线性回归问题。 2 代价函数 在线性回归中我们有一个像这样的训练集,代表了训练样本的数量,比如 。而我们的假设函数,也就是用来进行预测的函数,是...
  • 变量线性回归原理解析

    千次阅读 2017-06-28 11:25:37
    摘要: 给出一个房价预测的例子,x轴是房子的大小,y轴是房子的价格,中标注了一些房子作为数据集,而这些点被称为标注数据(labeled data),利用这样的...Linear Regression with one Variable(单变量线性
  • 变量线性回归模型与结果解读

    千次阅读 2019-06-09 13:59:19
    其中Y为输出变量、响应变量、因变量、被解释变量;m为均值;e为不可控因子,可以理解为噪声。故模型等式右边是用X组成的函数去描述Y的均值,即模型是在平均的意义下去描述自变量与因变量间的关系...
  • 在前面博客中介绍了单变量线性回归的实现过程,本文将介绍多变量线性回归算法。 两者的对比如下: 1.数据方面的差异: 单变量线性回归数据: 多变量线性回归数据: 对于单变量线性回归来说,只有一个特征...
  • **************************** 注:本系列博客是博主学习Stanford...本系列博客包括线性回归、逻辑回归、神经网络、机器学习的应用和系统设计、支持向量机、聚类、将维、异常检测、推荐系统及大规模机器学习等内容。
  • 转载, 太经典了,学习了 ...当因变量是非时间的连续性变量(自变量可包括连续性的和离散性的)时,欲研究变量之间的依存关系,多元线性回归分析是一个有力的研究工具。  多元回归分析的任务就是用数理统计方...
  • 一直对线性线性没有很准确的定义认识,今天特意查了查,特此记录下。 怎样区分线性和非线性 1.线性Line,是指量与量之间按照比例成直线关系,在数学上可理解为一阶导数是个常数;  非线性non-line则指不按照比例...
  • 任意变量都可以考虑相关问题,不单单局限于两个变量,一次可以分析多变量的相关性 任意测量尺度的变量都可以测量相关强度,不单单仅可以测连续与连续变量的相关性,连续变量和有序分类变量,连续变量和...
  • 前言:之前的文章(高维数据中特征筛选方法的思考总结——单变量分析筛选法)中,对单变量分析筛选变量进行了初步考量,本文将进一步总结多变量分析筛选法。...多变量分析方法根据建模特点可以分为线性降维和非...
  • 多重对应分析在超过两个以上定类变量时有时候非常有效,当然首先我们要理解并思考,如果只有三个或有限的几个变量完全可以通过数据变换和交互表变量重组可以转换成两个定类变量,这时候就可以用简单对应分析了。...
  • 机器学习-线性回归-维度特征变量

    千次阅读 2016-08-04 23:32:46
    1. 假设函数之前的几篇文章里面,我们都只是介绍了单维特征变量线性回归模型,比如预测房价的时候,我们只用了房子的面积这个维度。...如下因此,个维度特征变量线性回归的假设函数可定义为还是假
  • 1.从概率论中相关系数推广而来 ...然后,在1936年,有个叫做hotelling的数学家,又进一步做了推广,研究 个随机变量个随机变量之间的线性相关关系,提出了 经典相关分析 的理论。   2.经典相关分...
  • 多元线性回归哑变量设置方法

    千次阅读 2021-04-14 23:53:13
    多元线性回归是研究一个连续型变量和其他变量线性关系的统计学分析方法,如果在自变量中存在分类变量,如果直接将分类变量和连续性变量统一纳入模型进行分析是有问题的,尤其是无序分类资料,即使进入了模型,...
  • 论文研读-基于决策变量分析的大规模目标进化算法 Multiobjective Evolutionary Algorithm Based on Decision Variable Analyses for Multiobjective Optimization Problems With Large-Scale Variables 觉得有用的...
  • 市场研究中的多变量分析技术…

    千次阅读 2017-04-14 09:52:34
    原文地址:市场研究中的多变量分析技术(转至沈浩老师博客)作者:小蚊子数据分析原文:http://shenhaolaoshi.blog.sohu.com/139238638.html ...下面我来总结一下,如何选择多变量统计分析方法来适应研究的需要!
  • 变量相关性热力

    千次阅读 2019-04-13 10:41:36
    我们在建模的时候为了避免多重共线性一般都会分析变量之间的相关性。衡量变量相关性我们一般都是计算变量两两之间的皮尔逊相关系数( Pearson correlation coefficient)。为了能够更好的展现变量之间的相关性,下面...
  • Coursera公开课笔记: 斯坦福大学机器学习第二课“单变量线性回归(Linear regression with one variable)” 发表于 2012年05月6号 由 52nlp 斯坦福大学机器学习第二课”单变量线性回归“学习笔记,本次课程...
  • 实验目的:了解R语言多元线性回归模型中变量的选择和诊断分析 实验要求:对给出的数据用逐步回归的方法选择变量,并对实验结果进行诊断分析。 实验数据:1. 对给出数据进行变量选择,并进行回归诊断。 实验代码: a1...
  • 目录 数据导入 单变量线性回归 绘制散点 相关系数R 拆分训练集和测试集 ...多变量线性回归 ...数据检验(判断是否可以做线性回归) ...● 多变量线性回归:h(x)=theta0 + theta1* x 1 + theta2* x...
  • 线性判别分析LDA详解

    千次阅读 2014-10-08 22:38:18
    一年前就研究过Fisher线性判别分析,到现在又忘得差不多了,在此特总结一下: 1、线性判别分析是统计学上的一种分析方法,用于在已知的分类之下遇到有新的样本时,选定一个判别标准,以判定如何将新样本放置于哪...
  • 线性回归分析-回归算法

    千次阅读 2019-09-05 14:25:35
    线性回归分析-回归算法 1 回归算法之线性回归 ...线性回归通过一个或个自变量与因变量之间进行建模的回归分析。   一元线性回归:涉及到的变量只有一个   多元线性回归:涉及到的变量两个或两个以上 ...
  • 用R进行多元线性回归分析建模

    万次阅读 多人点赞 2016-05-31 22:20:37
    概念:多元回归分析预测法,是指通过对两个或两个以上的自变量与一个因变量的相关分析,建立预测模型进行预测的方法。当自变量与因变量之间存在线性关系时,称为多元线性回归分析
  • 线性回归分析

    千次阅读 2014-09-29 16:19:48
    简单线性回归模型描述了两个变量x和y之间的关系,用以下方程表示。θ0  和θ1 为参数,ξ为误差。 y=θ0 +θ1 x + ξ 如在数据集MASS cats中,它包含了两个随机变量Bwt和Hwt的样本数据,主要描述成年雄猫和雌猫的...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 103,403
精华内容 41,361
关键字:

多变量线性分析图