精华内容
下载资源
问答
  • 统计学习方法习题1.1

    2020-04-20 23:28:52
    对于贝叶斯估计: Beta分布参考https://blog.csdn.net/a358463121/article/details/52562940

    极大似然估计:https://blog.csdn.net/qq_39355550/article/details/81809467

    对于贝叶斯估计:
    Beta分布参考https://blog.csdn.net/a358463121/article/details/52562940

    展开全文
  • 统计学习方法习题5.3

    2020-04-24 21:40:43
    看到知乎一个回答 先摆在这里 https://www.zhihu.com/question/65502113

    看到知乎一个回答 先摆在这里
    https://www.zhihu.com/question/65502113
    在这里插入图片描述

    展开全文
  • 根据表5.2所示的数据,用平方误差损失准则生成二叉回归树 二叉回归树的算法为: 其中公式5.21中的c1,c2分别为R1和R2上数据的平均值 代码仿照机器学习实战上关于决策树实现:

    根据表5.2所示的数据,用平方误差损失准则生成二叉回归树


    二叉回归树的算法为:


    其中公式5.21中的c1,c2分别为R1和R2上数据的平均值

    代码仿照机器学习实战上关于决策树实现(递归的建立一棵树)保存为cart.py:

    #coding:utf-8
    import numpy as np
    
    #数据集
    def createDataSet():
        dataSet = [4.5,4.75,4.91,5.34,5.8,7.05,7.9,8.23,8.7,9]
        datalabel = [1,2,3,4,5,6,7,8,9,10]
        return dataSet,datalabel
    
    #计算数据集的平方误差
    def calcMSE(dataSet):
        means = np.mean(dataSet)
        sums = sum([(i-means)*(i-means) for i in dataSet])*1.0
        return sums
    
    #选择最优的划分点
    def chooseBestFeatureToSplit(dataSet):
        nums = len(dataSet)-1
        if nums == 0:
            return 0
        best = 0
        bestMES = 100000
        for i in range(nums):
            temp = calcMSE(dataSet[:i+1]) + calcMSE(dataSet[i+1:])
            if temp <= bestMES:
                bestMES = temp
                best = i
        return best
    
    # def getkeyofromvalue(dataSet,value):
    #     u = -1
    #     for i in range(len(dataSet)):
    #         if dataSet[i] == value:
    #             u = i
    #     return u
    
    #建树过程
    def createTree(dataSet,datalabel,left,right):
        if right-left == 1:
            #return dataSet[left]
            return datalabel[left]
        if left >= right:
            return -1
        #最优划分函数加上left为原数据集上的最优划分下标
        bestchoose = left + chooseBestFeatureToSplit(dataSet[left:right])
        #print bestchoose+1
        mytree = {datalabel[bestchoose]:{}}
        mytree[datalabel[bestchoose]]['left'] = createTree(dataSet,datalabel,left,bestchoose)
        mytree[datalabel[bestchoose]]['right'] = createTree(dataSet,datalabel,bestchoose+1,right)
        return mytree
    

    调用方法:

    import cart
    mydat,myla = cart.createDataSet()
    myt = cart.createTree(mydat,myla,0,len(mydat))
    print myt
    结果(没有进行可视化操作):



    展开全文
  • 李航统计学习方法习题5.1

    千次阅读 2014-04-24 22:33:40
    定义5.3(信息增益比)特征A对训练数据集D的信息增益比定义为其信息增益与训练数据集D关于特征A的值的熵之比,即 ...习题5.1根据表5.2所表示的训练数据集,利用信息增益比(C4.5算法)生成决策树。 由题意知:

    定义5.3(信息增益比)特征A对训练数据集D的信息增益比定义为其信息增益与训练数据集D关于特征A的值的熵之比,即

                                                                                                                     

    其中,,n是特征A的取值个数。(书本原定义)

    习题5.1:根据表5.2所表示的训练数据集,利用信息增益比(C4.5算法)生成决策树。

    由题意知:


    由于的信息增益比最大,所以选择特征作为根节点的特征,得到


                                                                                             D1只有同一类的样本点。

    对于D2再计算信息增益比得


    选择特征A2作为D2的根节点

                                                                                                      

    该决策树只用了两个特征!与书本的例题相一致。

    展开全文
  • 统计学习方法课后习题

    千次阅读 2018-05-17 21:02:32
    数值比字符串更容易处理,所以在学习过程中需要将字符串映射到数值: 特征(编号) 0 1 2 年龄(0) 青年 中年 老年 有工作(1) 否 是 有自己的房子...
  • ##《统计学习方法》各章节代码实现与课后习题参考解答 章节 代码 课后习题 第1章 统计学习方法概论(LeastSquaresMethod) 传送门 传送门 第2章 感知机(Perceptron) 传送门 传送门 ...
  • 李航-统计学习方法-习题-第九章

    千次阅读 2018-11-13 09:44:01
    9.2 证明引理 9.2. 引理 9.2 若P~θ(Z)=P(Z∣Y,θ)\widetilde P_\theta(Z)=P(Z|Y,\theta)Pθ​(Z)=P(Z∣Y,θ),则 F(P~,θ)=logP(Y∣θ) F(\widetilde P, \theta)=logP(Y|\theta)F(P,θ)=logP(Y∣θ). ...
  • 李航 统计学习方法 第一章 课后 习题 答案

    万次阅读 多人点赞 2017-04-14 14:48:36
    1.1统计学习方法的三要素是模型、策略、算法。伯努利模型是定义在取值为0与1的随机变量上的概率分布。统计学分为两派:经典统计学派和贝叶斯统计学派。两者的不同主要是,经典统计学派认为模型已定,参数未知,参数...
  • 第一章 https://blog.csdn.net/familyshizhouna/article/details/70160782 第二章  2.1-2.2 https://blog.csdn.net/cracker180/article...
  • https://sine-x.com/statistical-learning-method/#第9章-em算法及其推广
  •   提升方法是一种常用的统计学习方法,是集成学习实现的一种方式,《统计学习方法》只介绍了提升方法的相关知识,本文从集成学习方法开始回顾,形成这部分内容的一个学习框架。   集成学习通过构建并结合多个...
  • 统计学习方法 第一章习题答案

    万次阅读 2019-08-05 16:42:59
    答:这个结论出自1.3节统计学习三要素介绍经验风险最小化和结构风险最小化中,分别举了两个例子,其一,模型是条件概率分布,当损失函数是对数损失函数时,经验风险最小化等价于极大似然估计。其二,模型是条件概率...
  • 李航 《统计学习方法习题8.1

    千次阅读 热门讨论 2018-04-24 21:19:32
    解题:因为中假设弱分类器为决策树,可采用CART二叉分类树。1、初始化数据权值分布:D = (w11, w12, ..., w110) = (0.1,0.1, ..., 0.1)w1i =0.1 ,i = 1,2,....,102、计算各特征的基尼系数(为计算方便,就取...
  • 概率论与数理统计学习指导与习题精讲,概率论与数理统计学习指导与习题精讲

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 23,683
精华内容 9,473
关键字:

统计学习方法的习题