精华内容
下载资源
问答
  • 这是我学习机器学习西瓜书的思维导图笔记,这个只是绪论的思维导图,思维导图更加明了,但博客上看不到所以我就上传成资源了
  • 机器学习笔记

    2019-08-31 10:24:24
    机器学习笔记
  • 西瓜书 知识框图.zip

    2019-10-06 09:53:39
    来自大数据文摘PItt的西瓜书阅读知识框图,思路比较清晰,图片格式的,对初学者总览很有帮助。
  • 《南瓜书》是对《西瓜书》更加详细的公式推导
  • 一、绪论: 1、机器学习所研究的主要内容,是关于在计算机上从数据中产生“模型”的算法,即学习算法。 个人理解:感觉上是教会计算机如何进行归纳总结,个人理解的话应该是有两个阶段,实现是需要进行大量的事实...

    一、绪论
    1、机器学习所研究的主要内容,是关于在计算机上从数据中产生“模型”的算法,即学习算法
    个人理解:感觉上是教会计算机如何进行归纳总结,个人理解的话应该是有两个阶段,实现是需要进行大量的事实积累,也就是神经网络中的“训练”,而后在从中归纳出有用的“经验”。但问题是从“1+1”中归纳出“等于2”比较简单,二者的联系比较强;如何从“天阴了”中归纳出“回家收衣服”比较难,二者不是直接联系的,有一个“天阴了—要下雨—衣服收了没有?—回家收衣服”的过程,所以是二者的联系越细微,经过的中转越多,对于计算机来进行模型模拟越困难。

    2、术语
    (1)“模型”泛指从数据中学得的结果;
    (2)“数据集”指记录的集合;
    (3)“示例”或“样本”指数据集中的每条记录,是关于一个事件或对象的描述;
    (4)“属性”或“特征”指反映事件或对象在某方面的表现或性质的事项(特点);
    (5)“属性值”指属性上的取值;
    (6)“属性空间”或“样本空间”或“输入空间”指属性张成的空间;
    (7)由于每个示例都可以在属性空间中有一个坐标位置,对应于一个坐标向量,也可以将一个示例称为一个坐标向量
    (8)“学习”或“训练”指从数据中学得模型的过程,这个过程通过执行某个学习算法得到,训练过程中使用的数据称为“训练数据”,每个样本称为一个“训练样本”
    (9)“假设”指学得模型对应的关于数据的某种潜在规律
    (10)“标记”指关于示例结果的信息
    (11)“样例”指有了标记信息的示例,一般用(xi,yi)表示第i个样例,其中yi为xi的标记,y是所有标记的集合,也叫标记空间或输出空间
    (12)如果预测的结果是离散值,则此类学习任务称为“分类”;如果是连续值则“回归”
    (13)“测试”指学得模型后使用其进行预测的过程,被预测的样本称为测试样本
    (14)“聚类”指将训练中的数据集分为若干组,每组称为一个“簇”。注意在学习过程中使用的训练样本通常不拥有标记信息
    (15)学习任务分为“监督学习”和“无监督学习”,分类和回归是前者的代表,聚类是后者的代表
    (16)“泛化”指学得模型适用于新样本的能力
    (17)通常假设样本空间中全体样本服从一个未知“分布”D,每个样本都是独立从这个空间中取得到,即独立同分布
    个人理解:也就是说将每一个事件作为一条记录,将其记录在一个属性空间中,而在属性空间中的某一部分区域代表一种结果

    3、令D={x1,x2,…,x3}表示包含m个示例的的数据集,每个示例由d个属性描述,则每个示例是d维样本空间中的一个向量,d称为维数

    4、假设空间
    (1)归纳和演绎是科学推理的两大基本手段。归纳是从特殊到一般的泛化过程,即从具体的事实中归结出一般性规律;演绎是从一般到特殊的特化过程,即从基础原理推演出具体情况。
    个人理解:可以认为,我们先通过训练学习算法使其自己归纳出一定的基础原理原则,然后再测试我们的学习算法使其通过自己得到的基础原理原则进行演绎,针对不同的测试样本得到自己的结果。就是一个泛化和特化的过程。
    (2)概念学习:狭义的归纳学习,要求从训练数据中学得概念,但由于要学得泛化性能好且语义明确的概念太困难。概念学习中最基本的是布尔概念学习,即对“是”,“不是”的0/1布尔值的学习。

    5、归纳偏好
    (1)同一训练集产生的模型面对新样本时可能会产生不同的输出,而在判断选取哪一个输出的时候(对应于曲线拟合),这个时候学习算法本身的“偏好”就会起关键作用。
    (2)任何一个有效的机器学习算法必有其归纳偏好,否则它将被假设空间中看似在训练集上“等效”的假设所迷惑,而无法产生确定的学习结果。
    个人理解:反映的结果不确定,有时反映一种结果,有时反映另一种结果
    (3)回归学习图:每个训练样本是图中的一个点,要学得一个与训练集一致的模型,相当于找到一条穿过所有训练样本点的曲线。由于样本点的训练集数量有限,存在着很多条曲线与其一致,学习算法必须有某种偏好,才能产生他认为“正确”的模型。归纳偏好可以看作学习算法在一个很庞大的假设空间中对假设进行选择的价值观。
    (4)奥卡姆剃刀原则:若有多个假设与观察一致,则选择最简单的那个。这里如何理解“简单”是关键,可以将“平滑”意味着“简单”。
    (5)算法的归纳偏好是否与问题本身相匹配大多数时候决定算法能否取得好的性能
    (6)NFL定理:没有免费的午餐定理,在所有“问题”出现的机会相同,或所有问题同等重要的时候,无论学习算法多聪明或是多笨拙,他们的期望性能相同。但注意,在很多时候,我们只需要关注自己正在试图解决的问题。
    个人理解:问题出现的概率不同,有的问题本身出现的概率高,有的问题出现的概率低
    (7)若考虑所有潜在的问题,则所有学习算法一样好,要讨论算法的相对优劣,必须要针对具体的学习问题;在某些问题上表现好的学习算法,在另一些问题上却可能不尽人意,学习算法自身的归纳偏好应与问题相匹配

    6、发展历程
    (1)机器学习是人工智能研究发展到一定阶段的必然结果。
    (2)一开始,人工智能主要倾向于推理,认为只要能赋予机器逻辑推理能力,机器就具有智能,由此产生了可以证明数学定理的程序
    (3)然后认识到,仅仅具有逻辑推理能力远远不能实现人工智能,认为要使机器具有智能,就必须设法使机器拥有知识。但最终面临知识瓶颈,,就是由人来把知识总结出来再教给计算机是相当困难的,由此产生出让机器自己学习知识的想法
    (4)再然后,基于神经网络的“连接主义”和基于逻辑表示的“符号主义”发展,将机器学习分为:“从样例中学习”“在问题求解和规划中学习”“通过观察和发现学习”“从指令中学习”
    (5)机械学习称为“死记硬背式学习”,即把外界输入的信息全部记录下来,在需要时原封不动地取出来使用,这实际上没有真正的学习,而是仅仅在进行信息的存储与检索
    (6)示教学习和类比学习类似于“从指令中学习”和“通过观察和发现学习”
    (7)归纳学习相当于“从样例中学习”,即从训练样例中归纳出学习成果,其涵盖了监督学习、无监督学习等。其中一大主流是符号主义学习,包含决策树和基于逻辑的学习。典型决策时学习以信息论为基础,以信息熵的最小化为目标,直接模拟了人类对概念进行判定的树形流程。基于逻辑的学习的著名代表是归纳逻辑程序设计,可以看做机器学习和逻辑程序设计的交叉,使用一阶逻辑进行只是表示,通过修改和扩充逻辑表达式来完成对数据的归纳。
    个人理解:人工智能,机器学习,都是想通过代码来实现某种程度的类人类生物智慧,那么我们什么时候才会觉得一个东西“像人”呢?而且,神经网络是否就像是在通过物理上模仿人脑来实现人工智能,而机器学习是通过抽象上模仿人的思维来实现人工智能?实际上可以理解为神经网络是从机理上模仿人脑来实现人工智能,而机器学习是从功能上模仿人脑来实现人工智能。
    (8)与符号主义学习能产生明确的概念表示不同,连接主义学习产生的是“黑箱”模型。连接主义最大的局限性是其“试错性”,其学习过程设计大量参数,而参数的设置缺乏理论指导,主要依靠手工“调参”。而连接主义中的深度学习,狭义地说就是“很多层”的神经网络,深度学习技术涉及的模型复杂度非常高,以至于只需要下功夫调参,把参数调好,性能往往就好。但深度学习缺乏严格的理论基础。
    个人理解:那么,这是否可以逆推出人的神经也是成一张多维度的网?但这个网的维度又如何计算?是不是维度越高越智能?而人脑中的维度又对应着神经网络中的什么?
    (9)个人理解:实际上人脑也是一张维度非常高的神经网络。医学上证实,人在婴儿时期的大脑中各个神经相互之间联系相当多,而且杂乱无章,基本上各个节点之间都有链接,而在人的成长过程中,部分节点的链接被加强,部分被削弱甚至消失,这实际上就是我们神经网络的一个调参的过程。

    展开全文
  • 一、为什么要学习神经网络 神经网络实际上是一个相对古老的算法,并且后来沉寂了一段时间,不过到了现在,它又成为许多机器学习问题的首选技术。我们已经有线性回归和逻辑回归算法了,为什么还要研究神经网络?...

    一、为什么要学习神经网络

    神经网络实际上是一个相对古老的算法,并且后来沉寂了一段时间,不过到了现在,它又成为许多机器学习问题的首选技术。我们已经有线性回归和逻辑回归算法了,为什么还要研究神经网络?

    我们首先来看几个机器学习问题作为例子,这几个问题的解决,都依赖于研究复杂的非线性分类器考虑这个监督学习分类的问题。 我们已经有了对应的训练集,如果利用逻辑回归算法来解决这个问题。 首先需要构造一个包含很多非线性项的,逻辑回归函数这里g仍是s型函数 (即f(x)=1/(1+e^-x) ) 。我们能让函数包含很多像这样的多项式项吗?事实上,当多项式项数足够多时,那么可能你能够得到一个分开正样本和负样本的分界线。当只有两项时,比如 x1、x2,这种方法确实能得到不错的结果。因为你可以把x1和x2的所有组合都包含到多项式中。
    在这里插入图片描述
    但是对于许多复杂的机器学习问题,特征值往往多于两项。比如下图中,在计算机视觉中,图像分类显得很重要,我们需要取每个像素点都是一个特征,对于50*50的图像,特征值也有2500个。对于这类问题,如果要包含所有的二次项即使只包含二项式或多项式的计算,最终的多项式也可能有很多项。 随着特征个数n的增加,二次项的个数大约以(n^2)/2的量级增长 ,三次项更多。因此要包含所有的二次项是很困难的,所以这可能不是一个好的做法。因为在处理这么多项时,不仅存在运算量过大的问题而且由于项数过多,最后的结果很有可能是过拟合的。 因此,我们需要学习解神经网络,它在解决复杂的非线性分类问题上。即使输入的特征维数n很大也能轻松搞定。
    在这里插入图片描述

    二、神经网络简介

    神经网络产生的原因,是人们想尝试设计出模仿大脑的算法。从某种意义上说,如果我们想要建立学习系统,那为什么不去模仿我们所认识的最神奇的学习机器—— 人类的大脑呢?神经网络逐渐兴起于 二十世纪八九十年代,应用得非常广泛,但由于各种原因,在90年代的后期应用减少了。但是最近,神经网络又东山再起了。其中一个原因是,神经网络是计算量有些偏大的算法,由于近些年计算机的运行速度变快,才足以真正运行起大规模的神经网络。

    当你想模拟大脑时,即指想制造出与人类大脑作用效果相同的机器。大脑可以学会去以看而不是听的方式处理图像,学会处理我们的触觉,我们能学习数学、微积分等等各种不同的令人惊奇的事情。似乎如果你想要模仿它,你得写很多不同的程序来模拟所有。不过能不能假设,大脑所做的这些,不需要用上千个不同的程序去实现,而只需要一个单一的学习算法就可以了?
    在这里插入图片描述
    尽管这只是一个假设,不过也有一些这方面的证据。如上图,大脑的这一小片红色区域,是听觉皮层 ,这靠的是耳朵。耳朵接收到声音信号,并把声音信号传递给你的听觉皮层。神经系统科学家做了以下实验,把耳朵到听觉皮层的神经切断,在这种情况下,将其重新接到一个动物的大脑上,这样从眼睛到视神经的信号最终将传到听觉皮层,那么结果表明,听觉皮层将会学会“看”。
    在这里插入图片描述
    来看另一个例子,上图这块红色的脑组织是你的躯体感觉皮层,这是用来处理触觉的。如果你做一个和刚才类似的重接实验,那么躯体感觉皮层也能学会”看“ 。这个实验和其它一些类似的实验被称为神经重接实验。实验结果表明,人体有同一块脑组织可以处理光、 声或触觉信号,那么也许存在一种学习算法可以同时处理 视觉、听觉和触觉,而不是需要运行上千个不同的算法来做这些。我们可以猜想,如果我们把任何一种传感器接入到大脑的几乎任何一个部位的话,大脑都会学会处理它。

    三、神经元模型

    我们该如何表示神经网络呢?换句话说,当我们在运用神经网络时,我们该如何表示我们的假设或模型。神经网络是在模仿大脑中的神经元或者神经网络时发明的。因此,要解释如何表示模型假设,我们先来看单个神经元在大脑中是什么样的。
    在这里插入图片描述
    我们的大脑中充满了这样的神经元,神经元是大脑中的细胞。其中有两点值得我们注意,一是神经元有像图中这样的细胞主体,二是神经元有一定数量的输入神经,这些输入神经叫做树突,可以把它们想象成输入电线,它们接收来自其他神经元的信息。神经元的输出神经叫做轴突,这些输出神经,是用来给其他神经元传递信号的。

    简而言之,神经元是一个计算单元。它从输入神经接受一定数目的信息,并做一些计算。然后将结果通过它的轴突传送到大脑中的其他神经元。神经元利用微弱的电流进行沟通,这些弱电流也称作动作电位,其实就是一些微弱的电流。

    人类思考的模型: 我们的神经元把自己的收到的消息进行计算,并向其他神经元传递消息。这也是我们的感觉和肌肉运转的原理。如果你想活动一块肌肉,就会触发一个神经元给你的肌肉发送脉冲,并引起肌肉收缩。如果一些感官比如说眼睛,想要给大脑传递一个消息,那么它就像这样发送电脉冲给大脑。

    在我们在电脑上,实现的人工神经网络里,我们将使用一个非常简单的模型,来模拟神经元的工作。我们将神经元模拟成一个逻辑单元,用黄色圆圈表示。然后我们通过 它的树突或者说它的输入神经传递给它一些信息,然后神经元做一些计算。并通过它的输出神经,即它的轴突,输出计算结果。 如下图所示,这是一个简单的模拟神经元的模型。它被输入 x1 x2和 x3 ,然后输出一些类似这样的结果。
    在这里插入图片描述
    当绘制一个神经网络时,通常只绘制输入节点 x1 x2 x3,但有时也会增加一个额外的节点 x0。这个 x0 节点被称作偏置单位偏置神经元 。但因为 x0 总是等于1, 所以有时候会画出它,有时不会画出,这取决于它是否对例子有利。

    现在来讨论,最后一个关于神经网络的术语。有时我们会说上图这是一个有s型函数或者逻辑函数作为激励函数的人工神经元。在神经网络术语中,激励函数是对类似非线性函数g(z)的另一个术语称呼。 我一直称θ为模型的参数,而在关于神经网络的文献里,有时你可能会看到人们谈论一个模型的权重。 权重其实和模型的参数是一样的东西。

    四、神经网络模型

    在这里插入图片描述
    神经网络其实就是这些不同的神经元组合在一起的集合。从图中可以看到,我们的输入单元 x1 x2和 x3,3个神经元a(2)1 a(2)2 和a(2)3 。然后再次说明,我们可以在这里 添加一个a0 和一个额外的偏度单元,它的值永远是1 。最后,我们在最后一层有第三个节点,此节点作为输出。

    再说一点关于神经网络的术语。网络中的第一层也被称为输入层,因为我们在这一层,输入我们的特征项 x1 x2 x3 。最后一层称为输出层,因为这一层的神经元输出结果。 中间的一层被称作隐藏层,直觉上,在监督学习中,能看到输入,也能看到正确的输出,而隐藏层的值,在训练集里是看不到的。它的值不是 x 也不是y ,所以我们叫它隐藏层。神经网络可以有不止一个的隐藏层,实际上任何非输入层或非输出层的层,就被称为隐藏层。
    在这里插入图片描述
    接下来,让我们逐步分析这个神经网络所呈现的计算步骤。首先,这里还有些记号要解释一下。我们规定,使用a上标 (j) 下标 i ,表示第 j 层的第 i 个神经元或单元。 比如,a上标(2) 下标1 表示第2层的 第一个激励,即隐藏层的第一个激励。所谓激励(activation) ,是指由一个具体神经元读入计算并输出的值。此外,我们的神经网络被这些矩阵参数化,θ上标(j) 它将成为一个波矩阵,控制着从一层到另一层的作用。 各个隐藏单元以及输出层的计算如上图的式子。其中,θ(j)表示从第 j 层到(j+1)层的矩阵,每层都有自己的权重矩阵θ。θ(j)的尺寸是一个s_(j+1)*(s_j + 1)矩阵。因为输出节点将不包括偏置节点,而输入节点将包括偏置节点。比如,权重矩阵θ(1)控制着从输入层到隐藏层的传递。
    在这里插入图片描述
    接下来,我们按照神经网络的计算顺序,对上述函数进行矢量化实现。我们将定义一个新变量z_k。在前面的示例中,如果将变量z替换为所有参数,则会得到:
    在这里插入图片描述
    换句话说,对于层j = 2和节点k,变量z将为:
    在这里插入图片描述
    x和 z ^ {j}可以表示为向量形式:
    在这里插入图片描述
    请注意,在最后一步中,在第j层和第j + 1层之间,我们所做的事情与在逻辑回归中所做的完全相同。在神经网络中添加所有这些中间层,使我们能够更优雅地产生有趣且更复杂的非线性假设。

    五、神经网络的具体计算

    接下来,我们通过讲解一个具体的例子来解释神经网络是如何计算?关于输入的复杂的非线性函数,希望下面这个例子可以让你了解为什么神经网络可以用来学习复杂的非线性假设。
    在这里插入图片描述
    如上图所示,我们有二进制的输入特征 x1 x2 ,要么取0,要么取1 。所以x1和x2只能有两种取值。在这个例子中,我只画出了两个正样本和两个负样本。但你可以认为这是一个更复杂的学习问题的简化版本。在复杂问题中,我们可能在右上角有一堆正样本,在右下方有一堆用圆圈表示的负样本。我们需要学习一种非线性的决策边界来区分正负样本。

    那么,神经网络是如何做到的呢?为了描述方便我用左边这个例子,这样更容易说明。我们取目标函数y为x1异或非x2,当它们同时为真或者同时为假的时候,我们将获得 y为1的结果。如果它们中仅有一个为真, y则为0 。我们想要知道是否能找到一个神经网络模型来拟合这种训练集。

    为了建立能拟合XNOR运算的神经网络,我们先讲解一个稍微简单的神经网络,它拟合了“且运算”。假设我们有输入x1和 x2,并且都是二进制,即要么为0要么为1。我们的目标函数y等于x1且x2,这是一个逻辑与。那么,我们怎样得到一个具有单个神经元的神经网络来计算,这个逻辑与呢?为了做到这一点,我需要画出偏置单元,即这个里面有个+1的单元。然后给这个网络分配一些权重,如图上写出的这些参数,这里是-30,正20,正20,即h(x)等于 g(-30 + 20x1 + 20x2) 。在图上画出这些权重是很方便很直观的。
    在这里插入图片描述
    让我们来看看这个小神经元是怎样计算的,回忆一下s型激励函数g(z)如图。然后把输入值 x1和x2的四种可能输入带进去。 如果X1和X2均为 0, g(-30)非常接近于0。以此类推,得到上图中右下方的真值表。从表中可以发现,输出值近似等于x1和x2的与运算的值。
    在这里插入图片描述
    更复杂一点的,如上图所示,我们最终可以通过神经网络模型构造出XNOR函数。通过添加另一个层,我们得到了一个更复杂一点的函数。这就是关于神经网络可以计算较复杂函数的某种直观解释,我们知道,当层数很多的时候,你有一个相对简单的输入量的函数,作为第二层。而第三层可以建立在此基础上,来计算更加复杂一些的函数。然后再下一层,又可以计算再复杂一些的函数。

    展开全文
  • 这学期把西瓜书初步搞定叭 先占坑 公式推导部分资料参考 南瓜书 代码python3实现

    这学期把西瓜书初步搞定叭 先占坑

    公式推导部分资料参考 南瓜书

    代码python3实现

    展开全文
  • 西瓜书机器学习总结(一)

    千次阅读 2017-09-06 16:23:33
    1.基本概念1.数据集,特征属性,属性值,训练集,样本,标记,独立同分布的假设balabala….简单易懂 2.归纳学习与归纳偏好:广义从样例学习,狭义是学习概念。西瓜模型的学习可以理解为从假设空间中搜索匹配,剔除...

    1.基本概念

    1.数据集,特征属性,属性值,训练集,样本,标记,独立同分布的假设balabala….简单易懂

    2.归纳学习与归纳偏好:

    广义从样例学习,狭义是学习概念。西瓜模型的学习可以理解为从假设空间中搜索匹配,剔除不符合,最终会有多个模型,这个集合也可以叫做版本空间。然后我们必须根据规则选择一个,设计occam’s razor原理,选择最简单的。

    3.NFL:

    所有模型的期望性能相同。(假设各个机会相同)周志华举了例子,从A到C,南京到上海,自行车出现的可能性肯定与火车不同。

    4.balalal一些模型的发展

    2.模型评估与选择

    1. 经验误差:

    上个笔记讲过了各种误差。

    2. 过拟合:

    缺少了一般性,只在训练集上表现好,把样本的一些独特的特点当做一般的,比如误认为树叶一定欧锯齿。

    3. 欠拟合:

    相对,学习能力低,没有学到特点。

    4. 评估方法:

    留出测试集进行评估

    1.留出法:

    分层采样,训练和测试各占一定比例,正负样本也要考虑。

    2.交叉验证:

    分成训练集和测试集交叉验证(和上个笔记说的分成训练集,验证集和测试集是在样本容量足够大的情况随机分,现在的这种要重复使用数据)

    3.自助法:

    从数据集中有放回的随机采样,放入测试集,则在m次抽取中有

    limm(11m)m1e

    5. 模型度量:

    回归任务常用的一些损失函数。分类任务常用acc,recall,precision,F1。

    6. P-R曲线与平衡点

    7. ROC和AUC:

    使用真正例率( TPR=TPTP+FN )和假正例率( FPR=FTFT+TN )座位横纵坐标,auc是下面的面积。理解一些就是预测对的正例占总的正例比例(和recall是不是一样?),预测错的正例占总的错的比率。

    8. 样本特征:x,样本值: y0 实际值:y 预测值:f(x;D)

    1.期望预测

    f(x)=ED[f(x;D)]

    2. 方差:

    var(x)=ED[(f(x;D)f(x))2]

    3. 噪声:

    ε2=ED[(yDy)2]

    4.偏差:

    bias2(x)=[f(x)y]2

    5.期望泛化误差:

    E(f;D)=ED[(f(x;D)y0)2]

    =ED[(f(x;D)f(x)+f(x)y0)2]
    =ED[(f(x;D)f(x))2]+ED[(f(x)y0)2]+ED[2(f(x;D)f(x))(f(x)y0)]
    =ED[(f(x;D)f(x))2]+ED[(f(x)y+yy0)2]+0
    =ED[(f(x;D)f(x))2]+ED[(f(x)y)2]+ED[(yy0)2]+2ED[(f(x)y)(yy0)]
    E(f;D)=bias2+var(x)+ε2
    (假定了噪声期望为0)

    展开全文
  • pdf下载书地址

    千次阅读 2017-03-15 18:08:52
    http://download.csdn.net/user/sinophp123
  • 学习机器学习应该都知道周志华的西瓜书–《机器学习》,之前老师有安排让假期学习这本书,并作总结,这里介绍一下我的快速系统学习法。 就是这本书: 一共花了5个小时左右浏览全书,将书中所有涉及到的最小标题...
  • https://blog.csdn.net/icefire_tyh/article/details/52064910
  • 《机器学习》(西瓜书) 随笔

    万次阅读 2016-09-04 16:11:39
     那天当当有满减活动,实验室一学弟说他想买《机器学习》,我问是哪本,答曰南大周志华那本“西瓜书”,说其同学向他推荐的。我表示不屑,咋从没听过?机器学习不是要看《PRML》么?于是上亚马孙看了下,是今年1...
  • 重磅推出深度之眼包年制VIP一年畅学18大主题训练营,从小白入门到进阶大神的最佳学习方式添加班主任微信~了解VIP特权吧~Q、课程资料在哪里看?A、所有的课程资料均会在训...
  • 机器学习技术在搜索引擎中得到了很好的应用,百度、谷歌都成立了相应的机器学习团队 无人驾驶技术的研究也需要机器学习的支持,目前百度和谷歌都在无人驾驶方面进行着深入的研究 机器学习在分析数据方面,有着极大...
  • 相关链接,源自 作者@VictoriaW 可以理解成link的更新 阅读笔记 ...https://blog.csdn.net/VictoriaW/article/details/80314466?spm=1001.2014.3001.5501 null https://blog.csdn.net/VictoriaW/article/details/80314453?spm=1001.2014.3001.5501 https://blog.csdn.net/VictoriaW/article/details/77989610?spm=1001.2014.3001.5501 https://blog.csdn.net/VictoriaW/article/details/77989486?spm=1001.2014.3001.5501 https://blog.csdn.net/VictoriaW/article/details/77990217?spm=1001.2014.3001.5501 https://blog.csdn.net/VictoriaW/article/details/78075266?spm=1001.2014.3001.5501 https://blog.csdn.net/VictoriaW/article/details/78078027?spm=1001.2014.3001.5501 https://blog.csdn.net/VictoriaW/article/details/78075789?spm=1001.2014.3001.5501 https://blog.csdn.net/VictoriaW/article/details/78086636?spm=1001.2014.3001.5501 https://blog.csdn.net/VictoriaW/article/details/78144161?spm=1001.2014.3001.5501 https://blog.csdn.net/VictoriaW/article/details/78144714?spm=1001.2014.3001.5501 https://blog.csdn.net/VictoriaW/article/details/78257488?spm=1001.2014.3001.5501 https://blog.csdn.net/VictoriaW/article/details/78293291?spm=1001.2014.3001.5501 https://blog.csdn.net/VictoriaW/article/details/78260103?spm=1001.2014.3001.5501 https://blog.csdn.net/VictoriaW/article/details/78327982?spm=1001.2014.3001.5501 https://blog.csdn.net/VictoriaW/article/details/78353332?spm=1001.2014.3001.5501 https://blog.csdn.net/VictoriaW/article/details/78359362?spm=1001.2014.3001.5501 https://blog.csdn.net/VictoriaW/article/details/78393561?spm=1001.2014.3001.5501 https://blog.csdn.net/victoriaw/article/details/78532797 https://blog.csdn.net/VictoriaW/article/details/78533218?spm=1001.2014.3001.5501 https://blog.csdn.net/VictoriaW/article/details/78722541?spm=1001.2014.3001.5501 https://blog.csdn.net/VictoriaW/article/details/78866812?spm=1001.2014.3001.5501 主要是我自己西瓜书还没看完...
  • 该文档整理了CSDN上的机器学习-周志华-西瓜书的一到九章的习题解析,方便大家免费下载
  • 基本概念 预测离散值:分类问题 预测连续值:回归问题 无监督问题:聚类问题 监督问题:分类、回归问题
  • 西瓜书课后答案汇总

    千次阅读 2020-06-03 14:54:42
    西瓜书电子版课后答案汇总: https://blog.csdn.net/icefire_tyh/article/details/52064910?utm_source=app
  • 西瓜书与南瓜书学习

    2021-07-19 23:13:23
    logistic回归简介 logistic回归由Cox在1958年提出[1],它的名字虽然叫回归,但这是一种二分类算法,并且是一种线性模型。由于是线性模型,因此在预测时计算简单,在某些大规模分类问题,如广告点击率预估(CTR)上...
  • 西瓜书参考答案

    千次阅读 2019-04-18 16:29:08
    参加大佬博客:https://blog.csdn.net/icefire_tyh/article/details/52064910
  • 西瓜书课后习题答案

    千次阅读 2018-10-21 00:17:00
    https://blog.csdn.net/kchai31/article/details/78966941 转载于:https://www.cnblogs.com/elpsycongroo/p/9823589.html
  • 周志华西瓜书课后习题答案总目录

    万次阅读 多人点赞 2019-04-17 22:33:51
    从刚开始学习机器学习到现在也有几个月了,期间看过PDF,上过MOOC,总感觉知道一点了又不是特别明白,最后趁某东买书大减价弄了几本相关的书来看看,其中一本就是西瓜书。一口气看了前10章,感觉每章内容都很少,看...
  • 西瓜书(机器学习周志华)公式详细推导 南瓜书 转自:https://github.com/datawhalechina/pumpkin-book
  • 周志华西瓜书学习笔记 第一章 绪论 数据处理分为三个阶段:收集,分析,预测。 一、基本概念 机器学习致力于研究如何通过计算的手段,利用经验来改善系统自身的性能。 Mitchell给出的更形式化的定义为:假设用P来...
  • https://blog.csdn.net/icefire_tyh/article/details/52064910
  • 机器学习(周志华西瓜书) 参考答案

    千次阅读 2018-09-04 17:25:32
    详见以下链接: 目录 https://blog.csdn.net/icefire_tyh/article/details/52064910  
  • 机器学习(西瓜书)注解:第4章 决策树  本次更新第4章,决策树。针对该章注解有任何问题欢迎在此留言~  本章作为西瓜书“介绍经典而常用的机器学习方法”的开篇,通篇以“西瓜”为例进行讲解,通俗易懂。个人...
  • 机器学习周志华西瓜书参考答案总目录- 目录 第一章 绪论第二章 模型评估与选择第三章 线性模型第四章 决策树第五章 神经网络第六章 支持向量机第七章 贝叶斯分类器第八章 集成学习第九章 聚类第十章 降纬与度量学习...
  • 南瓜书PumpkinBook.zip

    2020-06-05 14:38:32
    南瓜书PumpkinBook.zip
  • https://web.stanford.edu/class/ee373b/nninitialization.pdf 我们可以使用以下方法随机初始化参数矩阵 的值: 神经网络参数初始化 其中 rand() 的参数为矩阵的行列数;同时, 建议取值是 ,...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 478
精华内容 191
关键字:

西瓜书pdf