精华内容
下载资源
问答
  • 机器学习感想
    千次阅读
    2021-10-27 14:03:22

    一. 机器学习的概念:

    解释1:机器学习是一门通过编程让计算机从数据中进行学习的学科。

    解释2:机器学习是一个研究领域,让计算机无须进行明确的编程就具备学习能力。

    解释2:一个计算机程序利用经验E来学习任务T,性能是P,如果针对任务T的性能P随着经验E不断增长,则称之为机器学习。

    二 . 我理解的过程:

    解决一个问题-> 发现规律-> 定义规律-> 完善规律-> 通过计算机语言(编程等) -> 让机器进行同样的思考和学习 ->并解决这个问题

    机器学习擅长处理对于传统方法而言太复杂或没有已知算法的问题。

    通过机器学习的方法挖掘大量数据,来帮助发现不太明显的规律。

    三. 适用于:

    1)有解决方案(但解决方案需要进行大量的人工微调或者需要遵循大量的规则)的问题:机器学习算法通常可以简化代码,相比传统的方法有更好的效果

    2)传统方法难以解决的复杂问题:最好是机器学习技术也许可以找到解决方案。

    3)环境有波动:机器学习算法可以适应新数据。

    4)洞察复杂问题和大量数据

    四、常见的机器学习案例+技术

    1)分析生产线上的产品图像来对产品进行自动分类

            图像分类问题:视同卷积神经网络CNN

    2)通过脑部扫描发现肿瘤

            语义分割,图像中的每个像素都需要被分类(当我们想确定肿瘤的确切位置和形状时),也是用CNN.

    3)自动分类新闻

            自然语言处理(NLP),更具体的文本分类,可以使用循环神经网络(RNN)、CNN、或者Transformer.

    4)论坛中自动标记恶评

            这也是文本分类,使用自然语言处理(NLP)

    5) 自动对对长文作总结

            自然语言处理(NLP),叫做作文本总结

    6)创建一个聊天机器人或者个人助理

            涉及自然语言处理的分支很多,包括自然语言理解(NLU)的问答模块

    7)基于很多性能指标来预测公司下一年的收入

            这个是一个回归问题(预测),需要使用回归模型进行处理,例如线性回归多项式回归,SVM回归,随机深林回归,人工神经网络。如果要考虑过去的性能指标,可以使用RNN、CNN、或者Transformer进行处理。

    8)语音命令做出反应

            因为语音命令,要求能处理音频采样。因为音频是很长,很复杂的序列,所以一般使用RNN、CNN\或者transformer进行处理。

    9)检测行用卡欺诈

            异样检测。

    10)基于客户的购买行为记录来对客户进行分类,对每个客户涉及不同的市场策略。

            聚类问题。

    11)用清晰而有洞察路的图表来表示负载的高维数据集

            数据可视化,常涉及降维技术

    12)基于以前的够阿米记录给客户推荐可能感兴趣的产品。

            推荐系统。一个办法是将以前的购买记录(和客户的其他信息)输入人工神经网络,从而输出客户最可能购买的商品。这个神经网络是在所有客户的购买记录上训练的

    13)为游戏建造智能机器人

            强化学习(RL,是机器学习的一个分支,在特定的环境中(游戏),训练代理(机器人)选择在一段时间内将他们的奖励最大化的行动(例如kill掉其他玩家,获得金币奖励)。AlphaGo就是运用RL构建的

    五、机器学习的类型

    1)是否在人类的监督下学习

    有监督学习:

    无监督学习:

    半监督学习:

    强化学习:

    2)是否可以动态的进行增量学学习

    在线学习:

    批量学习:

    更多相关内容
  • 机器学习的特点就是:以计算机为工具和平台,以数据为研究对象,以学习方法为中心;是概率论、线性代数、数值计算、信息论、最优化理论和计算机科学等多个领域的交叉学科。所以就先介绍一下机器学习涉及到的一些最...
  • 机器学习心得(三)

    2022-04-03 08:43:05
    机器学习


    前言

    成功的机器学习应用不是拥有最好的算法,而是拥有最多的数据!


    一、过拟合的处理

    1. 获得更多的训练数据
    使用更多的训练数据是解决过拟合问题最有效的手段,因为更多的样本能够让模型学习到更多更有效的特征,减小噪声的影响。
    2. 降维
    即丢弃一些不能帮助我们正确预测的特征。可以是手工选择保留哪些特征,或者使用一
    些模型选择的算法来帮忙
    3. 正则化
    正则化(regularization)的技术,保留所有的特征,但是减少参数的大小(magnitude)
    ,它可以改善或者减少过拟合问题。
    4. 集成学习方法
    集成学习是把多个模型集成在一起,来降低单一模型的过拟合风险。

    二、欠拟合的处理

    1. 添加新特征
    当特征不足或者现有特征与样本标签的相关性不强时,模型容易出现欠拟合。通
    过挖掘组合特征等新的特征,往往能够取得更好的效果。
    2. 增加模型复杂度
    简单模型的学习能力较差,通过增加模型的复杂度可以使模型拥有更强的拟合能
    力。例如,在线性模型中添加高次项,在神经网络模型中增加网络层数或神经元
    个数等。
    3. 减小正则化系数
    正则化是用来防止过拟合的,但当模型出现欠拟合现象时,则需要有针对性地减
    小正则化系数。

    三、正则化

    1. 𝑳𝟏正则化:实际就是加上了一个 w w w集合中每个值的绝对值的和。
    在这里插入图片描述

    2. 𝑳𝟐正则化:实际就是加上了 w w w集合中每个值平方的和
    在这里插入图片描述

    3. Elastic Net网络:把𝑳𝟏正则化和 𝑳𝟐正则化融合起来
    在这里插入图片描述

    4. 𝑳𝟏正则化和𝑳𝟐正则化对比
    在这里插入图片描述
    图上面中的蓝色轮廓线是没有正则化损失函数的等高线,中心的蓝色点为最优解,左图、右图分别为𝑳𝟏、𝑳𝟐正则化给出的限制。可以看到在正则化的限制之下, 𝑳𝟐正则化给出的最优解w是使解更加靠近原点,也就是说𝑳𝟐正则化能降低参数范数的总和。 𝑳𝟏正则化给出的最优解w是使解更加靠近某些轴,而其它的轴则为0,所以𝑳𝟏正则化能使得到的参数稀疏化。

    四、误差

    备注 y ( i ) y^{(i)} y(i) y ^ ( i ) \hat{y}^{(i)} y^(i)分别表示第𝑖个样本的真实值和预测值,𝑚 为样本个数。

    1. 均方误差(Mean Square Error,MSE)
    在这里插入图片描述2. 平均绝对误差(Mean Absolute Error,MAE)
    在这里插入图片描述3. 均方根误差 (Root Mean SquareError,RMSE)
    在这里插入图片描述4. R方 [𝑅𝑆𝑞𝑢𝑎𝑟𝑒𝑑(𝑟2𝑠𝑐𝑜𝑟𝑒)]
    在这里插入图片描述备注:越接近于1,说明模型拟合得越好;补充三个公式
    在这里插入图片描述


    总结

    本人也才刚刚开始学习,请大家多多包涵。大家在学习机器学习之前可以先学习下线性代数

    展开全文
  • 机器学习心得(一)

    千次阅读 2022-04-01 10:00:19
    深度学习的小总结(一) 一、线性回归的概念 线性回归(Linear Regression):是一种通过属性的线性组合来进行预测的线性模型,其目的是找到一条直线或者一个平面或者更高维的超平面,使得预测值与真实值之间的误差...

    提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档


    前言


    一、线性回归的概念

    线性回归(Linear Regression):是一种通过属性的线性组合来进行预测的线性模型,其目的是找到一条直线或者一个平面或者更高维的超平面,使得预测值与真实值之间的误差最小化。如下图所示,在一堆看似毫无规则的数据中去找到一条直线来拟合(表示)这些数据的规律。
    在这里插入图片描述

    二、线性回归中常用的符号


    1、𝑚:代表训练集中样本的数量
    2、𝑛 :代表特征的数量
    3、𝑥 :代表特征/输入变量
    4、𝑦 :代表目标变量/输出变量
    5、𝑥, 𝑦: 代表训练集中的样本
    6、( x i x^{^{i}} xi, y i y^{^{i}} yi): 代表第𝑖个观察样本,而 x i x^{^{i}} xi是特征矩阵中的第𝑖行,是一个向量,,例如 x 2 x^{^{2}} x2就代表下图中第二行中的数据(162.2 31 8 118),而 y 2 y^{^{2}} y2就代表下图中的37000,而 x j ( i ) x_{j}^{(i)} xj(i)代表特征矩阵中第 𝑖 行的第 𝑗 个特征,例如 x 2 ( 2 ) x_{2}^{(2)} x2(2)=31
    7、ℎ (hypothesis) :代表学习算法的解决方案或函数也称为假设,大家也可以认为这就是一个函数(既y=ax+b)这种。

    在这里插入图片描述

    三、线性回归的算法流程


    1. x x x y y y的关系表达式:ℎ(𝑥) =
      w 0 x 0 + w 1 x 1 + w 2 x 2 + . . . + w n x n w_{0}x_{0}+w_{1}x_{1}+w_{2}x_{2}+...+w_{n}x_{n} w0x0+w1x1+w2x2+...+wnxn= w T x w^{T}x wTx x 0 x_{0} x0可默认为1, w 0 w_{0} w0实际为常数 b b b,这样写的好处是方便做矩阵运算。

    2. 损失函数(Loss Function)是度量单样本预测的错误程度,损失函数值越小,模型就越好。常用的损失函数包括:0-1损失函数、平方损失函数、绝对损失函数、对数损失函数等。一般我们采用平方和损失函数,公式如下: l ( x ( i ) ) = 1 2 ( h ( x ( i ) ) − y ( i ) ) 2 l(x^{(i)})=\frac{1}{2}(h(x^{(i)})-y^{(i)})^{2} l(x(i))=21(h(x(i))y(i))2,要求最小值的话在这我们要找到一组 w ( w 0 , w 1 , w 2 . . . w n ) w(w_{0},w_{1},w_{2}...w_{n}) w(w0,w1,w2...wn)值使得 J ( w ) = 1 2 ∑ i = 1 m ( h ( x ( i ) ) − y ( i ) ) 2 J(w)=\frac{1}{2}\sum_{i=1}^{m}(h(x^{(i)})-y^{(i)})^{2} J(w)=21i=1m(h(x(i))y(i))2(残差平方和)最小,因此我们需要对 J ( w ) J(w) J(w)求导求最值,即 ∂ J ( w ) ∂ ( w ) \frac{\partial J(w)}{\partial (w)} (w)J(w)

      损失函数的系数1/2是为了便于计算,使对平方项求导后的常数系数为1,这样在形式上稍微简单一些。有些教科书把系数设为1/2,有些设置为1,这些都不影响结果。

    3. 代价函数(Cost Function)度量全部样本集的平均误差。常用的代价函数包括均方误差、均方根误差、平均绝对误差等。

    4. 目标函数(Object Function)代价函数和正则化函数,最终要优化的函数。

    四、线性回归的最小二乘法(LSM)


    将向量表达形式转为矩阵表达形式,则有𝐽(𝑤) = 1 2 ( x w − y ) 2 \frac{1}{2}(xw-y)^{2} 21(xwy)2,其中 x x x为𝑚行𝑛 + 1
    列的矩阵(𝑚为样本个数,𝑛为特征个数),𝑤为𝑛 + 1行1列的矩阵(包含了 w 0 w_{0} w0), y y y 为𝑚行1列的矩阵,则𝐽(𝑤) = 1 2 ( x w − y ) 2 \frac{1}{2}(xw-y)^{2} 21(xwy)2= 1 2 ( x w − y ) T ( x w − y ) \frac{1}{2}(xw-y)^{T}(xw-y) 21(xwy)T(xwy)。为求最下值,接下对 J ( w ) J(w) J(w)求偏导。

    ∂ J ( w ) ∂ w = 1 2 ∂ ∂ w ( x w − y ) 2 = 1 2 ∂ ∂ w ( x w − y ) T ( x w − y ) = 1 2 ∂ ∂ w ( w T x T x w − y T x w − w T x T y + y T y ) \frac{\partial J(w)}{\partial w}=\frac{1}{2}\frac{\partial }{\partial w}(xw-y)^{2}=\frac{1}{2}\frac{\partial }{\partial w}(xw-y)^{T}(xw-y)=\frac{1}{2}\frac{\partial }{\partial w}(w^{T}x^{T}xw-y^{T}xw-w^{T}x^{T}y+y^{T}y) wJ(w)=21w(xwy)2=21w(xwy)T(xwy)=21w(wTxTxwyTxwwTxTy+yTy)
    因为中间两项互为转置,所以 J ( w ) J(w) J(w)= 1 2 ( 2 x T x w − 2 x T y + 0 ) = x T x w − x T y \frac{1}{2}(2x^{T}xw-2x^{T}y+0)=x^{T}xw-x^{T}y 21(2xTxw2xTy+0)=xTxwxTy,令 ∂ J ( w ) ∂ w \frac{\partial J(w)}{\partial w} wJ(w)=0,则有 w = ( x T x ) − 1 x T y w=(x^{T}x)^{-1}x^{T}y w=(xTx)1xTy
    在这我们补充几个矩阵的求导法则:
    d x T x d x = 2 x \frac{dx^{T}x}{dx}=2x dxdxTx=2x d a x d x = a T \frac{dax}{dx}=a^{T} dxdax=aT d x T a x d x = ( a + a T ) x , 若 a 是 对 称 阵 , 则 d x T a x d x = 2 a x \frac{dx^{T}ax}{dx}=(a+a^{T})x,若a是对称阵,则\frac{dx^{T}ax}{dx}=2ax dxdxTax=(a+aT)xadxdxTax=2ax

    五、 总结

    本人也才刚刚开始学习,请大家多多包涵。大家在学习机器学习之前可以先学习下线性代数

    展开全文
  • 机器学习心得(五)

    2022-04-07 08:43:01
    文章目录 前言 一、贝叶斯方法 二、贝叶斯公式 三、朴素贝叶斯原理 四、朴素贝叶斯案例 总结 前言 朴素贝叶斯 一、贝叶斯方法 贝叶斯分类:贝叶斯分类是一类分类算法的...大家在学习机器学习之前可以先学习下线性代数。


    前言

    朴素贝叶斯


    一、贝叶斯方法

    • 贝叶斯分类:贝叶斯分类是一类分类算法的总称,这类算法均以贝叶斯定理为基础,故统称为贝叶斯分类。
    • 先验概率:根据以往经验和分析得到的概率。我们用𝑃(𝑌)来代表在没有训练数据前假设𝑌拥有的初始概率。
    • 后验概率: 根据已经发生的事件来分析得到的概率。以𝑃(𝑌|𝑋)代表假设𝑋 成立的情下观察到𝑌数据的概率,因为它反映了在看到训练数据𝑋 后𝑌成立的置信度。
    • 联合概率: 联合概率是指在多元的概率分布中多个随机变量分别满足各自条件的概率。𝑋与𝑌的联合概率表示为𝑃 𝑋, 𝑌 、 𝑃(𝑋𝑌) 或𝑃(𝑋 ∩ 𝑌) 。假设𝑋和𝑌都服从正态分布,那么𝑃(𝑋 < 5, 𝑌 < 0)就是一个联合概率,表示 𝑋 < 5, 𝑌 < 0两个条件同时成立的概率。表示两个事件共同发生的概率。

    二、贝叶斯公式

    • p ( x ∣ y ) = p ( x , y ) p ( x ) = p ( x ∣ y ) p ( y ) p ( x ) p(x|y)=\frac{p(x,y)}{p(x)}=\frac{p(x|y)p(y)}{p(x)} p(xy)=p(x)p(x,y)=p(x)p(xy)p(y)
      p ( x ∣ y ) p(x|y) p(xy)为后验概率, p ( x ∣ y ) p(x|y) p(xy)为似然度, p ( y ) p(y) p(y)为先验概率, p ( x ) p(x) p(x)为边际似然度。
    • 朴素贝叶斯法是典型的生成学习方法。生成方法由训练数据学习联合概率分布 𝑃(𝑋, 𝑌),然后求得后验概率分布𝑃(𝑌|𝑋)。具体来说,利用训练数据学习𝑃(𝑋|𝑌)和𝑃(𝑌)的估计,得到联合概率分布:𝑃(𝑋, 𝑌)=𝑃(𝑋|𝑌) 𝑃(𝑌)

    三、朴素贝叶斯原理

    1、监督学习方法又分生成方法(Generative approach)和判别方法(Discriminative approach),所学到的模型分别称为生成模型(Generative Model)和判别模型(Discriminative Model)。

    • 判别模型:由数据直接学习决策函数Y=f(X)或者条件概率分布P(Y|X)作为预测的模型,即判别模型。基本思想是有限样本条件下建立判别函数,不考虑样本
      的产生模型,直接研究预测模型。即:直接估计𝑃(𝑌|𝑋)
    • 生成模型:由训练数据学习联合概率分布 𝑃(𝑋, 𝑌),然后求得后验概率分布𝑃(𝑌|𝑋)。具体来说,利用训练数据学习𝑃(𝑋|𝑌)和𝑃(𝑌)的估计,得到联合概率分布:
      𝑃(𝑋, 𝑌)=𝑃(𝑌)𝑃(𝑋|𝑌),再利用它进行分类。即:估计𝑃(𝑋|𝑌) 然后推导𝑃(𝑌|𝑋)。

    2、朴素贝叶斯法是典型的生成学习方法,生成方法由训练数据学习联合概率分布 𝑃(𝑋, 𝑌),然后求得后验概率分布𝑃(𝑌|𝑋)。具体来说,利用训练数据学习𝑃(𝑋|𝑌)和𝑃(𝑌)的估计,得到联合概率分布:𝑃(𝑋, 𝑌)=𝑃(𝑌)𝑃(𝑋|𝑌)
    概率估计方法可以是极大似然估计或贝叶斯估计。

    3、朴素贝叶斯法利用贝叶斯定理与学到的联合概率模型进行分类预测,我们要求的是𝑃(𝑌|𝑋),根据生成模型定义我们可以求𝑃(𝑋, 𝑌)和𝑃(𝑌)假设中的特征是条件独立的。这个称作朴素贝叶斯假设。 形式化表示为,(如果给定𝑍的情况下,𝑋和𝑌条件独立):𝑃(𝑋|𝑍) = 𝑃(𝑋|𝑌, 𝑍)也可以表示为:𝑃(𝑋, 𝑌|𝑍) = 𝑃(𝑋|𝑍)𝑃(𝑌|𝑍)。

    四、朴素贝叶斯案例

    假设我们正在构建一个分类器,该分类器说明文本是否与运动(Sports)有关。我们的训练数据有5句话:
    在这里插入图片描述我们想要计算句子“A very close game”是 Sports 的概率以及它不是 Sports 的概率。 即𝑃( Sports | a very close game )这个句子的类别是Sports的概率。特征:单词的频率。根据贝叶斯定理我们可以得到以下公式:

    𝑃 ( S p o r t s ∣ a , v e r y , c l o s e , g a m e ) = 𝑃 ( a , v e r y , c l o s e , g a m e ∣ S p o r t s ) p ( S p o r t s ) p ( a , v e r y , c l o s e , g a m e ) 𝑃( Sports | a,very,close,game )=\frac{𝑃( a,very,close,game|Sports)p(Sports)}{p(a,very,close,game)} P(Sportsa,very,close,game)=p(a,very,close,game)P(a,very,close,gameSports)p(Sports)

    我们假设一个句子中的每个单词都与其他单词无关,那么可以得到:

    • 𝑃( a very close game ) = 𝑃(𝑎) × 𝑃( very ) × 𝑃( close ) × 𝑃( game)
    • 𝑃( 𝑎 𝑣𝑒𝑟𝑦 𝑐𝑙𝑜𝑠𝑒 𝑔𝑎𝑚𝑒|𝑆𝑝𝑜𝑟𝑡𝑠 ) = 𝑃(𝑎| 𝑆𝑝𝑜𝑟𝑡𝑠 ) × 𝑃( 𝑣𝑒𝑟𝑦 | 𝑆𝑝𝑜𝑟𝑡𝑠) × 𝑃( 𝑐𝑙𝑜𝑠𝑒 | 𝑆𝑝𝑜𝑟𝑡𝑠 ) × 𝑃( 𝑔𝑎𝑚𝑒 | 𝑆𝑝𝑜𝑟𝑡𝑠 )

    计算每个类别的先验概率:对于训练集中的给定句子,𝑃 (Sports) 的概率为⅗。 𝑃(Not Sports )是⅖。然后,在计算𝑃 𝑔𝑎𝑚𝑒 𝑆𝑝𝑜𝑟𝑡𝑠 就是“game”有多少次出现在Sports的样本,然后除以sports为标签的文本的单词总数(3+3+5=11)。因此,𝑃(𝑔𝑎𝑚𝑒 𝑆𝑝𝑜𝑟𝑡𝑠) = 2/11。“close”不会出现在任何sports样本中!那就是说𝑃 (𝑐𝑙𝑜𝑠𝑒 𝑆𝑝𝑜𝑟𝑡𝑠) = 0。

    在这我们介绍下拉普拉斯平滑。拉普拉斯平滑是一种用于平滑分类数据的技术。引入拉普拉斯平滑法来解决零概率问题,通过应用此方法,先验概率和条件概率可以写为如下图所示:
    在这里插入图片描述其中𝐾表示类别数量,𝐴表示𝑎𝑗中不同值的数量通常𝜆 = 1,加入拉普拉斯平滑之后,避免了出现概率为0的情况,又保证了每个值都在0 到1的范围内,又保证了最终和为1的概率性质。

    在这里插入图片描述

    • 𝑃(𝑎| Sports ) × 𝑃( very | Sports ) × 𝑃( close | Sports ) × 𝑃( game | Sports ) × 𝑃( Sports ) = 2.76 × 10−5 = 0.0000276
    • 𝑃(𝑎| Not Sports ) × 𝑃( very | Not Sports ) × 𝑃( close | Not Sports ) × 𝑃( game | Not Sports ) × 𝑃( Not Sports) = 0.572 × 10−5 = 0.00000572

    结论:由于0.0000276大于0.00000572,我们的分类器预测“A very close game”是Sport类。

    总结

    本人也才刚刚开始学习,请大家多多包涵。大家在学习机器学习之前可以先学习下线性代数。

    展开全文
  • 《 API,机器学习与人工智能》的实践心得总结本课程内容和目标了解并实践人工智能API(计算机视觉,自然语言处理,语音识别等)的调用,学会看API技术文档。从API的生态圈切入,学习发展中国家及国际上应用价值高,...
  • 机器学习-总结.pdf

    2019-12-01 21:48:33
    机器学习的课件,课件里面对机器学习中常用的基本的知识点进行了总结与归纳,本文档适合刚入门及待入门的同学下载学习;适合初学者进行参考学习,
  • 关于机器学习课程的感想(一)

    千次阅读 2018-07-27 18:50:33
    接下来两年半,甚至可能是五年,应该都要针对人工智能、深度学习、机器学习的内容进行学习。由于现在还没正式入学,所以自己先买了几本书,找了点视频对相关内容进行学习。现在想把看的内容记下来写个博客,以后回头...
  • 机器学习的一些感悟(一)

    千次阅读 2018-03-10 14:01:41
    自己研究方向的社交网络,会用到一些机器学习的方法,本身自己也很感兴趣,从去年开始就开始了学习,学习经历...机器学习广泛应用于计算机视觉,自然语言处理,信息检索,推荐等领域,因为涉及面太广,现在并没有一...
  • 机器学习 SVM感想

    2020-05-03 23:38:05
    SVM向量机的机制可以理解为:支撑向量机如何解决“不适定问题呢”?SVM要找到一条泛化性比较好的决策边界,就是这条直线要离两个分类都尽可能的远,我们认为这样的决策边界就是好的。 其中有,在线性可分问题中,...
  • 机器学习总结 第一课

    2017-10-02 21:21:35
    机器学习总结 第一课这篇文章不涉及很多代码的部分,主要是机器学习处理数据的一些基本概念和流程。写这篇blog的原因是对前一段时间的总结。前一段时间参加阿里天池的贵州交通大数据的比赛,使用了很多机器学习的...
  • 机器学习心得(四)

    千次阅读 2022-04-05 14:29:55
    分类问题是监督学习的主要类型,主要分为二分类和多分类问题。 二分类问题:我们先从用蓝色圆形数据定义为类型1,其余数据为类型2;只需要分类1次步骤:①→\rightarrow→② 多分类问题:我们先定义其中一类为...
  • MIT博士的机器学习心得
  • 最近想学习一下机器学习的知识,发现要求有深厚的数学功底,找了很多的资料也无从下手,下面说下自己的心得体会,留下证据,以后学明白再回来看看,也许会有不同的感受吧。 1,经过别人推荐,看了周志华的西瓜书,...
  • Python机器学习经典实例这篇文章主要知识点是关于Python机器学习经典实例,学习感悟,Python机器学习经典实例,的内容,如果大家想对相关知识点有系统深入的学习,可以参阅以下电子书初衷在看到一位产品经理制定机器...
  • Python大本营每日一课大家好,我是营长,上期营长分享了“面向对象练习”:,不清楚的小伙伴可戳这????每日一课 | 面向对象练习(硬核)本期营长将为大家分享新的内容知识,“机器学习极简...
  • 机器学习感悟

    千次阅读 2019-06-10 20:25:28
    一个完整的机器学习项目大体有如下步骤(kaggle比赛流程也大体如下): 首先、将所要解决的问题抽象成机器学习的问题(类似数学建模),目标问题到底是一个什么问题,分类,回归还是聚类问题,要达到的目标是什么,...
  • 构建机器学习系统tips 方差/偏差 ,正则化 决定下一步做什么: 算法评估,学习曲线(判断高偏差/高方差问题),误差分析 上限分析:机器学习的应用中,我们通常需要通过几个步骤才能进行最终的预测,我们如何能够 ...
  • 机器学习实验1-Fisher线性分类器设计.docx机器学习实验1-Fisher线性分类器设计.docx机器学习实验1-Fisher线性分类器设计.docx机器学习实验1-Fisher线性分类器设计.docx机器学习实验1-Fisher线性分类器设计.docx机器...
  • 机器学习实验1-Fisher线性分类器设计.pdf机器学习实验1-Fisher线性分类器设计.pdf机器学习实验1-Fisher线性分类器设计.pdf机器学习实验1-Fisher线性分类器设计.pdf机器学习实验1-Fisher线性分类器设计.pdf机器学习...
  • 学习机器学习总体感受

    千次阅读 2018-11-27 16:24:04
     所谓机器学习其实也可以叫做统计学习,主要以计算机和网络为平台,对大量数据进行研究,目的是发现规律并进行预测分析的过程。这其中会用到很多的方法,也是机器学习的核心所在。何为学习,Herbert A.Simon说过:...
  • 期末复习--机器学习总结(全)

    千次阅读 2021-12-20 08:24:59
    机器学习处理问题分为监督学习 和 无监督学习 分类问题的基本流程分为训练和预测两个阶段 岭回归和Lasso回归的出现是为解决线性回归中出现的非满秩矩阵求解问题和过拟合问题,通过在损失函数中添加了正则化项实现、 ...
  • 假设说她的肿瘤大概这么大,那么机器学习的问题就在于,你能否估算出肿瘤是恶性的或是良性的概率。用术语来讲,这是一个分类问题。 在其它一些机器学习问题中,可能会遇到不止一种特征。上图中,我列举了总共5种不同...
  • 机器学习线性回归学习心得Most of you reading this article must be having a fair idea of the term machine learning. If we talk in lay man’s language it is basically an application of artificial ...
  • 文章目录一、主成分分析 PCA二、奇异值分解 SVD三、K均值聚类四、均值漂移聚类五、EM算法六、SOM算法七、朴素贝叶斯算法八、逻辑斯蒂回归九、支持向量机 SVM十、决策树10.1 ID3算法10.2 C4.5算法10.3 决策树剪枝10.4...
  • 1、KNN (K近邻)VS 决策树 分类算法 k近邻算法可以完成很多分类任务,但是它最大的缺点就是无法给出数据的内在含义。它是通过计算点位间的距离来决定相似度的,其执行效率不高,存储空间和计算时间比较长。...
  • 一、通俗理解机器学习 1、机器学习是人工智能的一种,如图所示,它是人工智能的一个子方向。 2、机器学习有点像人类的学习过程。 1. 人类学习通过经验(事件),归纳出规律。 2. 机器学习通过数据,训练出模型...
  • 机器学习》总结与心得

    万次阅读 多人点赞 2018-08-03 21:36:45
    这段时间把《机器学习》看了一遍,总的来说,除了前两章是基础,其余章节都是介绍模型方法,应用场景、理论推导、优化过程、算法等,每章都可独立阅读而不受其他章节影响。 如果只是每一章都看完,顶多就是了解了一...
  • 机器学习学习课程感悟

    千次阅读 2016-04-25 22:05:12
     最近几周花了点时间学习了下今年暑假龙星计划的机器学习课程,具体的课程资料参考见附录。本课程选讲了写ML中的基本模型,同时还介绍了最近几年比较热门,比较新的算法,另外也将ML理论和实际问题结合了起来,比如...
  • 机器学习实战中的心得体会

    千次阅读 2019-06-11 11:18:02
    1.如何处理非均衡分类代价? 如题目所讲,处理非均衡的分类代价的意思也就是当不同的分类预测正确或者错误时,其损失函数的代价是不同的; 当真实值为+1,预测值为+1时,其代价值和真实值为-1,预测值为-1的代价值是...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 6,337
精华内容 2,534
关键字:

机器学习感想

友情链接: chap6.rar