精华内容
下载资源
问答
  • 在本文中,我想退一步并从基本的角度解释机器学习和深度学习,讨论一些最常见的机器学习算法,并解释这些算法与创建预测模型的其他难题之间的关系从历史数据。 什么是机器学习算法? 回想一下, 机器学习是一类...

    深度学习算法和机器学习算法

    机器学习和深度学习已被广​​泛接受,甚至更广泛地被误解了。 在本文中,我想退一步并从基本的角度解释机器学习和深度学习,讨论一些最常见的机器学习算法,并解释这些算法与创建预测模型的其他难题之间的关系从历史数据。

    什么是机器学习算法?

    回想一下, 机器学习是一类用于根据数据自动创建模型的方法。 机器学习算法是机器学习的引擎,这意味着它将数据集转换为模型的算法。 哪种算法效果最好(有监督,无监督,分类,回归等)取决于您要解决的问题的类型,可用的计算资源以及数据的性质。

    [理解机器学习: 人工智能,机器学习和深度学习:您需要知道的一切。 | 机器学习的解释 | 机器学习算法的解释 | 软件工程师的机器学习技能 ]

    机器学习的工作原理

    普通的编程算法以简单的方式告诉计算机要做什么。 例如,排序算法将无序数据转换为按某些条件排序的数据,通常是数据中一个或多个字段的数字或字母顺序。

    线性回归算法通常通过执行矩阵求逆以最小化直线和数据之间的平方误差,来将直线或参数多项式线性的另一个函数(例如多项式)拟合到数值数据。 使用平方误差作为度量标准,因为您不必担心回归线是在数据点之上还是之下。 您只关心线与点之间的距离。

    非线性回归算法要使参数参数不是线性的曲线拟合到数据 ,因此稍微复杂一点,因为与线性回归问题不同,它们无法使用确定性方法求解。 取而代之的是,非线性回归算法实现了某种迭代的最小化过程,通常是对最速下降方法进行一些修改。

    最陡下降原理基本上是计算当前参数值的平方误差及其梯度,选择步长(又称学习率),遵循“下山”梯度的方向,然后在新的位置重新计算平方误差及其梯度。参数值。 最终,运气很好,过程收敛了。 最速下降的变体试图改善收敛性。

    机器学习算法甚至比非线性回归简单得多,部分原因是机器学习省去了适合特定数学函数(例如多项式)的约束。 机器学习通常可以解决两大类问题:回归和分类。 回归用于数字数据(例如,具有给定地址和专业的某人的可能收入是多少?),分类用于非数字数据(例如,申请人是否会拖欠这笔贷款?)。

    预测问题(例如,明天微软股票的开盘价是多少?)是时间序列数据的回归问题的子集。 分类问题有时分为两类(是或否)和多类问题(动物,植物或矿物质)。

    监督学习与无监督学习

    与这些划分无关,还有另外两种机器学习算法:有监督的和无监督的。 监督学习中 ,您将为训练数据集提供答案,例如一组动物图片以及动物名称。 该训练的目标是建立一个模型,该模型可以正确识别以前未见过的(训练集中包含的一种动物的)图片。

    无监督学习中 ,该算法会遍历数据本身并尝试得出有意义的结果。 结果可能是,例如,可能在每个群集内相关的一组数据点的群集。 当群集不重叠时,效果更好。

    培训和评估可以通过优化监督学习算法的参数来找到最适合您数据基础知识的一组值,从而将监督学习算法转变为模型。 这些算法的优化程序通常依赖于最速下降的变体,例如随机梯度下降(SGD),它实际上是从随机起始点执行多次的最速下降。 对SGD的常见改进增加了一些因素,这些因素可以根据动量来校正梯度的方向,或者根据从一次遍历到另一次遍历的进度来调整学习率。

    机器学习的数据清理

    野外没有干净的数据。 为了对机器学习有用,必须积极过滤数据。 例如,您将要:

    1. 查看数据,并排除所有缺少大量数据的列。
    2. 再次查看数据,然后选择要用于预测的列。 (这是您可能需要在迭代时进行更改的东西。)
    3. 在其余列中排除仍缺少数据的任何行。
    4. 纠正明显的错别字并合并等效答案。 例如,美国,美国,美国和美国应合并为一个类别。
    5. 排除数据超出范围的行。 例如,如果要分析纽约市内的出租车行程,则需要过滤出市区外边界以外的上下车纬度和经度行。

    您可以做更多的事情,但这取决于收集的数据。 这可能很乏味,但是如果您在机器学习管道中设置了数据清理步骤,则可以随意修改并重复进行。

    机器学习的数据编码和规范化

    要将分类数据用于机器分类,您需要将文本标签编码为另一种形式。 有两种常见的编码。

    一种是标签编码 ,这意味着每个文本标签值都用数字代替。 一种一键编码 ,这意味着每个文本标签值都将变成具有二进制值(1或0)的列。 大多数机器学习框架都具有为您进行转换的功能。 通常,单热编码是首选,因为标签编码有时会使机器学习算法混淆,以为编码列是有序的。

    要将数字数据用于机器回归,通常需要将数据标准化。 否则,范围较大的数字可能趋于主导特征向量之间的欧几里得距离,它们的影响可能会以其他场为代价被放大,并且最陡的下降优化可能会难以收敛。 有很多方法可以对ML数据进行标准化和标准化,包括最小-最大标准化,均值标准化,标准化和缩放到单位长度。 此过程通常称为特征缩放

    机器学习功能是什么?

    由于我在上一节中提到了特征向量,因此我应该解释一下它们是什么。 首先, 特征是观察到的现象的单个可测量属性或特征。 “特征”的概念与解释变量的概念有关,该解释变量在诸如线性回归之类的统计技术中使用。 特征向量将单行的所有特征组合为数值向量。

    选择特征的部分技巧是选择最少的一组变量来解释问题。 如果两个变量高度相关,则要么需要将它们组合为一个特征,要么应将其删除。 有时人们进行主成分分析以将相关变量转换为一组线性不相关变量。

    人们用来构造新特征或降低特征向量维数的一些转换很简单。 例如,从Year of Death Year of Birth减去Year of Birth Year of Death然后构建Age at Death ,这是生命周期和死亡率分析的主要自变量。 在其他情况下, 特征构造可能不是那么明显。

    通用机器学习算法

    机器学习算法有数十种,其复杂度从线性回归和逻辑回归到深度神经网络和集合(其他模型的组合)不等。 但是,一些最常见的算法包括:

    • 线性回归,也称为最小二乘回归(用于数值数据)
    • Logistic回归(用于二进制分类)
    • 线性判别分析(用于多类别分类)
    • 决策树(用于分类和回归)
    • 朴素贝叶斯(用于分类和回归)
    • K最近邻居,又名KNN(用于分类和回归)
    • 学习向量量化,又名LVQ(用于分类和回归)
    • 支持向量机,又名SVM(用于二进制分类)
    • 随机森林,一种“装袋”集成算法(用于分类和回归)
    • 增强方法(包括AdaBoost和XGBoost)是集成算法,可创建一系列模型,其中每个新模型都试图纠正先前模型的错误(用于分类和回归)

    我们听到很多的神经网络和深度神经网络在哪里? 它们往往需要大量的计算资源,以至于需要GPU或其他专用硬件,因此您应仅将它们用于不适合简单算法的特殊问题,例如图像分类和语音识别。 请注意,“深层”意味着神经网络中有许多隐藏层。

    有关神经网络和深度学习的更多信息,请参阅“ 深度学习的真正含义”

    机器学习算法的超参数

    机器学习算法对数据进行训练,以找到影响预测值或类别的每个自变量的最佳权重集。 算法本身具有变量,称为超参数。 与参数相反,它们被称为超参数,因为它们控制算法的操作而不是确定权重。

    最重要的超参数通常是学习速率,它决定了寻找下一组权重以进行优化时使用的步长。 如果学习率太高,则梯度下降可能会很快收敛于平稳或次优点。 如果学习率太低,则梯度下降可能会停滞并且永远不会完全收敛。

    许多其他常见的超参数取决于所使用的算法。 大多数算法都有停止参数,例如最大时期数,最大运行时间或每个时期的最小改进。 特定算法具有控制其搜索形状的超参数。 例如,随机森林分类器具有用于每个叶子的最小样本,最大深度,分裂的最小样本,叶子的最小权重分数以及大约8个以上的超参数。

    超参数调整

    现在,一些生产机器学习平台提供了自动超参数调整。 本质上,您告诉系统要更改哪些超参数,以及可能要优化的指标,然后系统会在允许的所有运行中扫描这些超参数。 (Google Cloud超参数调整会从TensorFlow模型中提取适当的指标,因此您不必指定它。)

    扫描超参数有三种搜索算法:贝叶斯优化,网格搜索和随机搜索。 贝叶斯优化往往是最有效的。

    您会认为,尽可能多地调整超参数将为您提供最佳答案。 但是,除非您在自己的个人硬件上运行,否则可能会非常昂贵。 在任何情况下,收益都是递减的。 凭借经验,您将发现哪些超参数对您的数据和算法选择最重要。

    自动化机器学习

    说到选择算法,只有一种方法可以知道哪种算法或算法集合将为您的数据提供最佳模型,那就是对它们进行全部尝试。 如果您还尝试所有可能的规范化和功能选择,那么您将面临组合爆炸式增长。

    尝试手动进行所有操作都是不切实际的,因此,机器学习工具提供者当然会花很多精力来发布AutoML系统。 最好的方法将特征工程与算法和规范化扫描结合在一起。 最佳模型或多个模型的超参数调整通常留待以后使用。 然而,要素工程是一个很难实现自动化的难题,而且并非所有的AutoML系统都可以处理它。

    总而言之,机器学习算法只是机器学习难题中的一小部分。 除了算法选择(手动或自动)之外,您还需要处理优化器,数据清理,特征选择,特征归一化和(可选)超参数调整。

    处理完所有这些并建立适用于数据的模型后,就该部署该模型,然后根据情况的变化对其进行更新。 但是,在生产环境中管理机器学习模型完全是蠕虫。

    翻译自: https://www.infoworld.com/article/3394399/machine-learning-algorithms-explained.html

    深度学习算法和机器学习算法

    展开全文
  • 机器学习常见算法历史排序

    主成分分析(PCA)
    在1901年由Pearson发明,之后由Hotelling在1930s命名。主要用于探索性数据分析,以及构建预测模型。

    线性判别分析(LDA)
    跟方差分析(ANOVA)和回归分析关系密切,旨在把因变量作为其他特征(自变量)的线性组合表示。不同之处在于,方差分析的自变量是分类变量,因变量是连续变量。判别分析的自变量是连续变量,因变量是分类变量。
    线性判别分析和主成分分析、因子分析也很相关。

    核回归(kernel regression)
    在1964提出,是一种非参数统计方法,用于估计随机变量的条件期望,也就是寻找两个随机变量之间的非线性关系。
    E(Y|X)=m(X)
    m就是要估计的函数

    隐马尔可夫模型(HMM)
    主要由Baum从1966-1972发展而来,是一种最简单的动态贝叶斯网络。最常应用于强化学习,模式识别,例如语音、手写字体、姿势识别。
    是一种推广的混合模型,其中的隐变量控制混合部分,通过马尔科夫过程相关,而不是相互独立。
    “Statistical Inference for Probabilistic Functions of Finite State Markov Chains”
    “An inequality with applications to statistical estimation for probabilistic functions of Markov processes and to a model for ecology”
    “Growth transformations for functions on manifolds”
    “A Maximization Technique Occurring in the Statistical Analysis of Probabilistic Functions of Markov Chains”
    “An Inequality and Associated Maximization Technique in Statistical Estimation of Probabilistic Functions of a Markov Process”

    EM算法
    1977年在“Maximum Likelihood from Incomplete Data via the EM Algorithm”论文中首次命名。论文中指出在此前在不同场合被提出过数次。
    该算法用于寻找统计模型的等式不能直接 求解的最大似然参数。
    卷积神经网络(CNN)
    从1980s提出的neocognitron,一种多层次的人工神经网络。这是受到1959年提出的视觉神经元的交互的启发,而提出的模型。之后在1988年,诞生了LeNet,是现代cnn的雏形,2012年诞生了AlexNet。
    cnn是一种深度、前馈的人工神经网络。前馈的意思是单元之间的联系不会构成循环。信息只会从输入节点,经过隐藏层节点,到达输出节点的单一方向移动。

    循环神经网络(RNN)
    在1980s发展起来,人工神经网络的一种,单元之间的联系构成有向循环。能展示动态的暂时的行为,可利用内部记忆处理任意输入序列。可用应用于无分段、无连接的手写字识别或者语音识别。

    奇异值分解(SVD)
    在1983年提出

    分类回归树(CART)
    Breiman和Friedman在1983年的文章中“Classification and Regression Trees.”提出的。

    受限玻尔兹曼机(Restricted Boltzmann Machine,简称RBM)
    由Hinton和Sejnowski于1986年提出的一种生成式随机神经网络(generative stochastic neural network),该网络由一些可见单元(visible unit,对应可见变量,亦即数据样本)和一些隐藏单元(hidden unit,对应隐藏变量)构成,可见变量和隐藏变量都是二元变量,亦即其状态取{0,1}。整个网络是一个二部图,只有可见单元和隐藏单元之间才会存在边,可见单元之间以及隐藏单元之间都不会有边连接。

    长短期记忆(LSTM)
    1997年发明,从2007年开始变革语音识别。

    梯度上升决策树(GBDT)
    在 1999年由 Jerome Friedman提出,将 GBDT 模型应用于 ctr 预估,最早见于 yahoo。

    条件随即场(CRF)
    Lafferty等人于2001年提出 “Conditional random fields: Probabilistic models for segmenting and labeling sequence data”,结合了最大熵模型和隐马尔可夫模型的特点,是一种无向图模型,也是一种判别式概率模型,近年来在分词、词性标注和命名实体识别等序列标注任务中取得了很好的效果。

    自动编码(autoencoder)
    2009年提出,用于人工神经网络的非监督式编码。主要是为了降维。进来编码器概念逐渐被广泛用于生成模型。al-and-quick-reference


    参考
    【卷积神经网络-进化史】从LeNet到AlexNet
    Convolutional neural network
    Linear discriminant analysis
    Kemaswill
    机器学习 数据挖掘 推荐系统
    受限玻尔兹曼机(Restricted Boltzmann Machine, RBM) 简介

    xgboost导读和实战

    展开全文
  • 机器学习算法说明

    2020-05-21 13:28:30
    在本文中,我想退一步并从基本的角度解释机器学习和深度学习,讨论一些最常见的机器学习算法,并解释这些算法如何与创建预测模型的其他难题相关联从历史数据。 什么是机器学习算法? 回想一下, 机器学习是一类...

    机器学习和深度学习已被广​​泛接受,甚至更广泛地被误解了。 在本文中,我想退一步并从基本的角度解释机器学习和深度学习,讨论一些最常见的机器学习算法,并解释这些算法如何与创建预测模型的其他难题相关联从历史数据。

    什么是机器学习算法?

    回想一下, 机器学习是一类用于根据数据自动创建模型的方法。 机器学习算法是机器学习的引擎,这意味着它将数据集转换为模型的算法。 哪种算法效果最好(有监督,无监督,分类,回归等)取决于您要解决的问题的类型,可用的计算资源以及数据的性质。

    [理解机器学习: 人工智能,机器学习和深度学习:您需要知道的一切。 | 机器学习的解释 | 机器学习算法进行了解释 | 软件工程师的机器学习技能 ]

    机器学习的工作原理

    普通的编程算法以简单的方式告诉计算机该做什么。 例如,排序算法将无序数据转换为按某些条件排序的数据,通常是数据中一个或多个字段的数字或字母顺序。

    线性回归算法通常通过执行矩阵求逆以最小化直线和数据之间的平方误差,来将直线或参数(例如多项式)中另一个线性的函数拟合到数值数据。 使用平方误差作为度量标准,因为您不必担心回归线是在数据点之上还是之下。 您只关心线与点之间的距离。

    非线性回归算法要使参数参数不是线性的曲线拟合到数据 ,因此稍微复杂一点,因为与线性回归问题不同,它们无法使用确定性方法求解。 取而代之的是,非线性回归算法实现了某种迭代的最小化过程,通常是对最速下降方法进行一些修改。

    最陡下降原理基本上是计算当前参数值的平方误差及其梯度,选择步长(又称学习率),遵循“下山”梯度的方向,然后在新的位置重新计算平方误差及其梯度。参数值。 最终,运气很好,过程收敛了。 最速下降的变体试图改善收敛性。

    机器学习算法甚至比非线性回归简单得多,部分原因是机器学习省去了适合特定数学函数(例如多项式)的约束。 机器学习通常可以解决两大类问题:回归和分类。 回归用于数字数据(例如,具有给定地址和专业的人的可能收入是多少?),分类用于非数字数据(例如,申请人是否会拖欠这笔贷款?)。

    预测问题(例如,明天微软股票的开盘价是多少?)是时间序列数据回归问题的子集。 分类问题有时分为二类(是或否)和多类问题(动物,植物或矿物)。

    监督学习与无监督学习

    与这些划分无关,还有另外两种机器学习算法:有监督和无监督。 监督学习中 ,您将为训练数据集提供答案,例如一组动物图片以及动物名称。 该训练的目标是建立一个模型,该模型可以正确识别以前未见过的(训练集中包含的一种动物的)图片。

    无监督学习中 ,该算法会遍历数据本身并尝试得出有意义的结果。 例如,结果可能是一组可能在每个群集内相关的数据点群集。 当群集不重叠时,效果更好。

    培训和评估可以通过优化监督型学习算法的参数来找到最符合您数据真实性的一组值,从而将监督型学习算法转变为模型。 这些算法的优化程序通常依赖于最速下降的变体,例如随机梯度下降(SGD),它本质上是从随机起始点执行多次的最速下降。 对SGD的常见改进增加了一些因素,这些因素可以根据动量校正梯度的方向,也可以根据从一次遍历到另一次遍历的进展来调整学习率。

    机器学习的数据清理

    野外没有干净的数据。 为了对机器学习有用,必须积极过滤数据。 例如,您将要:

    1. 查看数据,并排除所有缺少大量数据的列。
    2. 再次查看数据,然后选择要用于预测的列。 (这是您可能需要在迭代时进行更改的东西。)
    3. 在其余列中排除仍缺少数据的任何行。
    4. 纠正明显的错别字并合并等效答案。 例如,美国,美国,美国和美国应合并为一个类别。
    5. 排除数据超出范围的行。 例如,如果您要分析纽约市内的出租车行程,则需要过滤出市区外边界以外的上下车经纬度行。

    您可以做更多的事情,但这取决于收集的数据。 这可能很乏味,但是如果您在机器学习管道中设置了数据清理步骤,则可以随意修改并重复进行。

    机器学习的数据编码和规范化

    要将分类数据用于机器分类,您需要将文本标签编码为另一种形式。 有两种常见的编码。

    一种是标签编码 ,这意味着每个文本标签值都用数字代替。 一种一键编码 ,这意味着每个文本标签值都将变成具有二进制值(1或0)的列。 大多数机器学习框架都具有为您进行转换的功能。 通常,单热编码是首选,因为标签编码有时会使机器学习算法混淆,以为编码列是有序的。

    要将数字数据用于机器回归,通常需要将数据标准化。 否则,具有较大范围的数字可能趋于主导特征向量之间的欧几里得距离,它们的影响可能会以其他场为代价被放大,并且最速下降优化可能会难以收敛。 有很多方法可以对ML数据进行标准化和标准化,包括最小-最大标准化,均值标准化,标准化和缩放到单位长度。 此过程通常称为特征缩放

    机器学习功能是什么?

    由于我在上一节中提到了特征向量,因此我应该解释一下它们是什么。 首先, 特征是观察到的现象的单个可测量属性或特征。 “特征”的概念与解释变量的概念有关,该解释变量在诸如线性回归之类的统计技术中使用。 特征向量将单行的所有特征组合为数值向量。

    选择特征的部分技术是选择一组最少的解释问题的变量。 如果两个变量高度相关,则要么需要将它们组合为一个特征,要么应将其删除。 有时人们进行主成分分析以将相关变量转换为一组线性不相关变量。

    人们用来构造新特征或降低特征向量维数的一些转换很简单。 例如,从Year of Death Year of Birth减去Year of Birth Year of Death然后构建Age at Death ,这是生命周期和死亡率分析的主要自变量。 在其他情况下, 特征构造可能不是那么明显。

    通用机器学习算法

    机器学习算法有数十种,其复杂度从线性回归和逻辑回归到深度神经网络和集合(其他模型的组合)不等。 但是,一些最常见的算法包括:

    • 线性回归,也称为最小二乘回归(用于数值数据)
    • Logistic回归(用于二进制分类)
    • 线性判别分析(用于多类别分类)
    • 决策树(用于分类和回归)
    • 朴素贝叶斯(用于分类和回归)
    • K最近邻居,又名KNN(用于分类和回归)
    • 学习矢量量化,又名LVQ(用于分类和回归)
    • 支持向量机,又名SVM(用于二进制分类)
    • 随机森林,一种“装袋”集成算法(用于分类和回归)
    • 增强方法(包括AdaBoost和XGBoost)是集成算法,可创建一系列模型,其中每个新模型都试图纠正先前模型的错误(用于分类和回归)

    我们听到很多的神经网络和深度神经网络在哪里? 它们往往需要大量的计算资源,以至于需要GPU或其他专用硬件,因此您应仅将它们用于不适合简单算法的特殊问题,例如图像分类和语音识别。 请注意,“深层”意味着神经网络中有许多隐藏层。

    有关神经网络和深度学习的更多信息,请参阅“ 深度学习的真正含义”

    机器学习算法的超参数

    机器学习算法对数据进行训练,以找到影响预测值或类别的每个自变量的最佳权重集。 算法本身具有变量,称为超参数。 与参数相反,它们称为超参数,因为它们控制算法的操作而不是确定权重。

    最重要的超参数通常是学习率,它决定了寻找下一组权重以进行优化时使用的步长。 如果学习率太高,则梯度下降可能会很快收敛于平稳或次优点。 如果学习率太低,则梯度下降可能会停滞并且永远不会完全收敛。

    许多其他常见的超参数取决于所使用的算法。 大多数算法都有停止参数,例如最大时期数,最大运行时间或每个时期的最小改进。 特定算法具有控制其搜索形状的超参数。 例如,随机森林分类器具有用于每片叶子的最小样本,最大深度,分裂时的最小样本,叶子的最小权重分数以及大约8个以上的超参数。

    超参数调整

    现在,一些生产机器学习平台提供了自动超参数调整。 本质上,您告诉系统要更改哪些超参数,以及可能要优化的指标,然后系统会在允许的所有运行中扫描这些超参数。 (Google Cloud超参数调整会从TensorFlow模型中提取适当的指标,因此您不必指定它。)

    扫描超参数有三种搜索算法:贝叶斯优化,网格搜索和随机搜索。 贝叶斯优化往往是最有效的。

    您会认为,尽可能多地调整超参数将为您提供最佳答案。 但是,除非您在自己的个人硬件上运行,否则可能会非常昂贵。 在任何情况下,收益都是递减的。 凭借经验,您将发现哪些超参数对您的数据和算法选择最重要。

    自动化机器学习

    说到选择算法,只有一种方法可以知道哪种算法或算法集合将为您的数据提供最佳模型,那就是对它们进行全部尝试。 如果您还尝试所有可能的规范化和功能选择,那么您将面临组合爆炸式增长。

    尝试手动进行所有操作都是不切实际的,因此,机器学习工具提供商当然会花很多精力来发布AutoML系统。 最好的方法将特征工程与算法和规范化扫描相结合。 最佳模型的超参数调整通常留待以后使用。 但是,要素工程设计很难实现自动化,而且并非所有的AutoML系统都能处理。

    总而言之,机器学习算法只是机器学习难题的一小部分。 除了算法选择(手动或自动)之外,您还需要处理优化器,数据清理,特征选择,特征归一化和(可选)超参数调整。

    处理完所有这些并构建适用于数据的模型后,就该部署该模型,然后根据条件的变化对其进行更新。 但是,在生产环境中管理机器学习模型完全是蠕虫。

    From: https://www.infoworld.com/article/3394399/machine-learning-algorithms-explained.html

    展开全文
  • 离线机器学习-通过定时任务来训练算法,具有缺点,不具有实时性。 在线学习-实时学习 机器学习的典型应用 关联规则-啤酒和纸尿裤-购物篮分析-捆绑销售-货物摆放位置的挑战-数据挖掘 聚类-用户细分精准营销 朴素...

    机器学习

    • 从历史数据找出规律
    • 数据代替expert

    业务系统的发展历史

    • 基于专家经验
    • 基于统计-分维度统计
    • 机器学习-在线学习

    机器学习模式

    • 离线机器学习-通过定时任务来训练算法,具有缺点,不具有实时性。
    • 在线学习-实时学习

    机器学习的典型应用

    • 关联规则-啤酒和纸尿裤-购物篮分析-捆绑销售-货物摆放位置的挑战-数据挖掘
    • 聚类-用户细分精准营销
    • 朴素贝叶斯-垃圾邮件识别
    • 决策树-信用卡欺诈-银行用来风险识别
    • ctr预估-互联网广告
    • 协同过滤-电商推荐系统
    • 自然语言处理-情感分析,实体识别
    • 深度学习-图像识别(模式识别)

    机器学习和数据分析的区别

    • 数据分析-交易信息-少量数据
    • 机器学习-行为数据-海量数据-》大数据
    • 数据分析使用采样分析,行为数据使用全量分析-云计算
    • 解决业务问题不同
    • 分析方法不同,数据分析通过用户驱动,交互式分析,数据挖掘通过数据驱动,自动

    进行知识发现机器学习算法分类

    • 有监督学习-分类算法,回归算法
    • 无监督学习-聚类
    • 半监督学习(强化学习)
    • 分类与回归
    • 聚类
    • 标注-文本词性的标注

    算法本质分类

    • 生成模型
    • 判别模型

    机器学习算法排名

    排名 算法类别 算法名称 说明
    1 分类 C4.5
    2 聚类 K-Means
    3 统计学习 SVM
    4 关联分析 Apriori (多次访问数据,淘汰)FP-Growth后来居上
    5 统计分析 EM (算法框架)
    6 链接挖掘 PageRank (谷歌)
    7 集装与推进 AdaBoost (人脸识别)-决策树
    8 分类 kNN
    9 分类 Naive Bayes (朴素贝叶斯)
    10 分类 CART

    机器学习常见算法

    • FP-Growth
    • 逻辑回归
    • RF,GBDT
    • 推荐算法
    • LDA(自然语言处理)
    • Word2Vector(文本挖掘)
    • HMM,CRF(文本挖掘)
    • 深度学习

    机器学习解决问题的框架

    • 确定目标-业务需求-数据-特征工程(数据预处理)
    • 数据决定机器学习的效果
    • 训练模型
      • 定义模型
      • 定义损失函数
      • 优化算法
    • 模型评估
      • 交叉验证
      • 效果评估
    展开全文
  • 机器学习算法

    2018-07-16 17:44:48
    机器学习算法 转载来自于:https://mp.weixin.qq.com/s/yqODpU4J2T8kfdcHuHrihg WX:大数据分析和人工智能 也许我们生活在人类历史上最关键的时期:从使用大型计算机,到个人电脑,再到现在的云计算。关键的不是...
  • 机器学习算法应用和学习_1】1.1 机器学习框架 基础概念 机器学习:从数据中获得决策(预测)函数,使得机器能从大量历史数据中学习规律从而对新的样本做决策。 监督学习与非监督学习:简单来说...
  • 嗯,正经点,机器学习我理解是程序通过一系列算法去学习已有的经验,从而不断优化达成目标的一种工程应用。机器学习的步骤大同小异,分为以下几步: 1.搭建数据集:获得一系列的历史数据,比如2019年...
  • 机器学习算法介绍

    千次阅读 2019-03-13 09:36:53
    谷歌董事长施密特曾说过:虽然谷歌的无人驾驶汽车和机器人受到了许多媒体关注,但是这家公司真正的未来在于机器学习,一种让计算机更聪明、更个性化的技术。 也许我们生活在人类历史上最关键的时期:从使用大型...
  • 十大机器学习算法的一个小总结

    千次阅读 2019-10-11 19:09:02
    在公众号看到来一篇不错的文章,讲解机器学习算法的,感觉挺好的,所以这里对常用的机器学习算法...机器学习算法是在没有人为干涉的情况下,从大量的数据和历史经验中学习数据的结构并提升对某一目标的估计的算法。...
  • 2016 年 3 月,谷歌公司 DeepMind 团队的 AlphaGo 以 4 比 1 战胜第 18 届世界围棋冠军李世石,这是一场具有历史意义的比赛。 图 1 围棋落子位置种类 ...通过融合深度强化学习网络和最先进的树搜索算法,Alpha...
  • 常见机器学习算法

    2017-11-27 19:43:46
    谷歌董事长施密特曾说过:虽然谷歌的无人驾驶汽车和机器人受到了许多媒体关注,但是这家公司真正的未来在于机器学习,一种让计算机更聪明、更个性化的技术。 也许我们生活在人类历史上最关键的时期:从使用大型...
  • 经典的机器学习模型是神经网络,有半个多世纪的历史了。神经网络预测精确,但是计算量很大。上世纪八十年代Breiman等人发明分类树的算法(Breiman et al. 1984),通过反复二分数据进行分类或回归,计算量大大降低。...
  • 机器学习发展历史回顾

    万次阅读 多人点赞 2018-09-05 18:21:20
    其它机器学习、深度学习算法的全面系统讲解可以阅读《机器学习-原理、算法与应用》...最早的机器学习算法可以追溯到20世纪初,到今天为止,已经过去了100多年。从1980年机器学习称为一个独立的方向开始算起,到现在...
  • 1、机器学习就是利用计算机从历史数据中找到规律,并把这些规律用到未来不确定场景的决策中。 2、算法分类 (1)有监督学习: 分类算法 回归算法 必须知道目标变量的分类信息(知道要预测什么,目标变量是算法的...
  • 人工智能之机器学习算法体系汇总

    千次阅读 2017-07-31 15:26:04
    目录(?)[+] ...1.人工智能之机器学习体系汇总2....2.1.人工智能再次登上历史舞台2.2.Python才是...立志写“人工智能之机器学习”系列,此为开篇,主要梳理了机器学习算法体系,人工智能相关趋势,Python与机器学习,
  • WXG机器学习算法面试

    2021-03-29 16:02:24
    4,场景题 没有历史数据,已知用户账号登录的几个特征,怎样简历异常登陆检测模型。 下面介绍自己反欺诈的项目,关于特征工程进行了介绍。 最后介绍了自己的CV的项目,没问什么问题。 二面1h 没刷题。全程项目介绍与...
  • 机器学习算法基础--1.

    2020-04-08 11:31:31
    机器学习算法基础一.特征工程和文本特征提取1.数据集的组成2.特征工程3.数据的特征抽取3.1sklearn特征抽取API3.2字典特征抽取 一.特征工程和文本特征提取 1.数据集的组成 从历史数据中获得规律。 这些历史数据是...
  • 通过本文为大家介绍了3种机器学习算法方式以及10种机器学习算法的清单,学起来吧~前言谷歌董事长施密特曾说过:虽然谷歌的无人驾驶汽车和机器人受到了许多媒体关注,但是这家公司真正的未来在于机器学习,一种让...
  • 文章目录一、机器学习概述1.什么是机器学习2.为什么需要机器学习?3.机器学习的应用场景二、数据集的组成1.历史数据是什么格式2.可用数据集3.常用数据集数据的结构组成三、数据的特征工程1.特征工程是什么2.特征工程...
  • 本次培训着重机器学习的入门及兴趣培养,希望能够为选择方向困难的同学提供帮助 一. 机器学习背景介绍 三个概念 常见的三个概念:人工智能,机器学习和深度学习是存在着包含关系的,即人工智能包含机器学习机器...
  • **第2章机器学习算法——为深度学习做准备** 前一章中,通过回顾人工智能的历史,你了解了深度学习是如何发展演变而来的。你应该已经注意到,机器学习和深度学习是不可分割的。实际上,深度学习就是对机器学习算法的...
  • 如何让知识超越人脑的极限,爆炸性增长?答案也许是:机器学习。“机器学习是一类算法的总称,这些算法企图从大量历史数据中挖掘出其隐含的规律,用于预测或者分类。”如果你想入门人工智能,机器学习会...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 1,110
精华内容 444
关键字:

机器学习算法历史