精华内容
下载资源
问答
  • 机器学习基础 ... 您将对现实世界的数据集应用无监督的聚类算法,以发现模式和配置文件,并探索解决无监督的机器学习问题的过程。 然后,课程的重点转移到有监督的学习算法上。 您将学习如何使用scikit-learn包
  • 自2012年以来,随着深度学习与强化学习的兴起,机器学习与人工智能成为科技领域热门的话题。越来越多的在校生与在职人员开始学习这些知识。然而,机器学习(包括深度学习与强化学习)对数学有较高的要求。不少数学...

    自2012年以来,随着深度学习与强化学习的兴起,机器学习与人工智能成为科技领域热门的话题。越来越多的在校生与在职人员开始学习这些知识。然而,机器学习(包括深度学习与强化学习)对数学有较高的要求。不少数学知识(如最优化方法、矩阵论、信息论、随机过程、图论)超出了理工科本科和研究生的学习范畴。即使对于理工科学生学习过的微积分、线性代数与概率论,机器学习中所用到的不少知识超出了本科的教学范畴。看到书或论文中的公式和理论而不知其意,是很多读者面临的一大难题。

    如果你想学好机器学习并打下坚实的数学基础,那么这本《机器学习的数学》再适合不过。

    《机器学习的数学》

    想学习机器学习,数学的问题怎么解决?需要具备哪些数学知识?

     

    • 人工智能深度学习领域经典教程,AI程序员的数学参考书
    • 透彻理解机器学习算法,从数学层面搞懂核心算法原理的逻辑
    • python程序讲解,众多专家学者力荐

    全书共由8章组成,用非常小的篇幅精准而系统地覆盖了机器学习、深度学习、强化学习所必需的数学知识,内容基本上涵盖了这3门课所需的绝大部分数学知识。针对理工科本科阶段的“高等数学/微积分”,“线性代数”,“概率论与数理统计”进行了精确地补充。下面介绍每一章的主要内容。

    第1章 一元函数微积分
    这一章的内容包括极限与连续性,一元函数的导数与微分,微分中值定理,泰勒公式,不定积分,定积分及其应用,以及常微分方程。这一章讲述了可数集与不可数集,上确界与下确界,李普希茨连续性这些常规微积分课程所没有讲述的知识。它们对于理解后续章节以及对机器学习算法的理论分析是至关重要的。作为应用,还对机器学习中常用的logistic函数、ReLU函数等函数的特性与用途进行了介绍。

    第2章 线性代数与矩阵论
    这一章的内容向量及其运算,矩阵及其运算,行列式,线性方程组,特征值与特征向量,二次型,矩阵分解。特别地,本章讲述了向量的范数、向量的阿达玛积,矩阵的范数,Houserholder变换、QR算法、广义特征值、瑞利商、条件数等特征值相关的内容,以及矩阵分解。作为机器学习中的应用实例,本章讲述了线性回归,线性分类器与支持向量机,人工神经网络,谱归一化与谱正则化的原理。

    第3章 多元函数微积分
    这一章的内容包括偏导数,方向导数与梯度,Hessian矩阵,雅克比矩阵,向量与矩阵求导,微分算法,多元函数泰勒公式,多重积分,以及无穷级数。其中,Hessian矩阵、雅克比矩阵、多元函数泰勒公式是本科微积分课程通常没有讲述的。它们对于多元函数极值、凹凸性,以及机器学习算法的推导分析是非常重要的,也是理解最优化方法的基础。微分算法在机器学习算法中非常重要,而绝大多数读者在之前的数学课程中并没有接触过。这一章还讲述了最小二乘法、反向传播算法这些应用实例。

    第4章 最优化方法
    最优化方法在机器学习中处于核心地位,几乎所有机器学习算法最终都归结于求解最优化问题,遗憾的是绝大部分读者之前并没有学习这些课程。这一章系统地介绍了机器学习中的最优化方法,包括基本概念,一阶优化算法(包括梯度下降法,最速下降法,梯度下降法的改进,随机梯度下降法),二阶优化算法(包括牛顿法,拟牛顿法),分治法,凸优化问题,带约束的优化算法(包括拉格朗日乘数法,拉格朗日对偶,KKT条件),多目标优化问题,泛函极值与变分法,以及机器学习中的目标函数构造(包括有监督学习,无监督学习,强化学习)。作为应用实例,讲解了人工神经网络的训练算法,支持向量机的SVM算法,求解logistic回归对偶问题的坐标下降法,机器学习中的典型凸优化问题,线性判别分析,支持向量机原问题与对偶问题的推导以及特性,多目标神经结构搜索。下面这张图是本章的知识结构。

    想学习机器学习,数学的问题怎么解决?需要具备哪些数学知识?

     


    下面这张图列出了机器学习中所用到的最优化方法以及其所用的数学知识。这两张图对于理解机器学习中的优化问题是非常有用的。

    想学习机器学习,数学的问题怎么解决?需要具备哪些数学知识?

     

    第5章 概率论
    概率论对于机器学习来说同样至关重要,用概率论的观点对机器学习问题进行建模,是一种常用的手段。这一章讲述了随机事件与概率,随机变量与概率分布,机器学习中的常用概率分布,概率分布变换,随机向量与联合概率分布,极限定理,参数估计问题,随机算法,以及采样算法。下面这张图是本章的知识结构。

    想学习机器学习,数学的问题怎么解决?需要具备哪些数学知识?

     

    需要重点强调的是,机器学习所用的概率论知识,有不少超出了一般本科概率论课程的范围。典型的包括条件独立性,Jensen不等式,多项分布,t分布,概率分布变换,多元正态分布,最大后验概率估计,贝叶斯估计,核密度估计,随机数生成问题,遗传算法,蒙特卡洛算法,以及采样算法。这一章对这些知识进行了系统的补充。另外还讲解了贝叶斯分类器,高斯混合模型,logistic回归,EM算法,Mean Shift算法等机器学习算法。下图总计了机器学习中的概率模型以及所用的概率论知识。

    想学习机器学习,数学的问题怎么解决?需要具备哪些数学知识?

     


    第6章 信息论
    信息论是绝大部分读者在本科、研究生期间没有学过的课程,而交叉熵、KL散度等频繁的出现在机器学习、深度学习的书籍与论文中。这一章从机器学习的角度讲述信息论的知识,内容包括熵与联合熵,交叉熵,KL散度,JS散度,互信息,以及条件熵。下图对这些常用的信息论概念进行了总结。

    想学习机器学习,数学的问题怎么解决?需要具备哪些数学知识?

     

    作为应用,本章还讲述了决策树的训练算法,softmax回归,流形降维(SNE算法),变分推断,生成对抗网络,特征选择等机器算法与技术。

    第7章 随机过程
    随机过程对于绝大部分读者也是陌生的,而高斯过程、马尔可夫过程等知识在机器学习中被广泛应用。这一章系统地介绍了机器学习里常用的随机过程,包括马尔可夫过程与高斯过程。对于在机器学习中的应用,重点讲述了隐马尔可夫模型,强化学习中的马尔可夫决策过程,马尔可夫链采样算法(MCMC),高斯过程回归,以及贝叶斯优化。随机过程较为抽象,本章力求用机器学习的实际应用来直观地解释这些数学概念。

    第8章 图论
    除计算机、软件工程等专业之外,绝大部分读者并没有学习过图论的知识,但图论对于机器学习的作用丝毫不逊色于对整个计算机科学的作用。流形降维,谱聚类,图神经网络中都离不开它的身影。这一章讲述了机器学习中最常用的图论知识,包括基本概念,一些特殊的图,重要的图算法,以及谱图理论。作为应用,讲述了计算图与自动微分,概率图模型,流形降维与谱聚类中所用的样本集的相似度图,受限玻尔兹曼机,神经结构搜索(NAS),以及流形降维(拉普拉斯特征映射)。

    为何要选择《机器学习的数学》这本书?

    1.用尽可能小的篇幅精准地覆盖了机器学习所需的数学知识

    对于机器学习究竟需要哪些数学知识,本书给出了一个非常精确的答案。力求用最小的篇幅覆盖机器学习领域所需的主要数学知识,以减轻读者的学习负担。只需把本书系统地学习一遍,即可满足几乎绝大部分读者在机器学习、深度学习、强化学习以及它们的各个应用方向做学术、产品研发的要求。

    2.从机器学习的角度讲述数学,从数学的角度讲述机器学习

    本书的一大特色是从机器学习的角度讲述数学,从数学的角度讲授机器学习,实现了二者的无缝衔接。读者之前在学数学课的时候通常面临一个问题:这些数学知识有什么用,应该怎么用?本书通过大量的机器学习实例讲解,在数学与机器学习之间架起了桥梁。既有利于理解数学知识本身,又能培养数学建模思维,同时还理解机器学习算法的数学本质,可谓一举多得。

    3.结构合理,脉络清晰

    对于全书的内容安排以及章节结构,作者有细致的考量。得利于扎实的数学功底以及机器学习领域的造诣。作者非常清晰的知道应该讲述哪些数学知识,以及它们之间的顺序、衔接安排。在更细的粒度上,对于数学、机器学习算法之间的联系与演化脉络,作者也进行了大量的总结。下面是对各种梯度下降法演化关系的总结。

    想学习机器学习,数学的问题怎么解决?需要具备哪些数学知识?

     

    4.讲解透彻,深入浅出

    数学本身是抽象难懂的,如何把一些概念、理论清晰的讲述出来,是一个非常有挑战的问题。在这一方面,作者也进行了大量的思考与设计,力求用浅显易懂的语言把晦涩的知识讲述清楚。下面是对Householder变换的讲解。

    想学习机器学习,数学的问题怎么解决?需要具备哪些数学知识?

     

    5.推导、证明详细

    对于绝大部分数学知识和机器学习算法的推导,我们都在篇幅允许的范围内做到尽可能的详细,不给读者留下知识的空白。有不少推导和证明过程,以及解释,是读者进行构思的,市面上不曾有过。

    关于作者

    雷明 资深机器学习、机器视觉专家。2009年毕业于清华大学计算机系,研究方向为机器视觉、机器学习,曾发表论文数篇。《机器学习-原理、算法与应用》(清华大学出版社,2019.09)作者,该书为清华大学出版社2019年度畅销书,销量超过2万册。曾就职于百度,任高级软件工程师、项目经理;zmodo/meShare公司CTO、平台研发中心负责人。2018年创立SIGAI,致力于研发零编程、可视化的机器视觉框架,用标准化的算法赋能各个行业,已于2020年6月完成pre-A轮融资。

    展开全文
  • 机器学习概要

    2021-04-11 22:52:41
    当前非常热门的莫过于大数据、云计算、机器学习等这些名词。无论什么产品,好像没有机器学习就不值得一谈,没有机器学习就没有先进性。今天跟大家一起看看机器学习到底是啥玩意儿。这里不对具体算法做过多解读,只是...

    当前非常热门的莫过于大数据、云计算、机器学习等这些名词。无论什么产品,好像没有机器学习就不值得一谈,没有机器学习就没有先进性。今天跟大家一起看看机器学习到底是啥玩意儿。这里不对具体算法做过多解读,只是从整体阐述机器学习是何物。

    1)如何判断机器学习的效果如何?为什么需要机器学习,而不是使用专家经验或着规则?

    2)常用的机器学习方法有哪些?

    3)工业界机器学习的流程是怎样的?

    4)为什么需要特征工程,特征工程在机器学习中的作用是怎样的?

    阅读完本篇文章之后,这些问题都将豁然开朗。

    1 算法分类

    整体来说机器学习分为有监督学习、无监督学习。有监督学习就是学习的数据中已经知道结果了,根据已知数据,训练出模型,然后给出较准确的预测。无监督学习就是事先不知道结果的,通过大数据的训练,得出结果。无监督学习一般用于深度学习。根据机器学习的用途可以分为:分类与回归两种类型。常用的分类算法有逻辑回归二分类、决策树、随机森林、朴素贝叶斯算法等;常用的回归算法有Xgboost。

    随机森林:属于集成学习的一大分支,有多棵决策树,对每棵树的结果进行统计,比例最高的决策树作为结果。

    XGboost:由多棵回归树组成,也属于集成学习的分支。

    逻辑回归二分类:处理分类问题,处理速度较快,适合处理较大规模的样本。

    场感知因子分解机:可以自动对特征做组合。

    梯度提升树:是一种基于回归树的集成学习方法,XGBoost就是典型的应用。

    模型融合是集成学习的一种代表,当单模型结果差异较大时,模型融合往往能取得不错的效果。

    2 算法效果评估

    对于一个算法模型,如何有效评估模型的好坏很重要。过拟合或者欠拟合都不好,目标是要做到泛化能力好。

    2.1 混淆矩阵

    最常用的评估方法就是混淆矩阵,如下图

    对角线的数据表示预测值与真实值一致。

    TPR(true positive rate):在所有实际为正类的集合中,正确地预测为了正类的比例。

    FPR(false positive rate):在所有实际为负类的集合中,错误地预测为了正类的比例。

    2.2 AUC-ROC

    auc-roc作为一种分类器评估指标,ROC曲线是以TPR为纵轴,FPR为横轴的曲线,AUC为ROC曲线以下的面积,AUC值越大说明二分类评估器的模型效果越好。假设正样本数为M,负样本数为N,则总对数为M*N,当正样本被评估为正例的概率大于负样本被评估为正例的概率时计为1,所有计为1的和除以总对数(M*N),就是AUC的值[0,1],值越大说明分类算法效果越好。

    参考:https://zhuanlan.zhihu.com/p/58587448

    准确率、召回率等当样本数据不一样时,结果都不稳定,AUC-ROC指标还是比较稳定的。当然没有一个指标可以完美地评估所有模型,不同的应用场景模型评估关注的指标不太一样,按需选取评估指标。

    3 特征工程

    在算法界有句话叫做:“数据和特征决定了算法的上限,而模型和算法只是不断逼近这个上限”。好的特征加简单模型要强于不好的特征加复杂模型。在模型训练之前,从数据样本中提取有效特征是决定算法效果的关键步骤。整体机器学习的过程可以分为如下几步。

    1)问题建模。首先要数据清洗,异常数据会影响学习的准确度。然后确认评估指标,要确保模型指标与线上业务指标一致,比如分类指标(准确度、召回率、精确率、混淆矩阵、AUC-ROC),回归指标(平均绝对误差、平均绝对百分误差),聚类指标,排序指标等。

    2)特征工程。很重要,直接决定了机器学习结果的好坏。

    3)模型选择

    4)机器学习

    5)模型融合

    6)评估预测

    3.1 特征工程一般包括3个步骤

    1)特征选择(减少过拟合),过滤式特征选择,先过滤出特征,再用过滤出的特征进行模型训练;包裹式特征选择;嵌入式特征选择

    2)归一化,将每个特征转化为0~1的数值

    3)分箱算法,将连续特征离散化,会有更好的效果

    3.2 特征提取

    1)专业领域知识提取

    好的特征能够使模型预测更加容易,特征就是使用数据的专业领域知识去创建能够使机器学习算法工作的特征。复杂的模型在一定程度降低了特征工程需要做的工作,因此特征工程与模型是此消彼长的。特征的挖掘一般与专业领域知识强相关,因此特征也是业务逻辑的一种数据层面的表示。

    2)如果没有专业的领域知识,通过探索性的数据分析(EDA)也能发现较好的特征

    3)数值特征,对于光滑函数(线性回归、逻辑回归),对输入比较敏感,可以先对数值特征做归一化。对于非光滑函数可以不做归一化

    4)还有列别特征、时间特征、空间特征等

    3.3 特征选择

    特征选择就是从特征集合中选出一个子集。为了强化模型,降低过拟合,特征选择一般包括:特征生产、评价函数、停止搜索、验证过程。

    1)过滤方法

    单变量过滤法,只考虑单个特征变量与目标变量的关系,按相关度排序,过滤掉不想关的特征变量。

    多变量过滤法,考虑多个变量与目标变量之间的关系

    2)封装方法

    过滤方法与具体的机器学习算法是独立的,封装方法使用具体的机器学习算法评估特征的有效性。首先用一个特征子集训练模型,然后验证该模型的有效性。特征子集搜索算法:完全搜索、启发式搜索、随机搜索。

    不断地选择特征——>使用预先定义好的模型训练——>验证特征——>最终选择出效果最好的特征子集

    3)嵌入法

    潜入法就是过滤法与封装方法的融合。一般入门的采用过滤法就够了,简单便捷,不需要与模型的训练相结合。针对特征选择,目前也有很多开源的工具包可用。


    更多精彩内容,欢迎关注

    知乎:https://www.zhihu.com/people/mei-an-63

    CSDN:https://blog.csdn.net/qq_42672856​

    微信:

     

     

     

    展开全文
  • 机器学习框架

    2018-04-12 15:16:00
    Any Machine Learning Problem,并参考一篇翻译文章【干货】Kaggle热门 | 用一个框架解决所有机器学习难题和一篇整理文章一个框架解决几乎所有机器学习问题并作总结。 整个机器学习过程可以分为如下几步: 处理数据 ...

    为了从实用角度了解机器学习框架,我专门学习Abhishek Thakur发表在Kaggle上的热门文章Approaching (Almost) Any Machine Learning Problem,并参考一篇翻译文章【干货】Kaggle热门 | 用一个框架解决所有机器学习难题和一篇整理文章一个框架解决几乎所有机器学习问题并作总结。

    整个机器学习过程可以分为如下几步:

    1. 处理数据
    2. 识别问题
    3. 分割数据
    4. 数据转化
    5. 特征组合
    6. 特征优化
    7. 特征选取
    8. ML模型选取
    9. 超参数选取
    10. 评估

    1.处理数据

    为了让机器学习模型能使用数据集(Dataset )中的数据,我们需要把数据转化成一个列表(Tabular)的形式。这是最消耗时间,也是最困难的。有一些研究者称,自己有60%--70%的时间都花在了数据清洗、处理(筛选)和转换上。
    数据处理

    2. 识别问题类型(Types of Problem)

    列表中的标签定义了所要解决的问题,例如:

    • 单行,二进制值(分类问题,一个样本只属于一个种类,且种类总数只有2个)
    • 单行,真值(回归问题,预测唯一值)
    • 多行,二进制值(分类问题,一个样本属于一个分类,但是有2个或者多个种类)
    • 多行,真值(回归问题,预测多值)
    • 多个标签(分类问题,一个样本可以属于不同的种类)

    3. 分割数据

    把数据分为两个不同的部分,如下图描述,一部分是训练数据,另一部分是检验数据。这个过程使用Scikit-learn能轻易地做到。
    分割数据

    另一种说话,数据分成训练集(Training Set)[X_train,Y_train]、验证集(Validation set)[X_Valid,Y_Valid]。使用测试集(Test Set)[X_test,Y_test]进行评估。

    对数据集的理解,这里有个非常形象的类比

    训练集 → 题解大全

    验证集 → 模拟考试

    测试集 → 高考!

    回归任务中可使用一个简单的K-Fold分割

    4. 数据转化

    将数据转化成模型需要的形式。

    待处理的数据有3种,分别为数值数据(Numerical Data)、分类数据(Categorical Data)、文本数据(Text Data)。

    数值数据不需要任何的处理;分类数据可以转换为标签(Convert to labels),进一步可以二值化(Binarize);把文本转化数值。

    5.特征组合

    堆叠储存器(Stacker)并不是一个模型stacker,而是一个特征stacker。不同的特征可以被结合起来,用到Stacker模块中。

    可以使用numpyhstack或者sparse hstack把所有的特征水平堆叠起来,这取决你拥有的是稀疏或者紧密特征。

    可以通过FeatureUnion模块来实现,防止要求其他的处理步骤,比如 pca 或者特征选择。

    在这一阶段,你唯一可用的模型应该是基于集成树(ensemble tree)的。这些模型包括:

    • RandomForestClassifier
    • RandomForestRegressor
    • ExtraTreesClassifier
    • ExtraTreesRegressor
    • XGBClassifier
    • XGBRegressor

    由于还没有被标准化,我们在上面的特征中不能使用线性模型。要使用线性模型,你可以从scikit-learn上使用Normalizer或StandardScaler。这些规范化的方法只有在紧密特征中才起作用,在稀疏特征中不会有好的效果。

    6.特征优化

    这一步是为了进一步优化特征,可以用以下算法:

    • 主成分分析(Principal Component Analysis,PCA) 是一种分析、简化数据集的技术。用于减少数据集的维数,同时保持数据集中的对方差贡献最大的特征。
    • 线性判别式分析(Linear Discriminant Analysis, LDA)利用投影矩阵将高维样本投影到低维空间中来减小样本点的维数,且投影过程中使用了类别信息,被视为一种经典的降维技术。
    • 二次判别分析(quadratic discriminant analysis,QDA)
    • 奇异值分解(Singular Value Decomposition,SVD)是线性代数中一种重要的矩阵分解,它总能找到标准化正交基后方差最大的维度,因此用它进行降维去噪。

    特征选取

    特征的选择,有多种方式可以实现。

    最常见的是贪婪特征的选择(正向或反向)。在贪婪特征的选择上,我们选择一个特征,训练一个模型并用一个修正的评估值来评估模型的性能。我们不断增加或者移除一个又一个特征,并逐步记录模型的表现。随后,我们选出得分最高的特征。必须说明的是,这种方法并不是完美的,需要根据要求改变或修正。

    记得保持较少数量的Estimator,并对超参数进行最小优化,这样你就不会过度拟合。

    特征的选择也可以通过Gradient Boosting Machines来实现。如果我们使用xgboost而不是在 scikit-learn中使用GBM时,效果会很好。因为xgboost速度更快、可扩展性更高。

    我们也可以使用RandomForestClassifier 、RandomForestRegressor 和xgboost,在稀疏数据集中进行特征选择。

    另一个较为流行的方法是基于chi-2的特征选择。

    其他更快的特征选择方法包括:从一个模型中选择最佳的特征。我们可以观察一个逻辑模型的稀疏,或者训练一个随机森林,来选择最佳的特征,然后在其他的机器学习模型上使用。

    7. ML模型选取(ML Model Selection)

    主要使用以下算法:

    分类:

    • Random Forest
    • GBM
    • Logistic Regression
    • Naive Bayes
    • Support Vector Machines
    • k-Nearest Neighbors

    回归:

    • Random Forest
    • GBM
    • Linear Regression
    • Ridge
    • Lasso
    • SVR

    8. 超参数选取(Hyper parameter selector)

    参考如下表格
    参数选取
    RS*指不能确定合适的值

    9. 评估

    对于任何机器学习难题,我们必须知道要怎样评估自己的研究结果,或者说,评估的价值和对象是什么。

    640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=1

    为了防止二进制分类中的负偏(skewed)的问题,我们通常会选择在运行特征曲线(ROC AUC 或者简单的 AUC)的接收器(receiver)下方区域进行评估。

    在多标签和多类型分类难题中,我们通常选择分类交互熵,或者多类型的 log loss ,以及在回归问题中降低平方误差。

    内容回顾

    640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=1

    机器学习相关资料

    python库管理软件:Anaconda
    数据处理:Pandas
    各种机器学习模型:Scikit-learn
    最好梯度提升库:xgboots
    神经网络:keras
    绘图:matplotlib
    监控进度:tqdm

    转载于:https://www.cnblogs.com/liupeng-Wang/p/8807926.html

    展开全文
  • 本文继续整理各个平台上最热门机器学习问题及参考解答,如有问题欢迎补充~ 1. 激活函数ReLU相比Sigmoid的优势有哪些? (1)Relu计算量小; (2)Relu没有饱和区和梯度消失; (3)用Relu去估计非线型函数时...

    本文继续整理各个平台上最热门的机器学习问题及参考解答,如有问题欢迎补充~
    1. 激活函数ReLU相比Sigmoid的优势有哪些?
    (1)Relu计算量小;
    (2)Relu没有饱和区和梯度消失;
    (3)用Relu去估计非线型函数时收敛更快。AlexNet论文里说大概比sigmoid快6倍。
    最后,Relu有个缺点是输出为0后,梯度没法反向传递,这个Relu就死掉了。。
    2. dropout rate一般设置多大?
    主要还是根据自己的需要,这个也是hyper parameter,可以根据结果好坏来调整。

    一般在输入层dropout的比较少,dropout rate是0.1甚至0。
    在中间可以稍微大一点,比如0.5。dropout的一个目的是在每批训练时,通过dropout产生不同的网络结构。当dropout在0.5的时候,网络结构会更大的变化,所以0.5是非常常用的。
    3. 前馈神经网络如何选择隐藏层的数量?
    一般都是通过cross validation试出来的,没有什么绝对正确的准则。
    不过有些是大家(包括Jeff Heaton)普遍的经验心得,值得参考下。
    隐藏层数
    一般是一层,因为大部分情况下都够用了。理论上说,一个有两个隐藏层的前馈神经网络可以表示任意的非线性决策边界。所以,可以说1到2个隐藏层。
    隐藏层中的节点数
    假设输入层的节点数是Nx,输出层的节点数Ny,那么每个隐藏层中的节点数Nh一般在Nx和Ny之间, 具体怎么选,还需要针对具体问题进行分析然后做交叉验证。
    4. 逻辑回归的前提假设是什么?
    Logistic Regression的前提要求相对比较少。
    相对于线性回归的线性、独立性、正态性、等方差性 ,这里我们只需要线性和独立性。
    独立性:error必须是独立的
    线性:自变量和logit函数是线性关系。
    5. 如何对大型线性回归进行并行计算?
    (1)如果是用投影矩阵来求线性回归,那么这个问题就等同于如何对矩阵进行并行计算;
    (2)如果是用数值方法来求线性回归,可以考虑mini-batch,比如batch-size是40,你有4个cpu,那么就是每个cpu计算10个点,然后合在一起;
    (3)如果考虑分布式计算(也就是把数据切成好N块),可以每个机器或者cpu分配到N分之一的数据,分别进行计算,最后对N组回归系数取平均值。这个方法在大数据公司很常用,比如Linkin,google。
    6. 机器学习算法的鲁棒性是什么意思?
    机器学习算法鲁棒性并没有严格的量化的定义。鲁棒性,robustness,顾名思义,就是健壮的意思。机器学习模型的健壮也是类似的意思。主要是两个方面。
    (1)数据中的错误点、或者误差。训练集中常常有些数据是有错位的,类似的,预测样本中也有可能有一些错误。一个具有鲁棒性的机器学习模型能够不被这些训练集中的错误数据影响,依然能绕过浮云看本质。
    (2)训练样本和预测样本的分布不大相同,一个具有鲁棒性的模型就是即使当测试集的数据分布与训练集数据分布比较不同的时候,模型也能给出较好的预测结果。
    7. 怎么对时间序列进行交叉验证?
    不能用普通的交叉验证,这样会有数据泄漏。
    有个方案是保证时间顺序,永远用后面的数据作为测试集。
    比如说数据是从1月份到12月。
    那么你可以:
    1到6月训练,在7月上验证
    2到7月训练,在8月上验证
    3到8月训练,在9月上验证
    4到9月训练,在10月上验证
    5到10月训练,在11月上验证
    6到11月训练,在12月上验证

    这样的缺点是,1到6月的数据从来不会被用作验证集,所以根据交叉验证的结果,是有些偏差性的。
    如果各位有其他的好方法,欢迎指正~
    8. 余弦相似和内积的意义有什么不同?
    它们表达的意思不一样,不能简单的一概而论。
    余弦距离只考虑了角度差,内积综合考虑了角度差和长度差。
    比如有两个对象A和B,它们的向量表示为A(1,1,0)和B(0,1,1),余弦相似不考虑向量的长度,所以A(1,1,0)和C(0,3,3)的相似程度和A与B的相同。
    如果如果向量的长度本身对相似有真实的影响(在理解含义的情况下),推荐使用内积。比如对商品的几个属性打分,1表示不确定,依次到,5表示很确定,那么A(1,1,1),B(4,4,4),C(5,5,5)三个商品,根据内积,B与C更相似。但是余弦相似在这里就无法区分A,B,C的相似性。

    展开全文
  • 运筹学vs机器学习

    2020-05-14 19:48:08
    在西方一些国家,运筹学是非常热门的一个领域,很多公司都会保留大量的运筹学专家。...机器学习研究的问题是如何从历史的经验数据,通过数据建模的方式生成经验模型。 从业务角度来看,运筹学和机器学习有很大的交.
  • 机器学习方法在生产、生活和科研中有着广泛应用,而集成学习则是机器学习热门方向之一。 集成学习是使用一系列学习器进行学习,以某种规则把各个学习结果进行整合,从而获得比基学习器有更好学习效果的集成学习器...
  • 全部笔记的汇总贴:《百面机器学习》-读书笔记汇总 这一章较之前的十三章略微有些区别,这一章直接将知识点进行罗列出来,而不再是以问题的方式来导出,可能也是应为这一章的内容比较浅显易懂吧。 一、计算广告 广告...
  • 什么是机器学习

    2019-06-15 09:40:06
    如今机器学习可谓大红大紫的热门领域,那么什么是机器学习呢? 为了满足好奇心,我特意在618活动期间购买了bobo老师的机器学习课程。 所以以下内容,都是我整理的学习笔记哟~ 所谓“机器学习”,就是让机器去学习。 ...
  • 即通过计算机将一种语言的文本翻译成另一种语言,以解决语言屏障的问题的一种方法。 机器翻译技术的发展 机器翻译的研究经历了以下三个阶段的发展。 基于规则的方法 出现在机器翻译早期研究,主要是根据语言专家...
  • 机器学习学习课程感悟

    千次阅读 2016-04-25 22:05:12
     最近几周花了点时间学习了下今年暑假龙星计划的机器学习课程,具体的课程资料参考见附录。本课程选讲了写ML中的基本模型,同时还介绍了最近几年比较热门,比较新的算法,另外也将ML理论和实际问题结合了起来,比如...
  • 人工智能在与人类生活息息相关的场景中自主决策时,正逐渐面临法律或伦理的问题或风险.可信机器学习是建立安全人工智能系统的核心技术,是人工智能领域的热门研究方向,而公平性是可信机器学习的重要考量.
  • 机器学习与组合优化

    2021-01-13 11:22:19
    这是我最近阅读的一篇文章,感觉写得非常好,主要是以旅行商问题为代表,介绍机器学习方法在这种组合优化问题上的应用,读完此文,对于组合优化,机器学习跨领域交叉等方面都有了深度的认识。但是由于CSDN转载的时候...
  • 机器学习笔记

    2015-03-14 20:48:48
     最近几周花了点时间学习了下今年暑假龙星计划的机器学习课程,具体的课程资料参考见附录。本课程选讲了写ML中的基本模型,同时还介绍了最近几年比较热门,比较新的算法,另外也将ML理论和实际问题结合了起来,比如...
  • 机器学习和深度学习一直是业界的热门话题。品牌领先于功能,导致深度学习在许多人工智能应用中被过度使用。 这篇文章将提供对约束求解的快速理解,这是一个强大但未被充分利用的方法,可以解决人工智能和其他计算机...
  • 机器学习方向

    2014-04-27 21:34:31
    我无意否认以上文献的价值,但是在机器学习、计算机视觉和人工智能领域,顶级会议才是王道。国内教材和CNKI上的基本是N年前老掉牙的东西。有人会质疑这些会议都只是EI。是的,这的确非常特殊:在许多其它领域,
  • 编译 | AI 科技大本营参与 | 林椿眄校对 | Leo机器学习 (ML) 和人工智能 (AI) 是当今社会的热门话题。所以,最近有很多产品经理及那些有意向转向产品经理职位的人向我询问,如何才能成为更好的 ML 产品经理。...
  • 1 引言 我写的博客很多都是想在一些容易被劝退的地方分享一些体悟。...若你想上网查阅,却发现鱼龙混杂(最近随着机器学习热门情况有所好转)。我认为主要原因是:矩阵求导还没有一个统一的定义。WIKI有...
  • 目录人工智能与机器学习机器学习的种类监督学习与无监督学习分类问题与回归问题机器学习能做什么 人工智能与机器学习 机器学习与最近很热的人工智能基本上属于同一个范畴,人工智能是机器学习的一个高大上的名字,而...
  • 目前机器学习的一个比较热门的方向是统计机器学习(另外一个可能是图模型,按照Jordan的说法是统计机器学习属于频率主义,而图模型属于贝叶斯主义),对于每一个做统计机器学习的研究者来说,他们大致可以分为两类:...
  • 历史回顾 人类一直试图让机器具有智能,即...从连接主义的感知机、神经网络,到统计学习的支持向量机,再到近日热门的深度学习······机器学习领域不断发展、日新月异,其中有大量方法有待我们学习、发掘。在这个
  • 机器学习也可能会出现严重的问题,以至于可能会让你后悔当初如此匆忙地采用它。   机器学习是当下的热门技术之一,许多业务和技术高管都在争相了解他们的组织可以如何参与其中。如果操作得当,机器学习可...
  • 深度学习是机器学习的一个热门分支,它使用大量的数据里解决与人类感知相关的问题,例如图像识别,语音识别、理解自然语言等。许多公司都将深度学习作为研究的一部分,例如Facebook、Google、Microsoft和百度等。上...
  • AutoWSL2019作为11月17-19日亚洲机器学习大会(ACML)主会议竞赛单元之一,由第四范式、ChaLearn、RIKEN和微软联合举办,其中竞赛分享和颁奖将与大会WSL-Workshop共同举办。据悉,AutoWSL是继AutoCV、AutoCV2、...
  • 机器学习研究方向

    千次阅读 2016-06-14 11:05:00
    我无意否认以上文献的价值,但是在机器学习、计算机视觉和人工智能领域,顶级会议才是王道。国内教材和CNKI上的基本是N年前老掉牙的东西。有人会质疑这些会议都只是EI。是的,这的确非常特殊:在许多其它领域,
  • 机器学习成为计算机科学最热门的领域之一。每个大公司要么已经应用机器学习要么考虑尽快这么做,以解决他们的问题和理解他们的数据集。这意味着是时候学习机器学习了,特别是如果你正在寻找新的计算机科学挑战。一个...
  • AutoWSL2019 作为 11 月 17-19 日亚洲机器学习大会(ACML)主会议竞赛单元之一,由第四范式、ChaLearn、RIKEN 和微软联合举办,其中竞赛分...
  • 本课程选讲了写ML中的基本模型,同时还介绍了最近几年比较热门,比较新的算法,另外也将ML理论和实际问题结合了起来,比如将其应用在视觉上,web上的等。总之,虽然课程内容讲得不是特别细(毕竟只有那么几节课),...
  • 集成学习是目前机器学习的一大热门方向。简单来说,集成学习就是组合许多弱模型以得到一个预测结果比较好的强模型。对于常见的分类问题就是指采用多个分类器对数据集进行预测,把这些分类器的分类结果进行某种组合...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 413
精华内容 165
关键字:

机器学习热门问题