精华内容
下载资源
问答
  • 宝藏机器学习资料分享(超高质量pdf直接下载) 个人珍藏资料分享、入门机器学习的宝藏 整理不易,有帮助到的话请点赞支持哦~ 机器学习 《Python神经网络编程》 《机器学习》(西瓜书) 《机器学习》(西瓜书)手推笔记...

    宝藏机器学习资料分享(超高质量pdf直接下载)

    个人珍藏资料分享、入门机器学习的宝藏(点击超链接可直接下载哦)

    整理不易,有帮助到的话请点赞支持哦~

    机器学习

    《Python神经网络编程》

    神经网络是一种模拟人脑的神经网络,以期能够实现类人工智能的机器学习 技术。

    本书揭示神经网络背后的概念,并介绍如何通过Python实现神经网络。全书 分为3章和两个附录。第1章介绍了神经网络中所用到的数学思想。第2章介绍使 用Python实现神经网络,识别手写数字,并测试神经网络的性能。第3章带领读 者进一步了解简单的神经网络,观察已受训练的神经网络内部,尝试进一步改善 神经网络的性能,并加深对相关知识的理解。附录分别介绍了所需的微积分知识 和树莓派知识。

    本书适合想要从事神经网络研究和探索的读者学习参考, 也适合对人工智 能、机器学习和深度学习等相关领域感兴趣的读者阅读。

    《机器学习》(西瓜书)

    为什么这本 《机器学习》, 封面会有很多西瓜? 为什么要叫他西瓜书? 就因为封面是西瓜?
    因为所有的这些个基本术语的理解和后续一些问题的解释以及比喻, 周大大都是用西瓜来做比喻商! ! ! 通俗易懂! 恰到好处! 很有可能, 它会成为一本中国无数 Machine Learning热爱者的启蒙教材。

    周老师似乎在力求用轻松、简要而又能帮你将思维一层一层捋清楚, 从而搭建出关于这门学科的思维大楼的方式在写整本书。既适合于入门读者, 也适合于已有这门学科背 景但又想再一次如沐春风的进阶读者。

    之所以说它为启蒙教材, 是因为它非常合适没有任何背景的初学者看。每一个概念, 甚至每一个概念的来龙去脉都讲的非常清楚。

    《机器学习》(西瓜书)手推笔记完结16章全214页

    这个公式看起来很熟,却怎么也搞不懂怎么办?周志华《机器学习》西瓜书 手推笔记带你上路。

    《南瓜书》

    “周志华老师的《机器学习》(西瓜书)是机器学习领域的经典入门教材之一,周老师为了使尽可能多的读 者通过西瓜书对机器学习有所了解, 所以在书中对部分公式的推导细节没有详述,但是这对那些想深究公式推 导细节的读者来说可能“不太友好”,本书旨在对西瓜书里比较难理解的公式加以解析,以及对部分公式补充 具体的推导细节。”

    读到这里,大家可能会疑问为啥前面这段话加了引号,因为这只是我们最初的遐想,后来我们了解到,周 老师之所以省去这些推导细节的真实原因是,他本尊认为“理工科数学基础扎实点的大二下学生应该对西瓜书 中的推导细节无困难吧,要点在书里都有了,略去的细节应能脑补或做练习”。所以… 本南瓜书只能算是我 等数学渣渣在自学的时候记下来的笔记,希望能够帮助大家都成为一名合格的“理工科数学基础扎实点的大二下学生”。

    南瓜书的所有内容都是以西瓜书的内容为前置知识进行表述的,所以南瓜书的最佳使用方法是以西瓜书 为主线,遇到自己推导不出来或者看不懂的公式时再来查阅南瓜书;

    《百面机器学习算法工程师带你去面试》

    人工智能领域正在以超乎人们想象的速度发展,本书赶在人工智能彻底“占 领”世界之前完成编写,实属万幸。

    书中收录了超过100道机器学习算法工程师的面试题目和解答,其中大部分源 于Hulu算法研究岗位的真实场景。本书从日常工作、生活中各种有趣的现象出 发,不仅囊括了机器学习的基本知识,而且还包含了成为优秀算法工程师的相关 技能,更重要的是凝聚了笔者对人工智能领域的一颗热忱之心,旨在培养读者发 现问题、解决问题、扩展问题的能力,建立对机器学习的热爱,共绘人工智能世 界的宏伟蓝图。

    “不积跬步,无以至千里”,本书将从特征工程、模型评估、降维等经典机器 学习领域出发,构建一个算法工程师必备的知识体系;见神经网络、强化学习、 生成对抗网络等最新科研进展之微,知机器学习领域胜败兴衰之著;“博观而约 取,厚积而薄发”,在最后一章为读者展示生活中各种引领时代的人工智能应用。

    《吴恩达机器学习视频》个人笔记完整版.pdf

    Machine Learning(机器学习)是研究计算机怎样模拟或实现人类的学习行为,以获取新的

    知识或技能,重新组织已有的知识结构使之不断改善自身的性能。它是人工智能的核心,是 使计算机具有智能的根本途径,其应用遍及人工智能的各个领域,它主要使用归纳、综合而 不是演绎。在过去的十年中,机器学习帮助我们自动驾驶汽车,有效的语音识别,有效的网 络搜索,并极大地提高了人类基因组的认识。机器学习是当今非常普遍,你可能会使用这一 天几十倍而不自知。很多研究者也认为这是最好的人工智能的取得方式。在本课中,您将学 习最有效的机器学习技术,并获得实践,让它们为自己的工作。更重要的是,你会不仅得到 理论基础的学习,而且获得那些需要快速和强大的应用技术解决问题的实用技术。最后,你 会学到一些硅谷利用机器学习和人工智能的最佳实践创新。

    本课程提供了一个广泛的介绍机器学习、数据挖掘、统计模式识别的课程。主题包括:

    (一)监督学习(参数/非参数算法,支持向量机,核函数,神经网络)。

    (二)无监督学习(聚类,降维,推荐系统,深入学习推荐)。

    (三)在机器学习的最佳实践(偏差/方差理论;在机器学习和人工智能创新过程)。 本课程还将使用大量的案例研究,您还将学习如何运用学习算法构建智能机器人(感知,控 制),文本的理解(Web 搜索,反垃圾邮件),计算机视觉,医疗信息,音频,数据挖掘, 和其他领域。

    本课程需要 10 周共 18 节课,相对以前的机器学习视频,这个视频更加清晰,而且每课 都有 ppt 课件,推荐学习。

    我和我的团队翻译了部分视频,目前已经翻译完毕,内嵌中英文字幕,推荐使用 potplayer。 此外,我无偿把字幕贡献给了网易云课堂,他们开了免费课:吴恩达机器学习。

    这篇中文笔记,主要是根据视频内容和中文字幕以及 ppt 来制作,部分来源于网络,如 “小小人_V”的笔记,并持续更新。

    本人水平有限,如有公式、算法错误,请及时指出,发邮件给我,也可以加我 qq。

    今日发现这个笔记被下载超过 10 万次,应该说这个笔记有点用,我发现以前一些翻译 小错误,进行了修改,以免误导初学者。

    黄海广

    《神经网络与深度学习》邱锡鹏

    本书的写作目的是使得读者能够掌握神经网络与深度学习技术的基本原理,知其然还要知其所以然.全书共 15 章.第1章是绪论,概要介绍人工智能、 机器学习和深度学习,使读者全面了解相关知识.第2、3章介绍机器学习的基础 知识.第4~6章分别讲述三种主要的神经网络模型:前馈神经网络、卷积神经网络 和循环神经网络.第7章介绍神经网络的优化与正则化方法.第8章介绍神经网络 中的注意力机制和外部记忆.第9章简要介绍一些无监督学习方法.第10章介绍 一些模型独立的机器学习方法:集成学习、自训练和协同训练、多任务学习、迁移 学习、终身学习、元学习等,这些都是目前深度学习的难点和热点问题.第11章介 绍概率图模型的基本概念,为后面的章节进行铺垫.第12章介绍两种早期的深度 学习模型:玻尔兹曼机和深度信念网络.第13章介绍最近两年发展十分迅速的深 度生成模型:变分自编码器和生成对抗网络.第14章介绍深度强化学习的知识.第15章介绍应用十分广泛的序列生成模型.书后还提供了相关数学分支的简要介绍,以供读者需要时参考.

    《神经网络与深度学习-3小时》邱锡鹏

    邱锡鹏教授的《神经网络与深度学习》一书较全面地介绍了神经网络、机器学习和深度学习的基本概念、模型和方法,同时也涉及深度学习中许多最新进展.此文档为对应的演示文稿.

    偏微分方程

    《非线性发展方程的有限差分法》

    《(2010)Numerical Methods in MATLAB》

    《Spectral and High-Order Methods with Applications》

    《Spectral Methods Algorithms, Analysis and Applications》

    本科教材

    《数学分析》[华东师大第四版]上册

    《数学分析》[华东师大第四版]下册

    《数学分析题解精粹》(钱吉林)

    《数学分析答案》

    《高等代数》北大第四版

    《初等数论》-闵嗣鹤-高等教育出版社

    展开全文
  • Quantum Graph Neural Networkshttps://arxiv.org/pdf/1909.12264.pdf 不得不说,这个领域发展很快,一些能够想到的思路都已经被占住了

    Quantum Graph Neural Networks https://arxiv.org/pdf/1909.12264.pdf

    不得不说,这个领域发展很快,一些能够想到的思路都已经被占住了 

    展开全文
  • 点上方人工智能算法与Python大数据获取更多干货在右上方···设为星标★,第一时间获取资源仅做学术分享,如有侵权,联系删除转载于 :量子位斯坦福2019秋季课程CS224W:图机器...

    点上方人工智能算法与Python大数据获取更多干货

    在右上方 ··· 设为星标 ★,第一时间获取资源

    仅做学术分享,如有侵权,联系删除

    转载于 :量子位

    斯坦福2019秋季课程CS224W:图机器学习一共19节课,PPT,讲义和阅读资料已经全部公开!

    等不及的小伙伴可以到最底端“传送门”快梯直达,开始学习吧~

    课程简介

    课程内容

    网络经常作为工具,来对复杂的社会,技术和生物系统进行建模。这门课程结合线上社交网络的生物科学中的大规模数据,来分析大型网络。这些大型网络提出了一些关于计算、算法和建模方面的挑战。

    在课程中,可以学习到这些大型网络的底层网络结构和互连,了解机器学习技术和数据挖掘工具。这些技术和工具能够增进对社会,技术和自然世界的理解。

    课程主题有:万维网的算法;图神经网络和表示学习;识别生物网络中的功能模块;疫情检测;食物网络和金融市场的稳健性和脆弱性。

    大纲目录

    1. 课程介绍;图(Graphs)的结构

    2. 网络的性质和随机图模型
      复习课:Snap.py和Google Cloud教程

    3. 网络中的主题和结构角色

    4. 网络中的社区结构
      复习课:线性代数,概率论和证明技术

    5. 谱聚类

    6. 消息传递和节点分类

    7. 图表示学习

    8. 图神经网络

    9. 图神经网络:动手练习

    10. 图的深度生成模型

    11. 链接分析:PageRank

    12. 网络效应和级联行为

    13. 概率传染和影响力模型

    14. 网络中的影响力最大化

    15. 网络中的疫情检测

    16. 网络演化

    17. 知识图推理

    18. 图神经网络的局限性

    19. 图神经网络的应用

    《网络、人群和市场:关于高度联通世界的思考》

    近年来,公众对现代社会复杂的“联系”越来越着迷。这种联系体现在许多方面:互联网快速发展,全球交流的便捷程度,新闻和信息的能量,流行病和金融危机的传播。

    这本书借鉴了经济学,社会学,计算机和信息科学以及应用数学的思想,描述了新兴的研究领域。

    这些领域正在所有原有领域的交界处发展,并解决了有关社会,经济和技术世界如何连接的基本问题。

    这是一本网络科学的教科书,内容从可视化和交互工具到模拟和数据分析。印刷版于2015年由剑桥大学出版社出版。

    传送门

    课程主页可以下载PPT和每堂课的讲义
    http://web.stanford.edu/class/cs224w/
    《网络、人群和市场》
    http://www.cs.cornell.edu/home/kleinber/networks-book/
    《网络科学》
    http://networksciencebook.com/

    ---------♥---------

    声明:本内容来源网络,版权属于原作者

    图片来源网络,不代表本公众号立场。如有侵权,联系删除

    AI博士私人微信,还有少量空位

    如何画出漂亮的深度学习模型图?

    如何画出漂亮的神经网络图?

    一文读懂深度学习中的各种卷积

    点个在看支持一下吧

    展开全文
  • 比如sklearn, pandas (使用sklearn 来做特征工程 , pandas 用于数据的清洗和数据的处理)这些数据处理库,因此回去回炉重造,学习机器学习先。 学习的视频是黑马程序员的机器学习视频。 视频和资料链接 提取码:...

    机器学习第一天

    基础不牢,地动山摇。直接上手tf,连很多机器学习的基础包都不会使用。比如sklearn, pandas (使用sklearn 来做特征工程 , pandas 用于数据的清洗和数据的处理)这些数据处理库,因此回去回炉重造,学习机器学习先。 学习的视频是黑马程序员的机器学习视频。

    视频和资料链接 提取码:1234

    本篇文章内容:

    开发流程

    • 1)获取数据

    • 2)数据处理

    • 3)特征工程

    • 4)机器学习算法训练 - 模型

    • 5)模型评估

    • 6)应用

    第一天内容主要讲了前3项内容。使用sklearn完成一系列数据处理的工作。

    1.数据集的介绍

    sklearn 包中包含了很多数据集。比如波士顿的房价信息,鸢尾花数据集等等。小数据集,下载sklearn的时候也顺带下载了,如果是大数据集还需要另外去下载。

    1.sklearn.datasets

    • load* 获取小规模数据集 已经保存到了本地

    • fetch_* 获取大规模数据集 还需要从网上下载这个数据集

    数据集是以字典的方式返回的,所以调用数据的时候可以有两种调用方式。 1)dict["key"] = values

    2)dict.key = values

    学习任何一个深度学习视频都知道,有了数据,需要将数据分成训练集和测试集。 sklearn中使用train_split将数据集分开: sklearn.model_selection.train_split(array, *options)

    x:数据集的特征值

    y:数据集的标签值

    test_size 测试集的大小,一般为float

    random_state 随机数种子

    return 训练集特征值(x_train),测试纸的特征值(x_test),训练集的目标值(y_train),测试集的目标值(y_test)

    def datasets_demo():
        """
        sklearn数据集使用
        :return:
        """

        # 获取数据集
        iris = load_iris()
        print("鸢尾花数据集:\n", iris)
        print("查看数据集描述:\n", iris["DESCR"])
        print("查看特征值的名字:\n", iris.feature_names)
        print("查看特征值:\n", iris.data, iris.data.shape)

        # 数据集划分
        x_train, x_test, y_train, y_test = train_test_split(iris.data, iris.target, test_size=0.2, random_state=22)
        print("训练集的特征值:\n", x_train, x_train.shape)

        return None

    输出结果:iris数据集内容,DESCR描述,feature,data.shape

    字典特征抽取

    提取特征的步骤:

    • 1.实例化sklearn功能函数
    • 2.调用fit_transform(数据的根据实例化函数的功能,对数据进行响应的处理。)
    • 3.print
    def dict_demo():
       """
       字典特征抽取
       :return:
       """

       data = [{'city''北京','temperature':100}, {'city''上海','temperature':60}, {'city''深圳','temperature':30}]
       # 1、实例化一个转换器类
       transfer = DictVectorizer(sparse=False)

       # 2、调用fit_transform()
       data_new = transfer.fit_transform(data)
       print("data_new:\n", data_new(), type(data_new))
       print("特征名字:\n", transfer.get_feature_names())

       return None

    输出

    data_new:
     [[  0.   1.   0. 100.]
     [  1.   0.   0.  60.]
     [  0.   0.   1.  30.]] <class 'scipy.sparse.csr.csr_matrix'>
    特征名字:
     ['city=上海', 'city=北京', 'city=深圳', 'temperature']

    这种方式的输出有很多0(即冗余),因此我们通常使用sparse参数,只输出有数值部分的坐标。

        transfer = DictVectorizer(sparse=True)

    输出

    data_new:
       (011.0
      (03100.0
      (101.0
      (1360.0
      (221.0
      (2330.0 <class 'scipy.sparse.csr.csr_matrix'>
    特征名字:
     ['city=上海', 'city=北京', 'city=深圳', 'temperature']

    文本特征提取

    1.根据词频

    英文文本特征提取

    使用sklearn.feature_extraction.text的CountVectorizer。 调用方式同上:


    def count_demo():
        """
        文本特征抽取:CountVecotrizer
        :return:
        """

        data = ["life is short,i like like python""life is too long,i dislike python"]
        # 1、实例化一个转换器类
        transfer = CountVectorizer(stop_words=["is""too"])

        # 2、调用fit_transform
        data_new = transfer.fit_transform(data)
        print("data_new:\n", data_new.toarray())
        print("特征名字:\n", transfer.get_feature_names())

        return None

    CountVectorizer(stop_words=["is", "too"])通过stop_words 可以去除统计一些word的词频。

    输出

    data_new:
     [[0 1 2 0 1 1]
     [1 1 0 1 1 0]]
    特征名字:
     ['dislike''life''like''long''python''short']

    中文本文特征提取

    这个是通过空格来区分单词,对于中文而言,单词间就没有空格,因此需要多一步操作。这里调用一个能够分词的库: jieba

    import jieba

    def cut_word(text):
        """
        进行中文分词:"我爱北京天安门" --> "我 爱 北京 天安门"
        """

        return " ".join(list(jieba.cut(text)))
        #join函数,就是将text中文本加入空格。

    #中文特征提取代码
    def count_chinese_demo2():
        """
        中文文本特征抽取,自动分词
        :return:
        """

        # 将中文文本进行分词
        data = ["一种还是一种今天很残酷,明天更残酷,后天很美好,但绝对大部分是死在明天晚上,所以每个人不要放弃今天。",
                "我们看到的从很远星系来的光是在几百万年之前发出的,这样当我们看到宇宙时,我们是在看它的过去。",
                "如果只用一种方式了解某样事物,你就不会真正了解它。了解事物真正含义的秘密取决于如何将其与我们所了解的事物相联系。"]

        data_new = []
        for sent in data:
            data_new.append(cut_word(sent))
        # print(data_new)
        # 1、实例化一个转换器类
        transfer = CountVectorizer(stop_words=["一种""所以"])

        # 2、调用fit_transform
        data_final = transfer.fit_transform(data_new)
        print("data_new:\n", data_final.toarray())
        print("特征名字:\n", transfer.get_feature_names())

        return None

    2.根据词的重要性

    如何判断一篇文章在说什么? 没错,就是关键词! 在谷歌之前的搜索,都是通过一篇文章中,词的出现频率来对结果进行搜索排序。谷歌搜索的创新就是在于将引用最多的文章放到最前面。所以并不是说一个单词出现的频率越高这个单词就越重要。应该是这篇文章有,而其他文章没有的单词,这个才更有辨识度

    在sklearn库中,TfidfVectorzer负责这个功能(这个函数比前面根据词频的函数用的更多)

    def tfidf_demo():
        """
        用TF-IDF的方法进行文本特征抽取
        :return:
        """

        # 将中文文本进行分词
        data = ["一种还是一种今天很残酷,明天更残酷,后天很美好,但绝对大部分是死在明天晚上,所以每个人不要放弃今天。",
                "我们看到的从很远星系来的光是在几百万年之前发出的,这样当我们看到宇宙时,我们是在看它的过去。",
                "如果只用一种方式了解某样事物,你就不会真正了解它。了解事物真正含义的秘密取决于如何将其与我们所了解的事物相联系。"]

        data_new = []
        for sent in data:
            data_new.append(cut_word(sent))
        # print(data_new)
        # 1、实例化一个转换器类
        transfer = TfidfVectorizer(stop_words=["一种""所以"])

        # 2、调用fit_transform
        data_final = transfer.fit_transform(data_new)
        print("data_new:\n", data_final.toarray())
        print("特征名字:\n", transfer.get_feature_names())

        return None

    特征预处理

    1.归一化

    为了有一个量纲,不要让一些数值小的参数被数值大的参数所掩盖,所以我们使用归一化处理,让大家在同一起跑线。 计算公式: mx,mi是你指定区间的数值大小。

    读入数据使用Pandas的read_csv()函数。 归一化的函数

    def minmax_demo():
        """
        归一化
        :return:
        """

        # 1、获取数据
        data = pd.read_csv("dating.txt")
        data = data.iloc[:, :3#只取数据的前三列数据
        print("data:\n", data)

        # 2、实例化一个转换器类
        transfer = MinMaxScaler(feature_range=[23])

        # 3、调用fit_transform
        data_new = transfer.fit_transform(data)
        print("data_new:\n", data_new)

        return None

    标准化

    归一化的缺点:如果有几个数值异常,那么就会影响整个归一化矩阵。所以引入了标准化

    • 定义:原始数据转换成为均值为0,标准差为1的范围内
    • 对于归一化来说:如果出现异常点,影响了最大值和最小值,那么结果显然会发生改变
    • 对于标准化来说:如果出现异常点,由于具有一定数据量,少量的异常点对于平均值的影响并不大,从而方差改变较小。

    调用sklearn中的StandardScaler()函数

    def stand_demo():
        """
        标准化
        :return:
        """

        # 1、获取数据
        data = pd.read_csv("dating.txt")
        data = data.iloc[:, :3]
        print("data:\n", data)

        # 2、实例化一个转换器类
        transfer = StandardScaler()

        # 3、调用fit_transform
        data_new = transfer.fit_transform(data)
        print("data_new:\n", data_new)
        return None

    特征降维

    降维:顾明思议,就是降低数据的维度(减少不重要的信息,加快处理的速度)

    Filter过滤式:低方差过滤法

    如果两个数据的方差很大,则这个数据有意义。

    特征方差小:某个特征大多样本相近,那么这些数据就是冗余

    特征=方差大:那么这些特征都有意义,需要保留。

    最后如何去表达两遍参数之间的相关程度呢? 这里我们使用相关系数来表示两个变量的相关程度,公式如下 比如我们的x,y如下图所示

    计算结果

    相关系数为+0.9942>0,因此x,y是呈现正相关。

    • r>0 两变量正相关,r<0两变量负相关
    • |r|=1 两变量完全相关,r=0无相关
    • |r|<0.4 低度相关,0.4<|r|<0.7显著性相关, |r|>0.7 高度线性相关。

    计算相关性使用到了scipy库。 numpy,scipy的关系图:

    来自Python numpy,scipy,pandas这些库的区别是什么?

    库的调用方法同上: 1)先实例化一个转换器类 2)调用fit_transform

    from sklearn.feature_selectioarn.decomposition import PCA
    from scipy.stats import pearsonr
    def variance_demo():
        """
        过滤低方差特征
        :return:
        """

        # 1、获取数据
        data = pd.read_csv("factor_returns.csv")
        data = data.iloc[:, 1:-2]
        print("data:\n", data)

        # 2、实例化一个转换器类
        transfer = VarianceThreshold(threshold=10#去除低方差数据

        # 3、调用fit_transform
        data_new = transfer.fit_transform(data)
        print("data_new:\n", data_new, data_new.shape)

        # 计算某两个变量之间的相关系数
        r1 = pearsonr(data["pe_ratio"], data["pb_ratio"])
        print("相关系数:\n", r1)

        r2 = pearsonr(data['revenue'], data['total_expense'])
        print("revenue与total_expense之间的相关性:\n", r2)
        plt.figure(figsize=[208], dpi=100)  # figsize 设定fig的长宽高
        plt.scatter(data['revenue'], data['total_expense'])
        plt.show()
        return None

    PCA降维

    降维中,PCA降维用的比较多,我觉得比较好的PCA讲解视频:中字 主成分分析法(PCA)| 分步步骤解析 看完你就懂了! PCA的原理比较复杂,这个视频我觉得讲的很通俗和清楚。如果只是想学一下如何调用就无需关系。看代码就行。 PCA降维代码

    from sklearn.decomposition import PCA

    def pca_demo():
        """
        PCA降维
        :return:
        """

        data = [[2,8,4,5], [6,3,0,8], [5,4,9,1]]

        # 1、实例化一个转换器类
        #n_components=小数, 表示保留百分之多少的信息
        #整数;减少到多少特征
        transfer = PCA(n_components=0.95)

        # 2、调用fit_transform
        data_new = transfer.fit_transform(data)
        print("data_new:\n", data_new)
        return None

    n_components=小数, 表示保留百分之多少的信息;若为整数;减少到多少特征

    完,以上为Day1的内容。

    展开全文
  • 你好,我是zhenguo今天推荐我的好兄弟:佳哥,最新出的大作:零基础学机器学习!绝对精品,想要掌握机器学习的不要错过!!!有没有办法,快速入门机器学习?其实,在我看来,如今机器学习已经开...
  • ↑↑关注后"星标"Datawhale每日干货&每月组队学习,不错过Datawhale干货作者:王茂霖,华中科技大学,Datawhale成员本文分享了机器学习...
  • 机器学习期末考试

    万次阅读 多人点赞 2021-06-05 00:28:12
    机器学习期末考试 一、机器学习链接 1、机器学习期末复习试卷_zhouyan2000的博客-CSDN博客_机器学习期末考试} 2、[机器学习笔试题]((4条消息) 机器学习笔试题目_北冥有小鱼-CSDN博客_机器学习题目) 3、机器学习面试...
  • 机器学习之回归

    2021-03-15 21:02:40
    机器学习之回归 什么是人工智能(AI) 回归 第一步:构建模型 第二部:功能完善 第三步:选取最好的结果 loss 结果展示 模型调整 过拟合 丝滑的loss 什么是人工智能(AI) 人工智能(AI)长远以来的目标:希望机器...
  • 自动化机器学习(AutoML)可以帮助机器学习管道中的某些关键组件实现自动化。其中机器学习管道包括数据理解、数据工程、特征工程、模型训练、超参数调整、模型监控等。在这篇文章中,我将分享 8...
  • 但很长段时间里面,人们并不知道怎么做到人工智能这件事情,直到后来,大概 1980 年代以后,有了机器学习的方法。那么机器学习顾名思义,就是让机器具有学习的能力。 二、AI与ML、ML与DL的关系 人工智慧是我们想要...
  • 国科大学习资料–模式识别与机器学习(黄庆明)–2020期末考试题 国科大学习资料–模式识别与机器学习(黄庆明)–2020期末考试题 国科大学习资料–模式识别与机器学习(黄庆明)–2020期末考试题 ================...
  • 前言机器学习 作为人工智能领域的核心组成,是计算机程序学习数据经验以优化自身算法,并产生相应的“智能化的”建议与决策的过程。一个经典的机器学习的定义是:A computer program...
  • 点上方计算机视觉联盟获取更多干货仅作学术分享,不代表本公众号立场,侵权联系删除转载于:机器之心AI博士笔记系列推荐周志华《机器学习》手推笔记正式开源!可打印版本附pdf下载链接几年前机器之...
  • 机器学习期末复习

    千次阅读 2020-12-23 19:14:21
    线性回归 1.原理: 线性回归就是能够用一个直线较为精确地描述数据之间的关系,这样当出现新的数据的时候,就能够预测出一个简单的值。... (4)蕴含机器学习中的很多重要思想。  (5)能解决回归问题。
  • 让他们包含或不包含0和1: 不包含0或1 ----- (0, 1) 包含0但不包含1 ----- [0, 1) 不包含0但包含1 ----- (0, 1] 包含0和1 ----- [0, 1] 往期精彩回顾 适合初学者入门人工智能的路线及资料下载机器学习及深度学习笔记...
  • 机器学习实验

    2021-03-14 19:36:23
    学习机器学习 1. 认识并读入数据 作为初学者,还是选择了比较经典的iris数据集,实现一个简单的分类方法。 数据集是从UCI官方找的,官方给的资料很详细,有关数据的特点,缺失值等等,大约是个iris.data文件。处理...
  • 文章目录机器学习的流程以及部分概念简介step1.明确需求,具体要做什么务必要明确step2.首先得获取数据,数据的获取有如下途径:step3.对数据进行基本处理step4.特征工程(很重要)1.简介:2.相关步骤step5.找到合适的...
  • 国科大学习资料–模式识别与机器学习(黄庆明、山世光等)-2019期末考试题
  • 点上方人工智能算法与Python大数据获取更多干货在右上方···设为星标★,第一时间获取资源仅做学术分享,如有侵权,联系删除转载于 :专知摘要:机器学习(ML)中的可解释性对于高风险...
  • 有同学问:最近做毕设要做一个神经网络的课题,想请教一下各位我需不需要把机器学习也都学习一遍?看看过来人怎么回答?有同意也有反对的,都有一定道理。欢迎大家留言讨论。回答一 作者:莫笑傅立叶链...
  • 【导读】:全面介绍机器学习发展的历史,从感知机、神经网络、决策树、SVM、Adaboost到随机森林、Deep Learning。 自科学技术和人工智能最初发展开始,科学家Blaise Pascal和Von Leibniz就思考着如何制造一台像...
  • 作者:牧小熊,华中农业大学,Datawhale成员 知乎 | https://zhuanlan.zhihu.com/p/357361005 之前系统梳理过大数据概念和基础知识(可点击),本文基于PySpark在机器学习实践中的用法,希望对大数据学习的同学起...
  • 国科大学习资料机器学习方法与应用-期末考试题整理 =====================================================================================================================================================...
  • 机器学习:计算机无需专门编程即可从经验中学习。” 最近这十年以来,人工智能和机器学习已经获得了广泛的关注,每个人都希望成为这一变化的一部分。企业希望掌握该技术的优势,而专业人士则对机器学习的强大能力...
  • 公众号:炼丹笔记机器学习导论威斯康辛大学的助理教授Sebastian Raschka的《Introduction to Machine Learning》,包括视频、笔记等。笔记地址:https://github.com/rasbt/stat451-machine-learning-fs2...
  • 1、误认为学习机器学习,要先补齐所有的前期知识 误认为学习机器学习,要先补好全部的数学基础,然后在学习python,最后学习机器学习的算法。 你可能听很多人说过,机器人学习需要很强的数学基础,然后你就疯狂地...
  • 李宏毅老师,是宝岛台湾大学电机工程系教授,他分别于2010年和2012年获得硕士和博士学位,主要研究机器学习尤其是深度学习、语言理解和语音识别。因为课程形象生动,又不缺数学推导的严谨,李宏...
  • 整个机器学习入门框架以及机器学习预测股票市场例子-笔记海纳百川版 平时我们买股票的时候通常是看看他的各种参数指数,通常有各种指数去参考分析。同时各种K线无非也是各种数据的可视化,最后还是回归在数据身上。...
  • 最近逛 GitHub,发现了一个非常不错的 AI 资料,兼顾理论和实战,非常不错!首先放上该资源的 GitHub 地址:https://github.com/ben1234560/AiLe...
  • 作者: Dr.Alessandro Crimi 译者: 苏本如出品:CSDN(ID:CSDNnews)量子计算和机器学习已经成为当今炙手可热的话题。排除一些明显的炒作外,这当中也...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 204,309
精华内容 81,723
关键字:

机器学习资料