精华内容
下载资源
问答
  • 机器学习 第二讲 Scikit-learn

    万次阅读 2021-03-28 20:16:47
    六、Scikit-learn库介绍 > Python语言的机器学习工具 > Scikit-learn包括许多知名的机器学习算法的实现 > Scikit-learn文档完善,容易上手,丰富的API 数据的特征抽取 from sklearn.feature_extraction.text...

    在这里插入图片描述

    一、Scikit-learn库介绍

    在这里插入图片描述

    1.Python语言的机器学习工具

    2.Scikit-learn包括许多知名的机器学习算法的实现

    3.Scikit-learn文档完善,容易上手,丰富的API

    二、安装scikit-learn库:打开cmd命令行窗口

    pip install scikit-learn -i https://pypi.douban.com/simple --trusted-host pypi.douban.com
    在这里插入图片描述

    三、数据的特征抽取

    from sklearn.feature_extraction.text import CountVectorizer
    vector = CountVectorizer()
    res = vector.fit_transform([‘life is short,i like python’,‘life is too long’])
    print(vector.get_feature_names())
    print(res.toarray())

    1.sklearn特征抽取API

    sklearn.feature_extraction

    # 数据的特征抽取
    # 将一个文本转换为一串数字
    from sklearn.feature_extraction.text import CountVectorizer
    
    vector = CountVectorizer()
    res = vector.fit_transform(['life is short,i like python','life is too long'])
    print(vector.get_feature_names())
    # ['is', 'life', 'like', 'long', 'python', 'short', 'too']
    print(res.toarray())
    # [[1 1 1 0 1 1 0]
    #  [1 1 0 1 0 0 1]]
    

    2.字典特征抽取

    作用:对字典数据进行特征值化
    sklearn.feature_extraction.DictVectorizer

    # 字典特征抽取
    from sklearn.feature_extraction import DictVectorizer
    
    
    def dictvec():
        """
        字典数据抽取
        :return: None
        """
    
        dic = DictVectorizer()
    
        data = dic.fit_transform([{'city': '北京', 'temp': 30}, {'city': '上海', 'temp': 20}, {'city': '深圳', 'temp': 40}])
    
        # sparse矩阵
        print(data)
        '''
          (0, 1)	1.0
          (0, 3)	30.0
          (1, 0)	1.0
          (1, 3)	20.0
          (2, 2)	1.0
          (2, 3)	40.0'''
        print(dic.get_feature_names())
        '''['city=上海', 'city=北京', 'city=深圳', 'temp']'''
    
    
    if __name__ == '__main__':
        dictvec()
    
    

    3.文本特征抽取

    作用:对文本数据进行特征值化
    sklearn.feature_extraction.text.CountVectorizer

    from sklearn.feature_extraction.text import CountVectorizer
    
    
    def countvec():
        """
        对文本进行特征值化
        :return: None
        """
        cv = CountVectorizer()
        data = cv.fit_transform(['life is short,i like python', 'life is too long'])
        print(cv.get_feature_names())
        '''
        ['is', 'life', 'like', 'long', 'python', 'short', 'too']'''
        print(data)
        '''
          (0, 1)	1
          (0, 0)	1
          (0, 5)	1
          (0, 2)	1
          (0, 4)	1
          (1, 1)	1
          (1, 0)	1
          (1, 6)	1
          (1, 3)	1'''
        print(data.toarray())
        '''
        [[1 1 1 0 1 1 0]
         [1 1 0 1 0 0 1]]'''
    
    
    if __name__ == '__main__':
        countvec()
    
    

    4.jieba分词

    import jieba
    jieba.cut(“人生苦短,我用Python”)
    words = ’ '.join(data)
    print(words)
    jieba分词的安装:pip install jieba -i https://pypi.douban.com/simple --trusted-host pypi.douban.com
    在这里插入图片描述
    在这里插入图片描述

    5.案例-对三段话进行特征值化

    1、今天很残酷,明天更残酷,后天很美好,但绝对大部分是死在明天晚上,所以每个人不
    要放弃今天。
    2、我们看到的从很远星系来的光是在几百万年之前发出的,这样当我们看到宇宙时,我们
    是在看它的过去。
    3、如果只用一种方式了解某样事物,你就不会真正了解它。了解事物真正含义的秘密取决于如何将其与我们所了解的事物相联系。

    TF:term frequency 词的频率
    IDF:Inverse document frequency 逆文档频率
    Log:总文档数量/该词出现的文档数
    TF*IDF:重要性程度
    TF-IDF
    TF-IDF的主要思想是:如果某个词或短语在一篇文章中出现的概率高,并且在其他文章中很少出现,则认为此词或者短语具有很好的类别区分能力,适合用来分类。
    TF-IDF作用:用以评估一字词对于一个文件集或一个语料库中的其中一份文件的重要程度。

    import jieba
    from sklearn.feature_extraction.text import CountVectorizer, TfidfVectorizer
    
    '''
    1、今天很残酷,明天更残酷,后天很美好,但绝对大部分是死在明天晚上,所以每个人不要放弃今天。
    2、我们看到的从很远星系来的光是在几百万年之前发出的,这样当我们看到宇宙时,我们是在看它的过去。
    3、如果只用一种方式了解某样事物,你就不会真正了解它。了解事物真正含义的秘密取决于如何将其与我们所了解的事物相联系。
    '''
    
    
    def cutwords():
        s1 = jieba.cut('今天很残酷,明天更残酷,后天很美好,但绝对大部分是死在明天晚上,所以每个人不要放弃今天')
        s2 = jieba.cut('我们看到的从很远星系来的光是在几百万年之前发出的,这样当我们看到宇宙时,我们是在看它的过去')
        s3 = jieba.cut('如果只用一种方式了解某样事物,你就不会真正了解它。了解事物真正含义的秘密取决于如何将其与我们所了解的事物相联系')
    
        c1 = ' '.join(s1)
        c2 = ' '.join(s2)
        c3 = ' '.join(s3)
    
        return c1, c2, c3
    
    
    def countvec():
        """
        对汉字进行特征值化
        :return:None
        """
        c1, c2, c3 = cutwords()
        cv = CountVectorizer()
        data = cv.fit_transform([c1, c2, c3])
        print(cv.get_feature_names())
        '''
        ['一种', '不会', '不要', '之前', '了解', '事物', '今天', '光是在', '几百万年', '发出', '取决于', '只用', '后天', '含义', '大部分', '如何', '如果', '宇宙', '我们', '所以', '放弃', '方式', '明天', '星系', '晚上', '某样', '残酷', '每个', '看到', '真正', '秘密', '绝对', '美好', '联系', '过去', '这样']'''
        print(data.toarray())
        '''
        [[0 0 1 0 0 0 2 0 0 0 0 0 1 0 1 0 0 0 0 1 1 0 2 0 1 0 2 1 0 0 0 1 1 0 0 0]
         [0 0 0 1 0 0 0 1 1 1 0 0 0 0 0 0 0 1 3 0 0 0 0 1 0 0 0 0 2 0 0 0 0 0 1 1]
         [1 1 0 0 4 3 0 0 0 0 1 1 0 1 0 1 1 0 1 0 0 1 0 0 0 1 0 0 0 2 1 0 0 1 0 0]]'''
        return None
    
    
    def tfidfvec():
        c1, c2, c3 = cutwords()
        tf = TfidfVectorizer()
        data = tf.fit_transform([c1, c2, c3])
        print(tf.get_feature_names())
        '''
        ['一种', '不会', '不要', '之前', '了解', '事物', '今天', '光是在', '几百万年', '发出', '取决于', '只用', '后天', '含义', '大部分', '如何', '如果', '宇宙', '我们', '所以', '放弃', '方式', '明天', '星系', '晚上', '某样', '残酷', '每个', '看到', '真正', '秘密', '绝对', '美好', '联系', '过去', '这样']'''
        print(data.toarray())
        '''
        [[0.         0.         0.21821789 0.         0.         0.
          0.43643578 0.         0.         0.         0.         0.
          0.21821789 0.         0.21821789 0.         0.         0.
          0.         0.21821789 0.21821789 0.         0.43643578 0.
          0.21821789 0.         0.43643578 0.21821789 0.         0.
          0.         0.21821789 0.21821789 0.         0.         0.        ]
         [0.         0.         0.         0.2410822  0.         0.
          0.         0.2410822  0.2410822  0.2410822  0.         0.
          0.         0.         0.         0.         0.         0.2410822
          0.55004769 0.         0.         0.         0.         0.2410822
          0.         0.         0.         0.         0.48216441 0.
          0.         0.         0.         0.         0.2410822  0.2410822 ]
         [0.15698297 0.15698297 0.         0.         0.62793188 0.47094891
          0.         0.         0.         0.         0.15698297 0.15698297
          0.         0.15698297 0.         0.15698297 0.15698297 0.
          0.1193896  0.         0.         0.15698297 0.         0.
          0.         0.15698297 0.         0.         0.         0.31396594
          0.15698297 0.         0.         0.15698297 0.         0.        ]]
        '''
    if __name__ == '__main__':
        # countvec()
        tfidfvec()
    
    

    6.数据的特征预处理

    1、特征处理的方法
    2、sklearn特征处理API
    特征处理是什么
    通过特定的统计方法(数学方法)将数据转换成算法要求的数据

    第一组:
    在这里插入图片描述
    特征处理方案
    > 数值型数据-标准缩放:
    1.归一化
    2.标准化
    3.缺失值
    > 类别型数据:
    1.one-hot编码
    > 时间类型:
    1.时间的切分

    sklearn特征处理API
    sklearn. preprocessing
    归一化
    特点:通过对原始数据进行变换把数据映射到(默认为[0,1])之间
    公式:
    在这里插入图片描述
    作用于每一列,max为一列的最大值,min为一列的最小值,那么X’’为最终结果,mx,mi分别为
    指定区间值默认mx为1,mi为0

    归一化公式计算过程
    在这里插入图片描述
    注:里面是第一步,还需要第二步乘以(1-0)+0

    sklearn归一化API
    sklearn归一化API: sklearn.preprocessing.MinMaxScaler

    MinMaxScalar(feature_range=(0,1)…) 每个特征缩放到给定范围(默认[0,1])

    归一化步骤
    1、实例化MinMaxScalar
    2、通过fit_transform转换

    问题
    如果数据中异常点较多,会有什么影响?

    标准化
    特点:通过对原始数据进行变换把数据变换到均值为0,标准差为1范围内
    在这里插入图片描述
    结合归一化来谈标准化
    在这里插入图片描述
    对于归一化来说:如果出现异常点,影响了最大值和最小值,那么结果显然会发生改变
    对于标准化来说:如果出现异常点,由于具有一定数据量,少量的异常点对于平均值的影响并不大,从而方差改变较小。

    sklearn特征化API
    sklearn特征化API: scikit-learn.preprocessing.StandardScaler
    处理之后每列来说所有数据都聚集在均值0附近标准差为1

    标准化步骤
    1、实例化StandardScaler
    2、通过fit_transform转换

    归一化处理和标准化处理

    # 归一化处理和标准化处理
    from sklearn.preprocessing import MinMaxScaler, StandardScaler
    
    
    def mms():
        """
        归一化处理
        :return:None
        """
        mm = MinMaxScaler(feature_range=(2, 3))  # 默认feature_range=(0,1),一般不做修改
        data = mm.fit_transform([[90, 2, 10, 40], [60, 4, 15, 45], [75, 3, 13, 46]])
        print(data)
        '''
        [[3.         2.         2.         2.        ]
         [2.         3.         3.         2.83333333]
         [2.5        2.5        2.6        3.        ]]'''
        return None
    
    
    def stand():
        """
        标准化处理
        :return:None
        """
        std = StandardScaler()
        data = std.fit_transform([[1., -1., 3.], [2., 4., 2.], [4., 6., -1.]])
        print(data)
        '''
        [[-1.06904497 -1.35873244  0.98058068]
         [-0.26726124  0.33968311  0.39223227]
         [ 1.33630621  1.01904933 -1.37281295]]'''
        return None
    
    
    if __name__ == '__main__':
        mms()
        stand()
    
    

    缺失数据的处理

    '''
    缺失数据的处理
    1.删除
    2.插补
    '''
    from sklearn.impute import SimpleImputer
    import numpy as np
    
    
    def im():
        """
        处理缺失数据
        :return: None
        """
        im = SimpleImputer(missing_values=np.nan, strategy='mean')
    
        li = [[1, 2], [np.nan, 3], [7, 9]]
        print(li)
        '''
        [[1, 2], [nan, 3], [7, 9]]'''
        data = im.fit_transform([[1, 2], [np.nan, 3], [7, 9]])
        print(data)
        '''
        [[1. 2.]
         [4. 3.]
         [7. 9.]]'''
        return None
    
    
    if __name__ == '__main__':
        im()
    
    

    四、数据的降维

    数据的降维之特征选择
    在这里插入图片描述

    1.特征选择

    特征选择
    1.特征选择是什么?
    2.sklearn特征选择API
    3.其他特征选择方法

    特征选择原因
    冗余
    部分特征的相关度高,容易消耗计算性能
    噪声
    部分特征对预测结果有影响

    2.主成分分析

    特征分析
    特征?
    羽毛颜色
    眼睛宽度
    是否有爪子
    爪子长度
    在这里插入图片描述

    3.特征选择的主要方法

    1.Filter(过滤式) VarianceThreshold
    2.Embedded(嵌入式) 正则化、决策树
    3.Wrapper(包裹式)

    VarianceThreshold语法
    VarianceThreshold(threshold = 0.0) 删除所有低方差特征

    # 过滤式
    from sklearn.feature_selection import VarianceThreshold
    
    def var():
        """
        特征选择-删除低方差的特征
        :return: None
        """
    
        # 删除方差为0的特征
        var = VarianceThreshold(threshold=0.0)
    
        data = var.fit_transform([[0, 2, 0, 3], [0, 1, 4, 3], [0, 1, 1, 3]])
        '''
        [
        [0, 2, 0, 3], 
        [0, 1, 4, 3], 
        [0, 1, 1, 3]
        ]
        '''
        print(data)
        '''
        [[2 0]
         [1 4]
         [1 1]]'''
        return None
    
    
    if __name__ == '__main__':
        var()
    

    sklearn主成分分析API
    sklearn.decomposition

    PCA是什么
    本质:PCA是一种分析、简化数据集的技术,特征数量达到上百的时候,考虑数据的简化
    目的:是数据维数压缩,尽可能降低原数据的维数(复杂度),损失少量信息。
    作用:可以削减回归分析或者聚类分析中特征的数量

    from sklearn.feature_selection import VarianceThreshold
    from sklearn.decomposition import PCA
    
    def var():
        """
        特征选择-删除低方差的特征
        :return: None
        """
        # 删除方差为1的特征
        var = VarianceThreshold(threshold=1)
        data = var.fit_transform([[0, 2, 0, 3], [0, 1, 4, 3], [0, 1, 1, 3]])
        '''
        [
        [0, 2, 0, 3], 
        [0, 1, 4, 3], 
        [0, 1, 1, 3]
        ]
        '''
        print(data)
        '''
        [[0]
         [4]
         [1]]'''
        return None
    
    
    def pca():
        """
        主成分分析进行数据降维
        :return:None
        """
        pca = PCA(n_components=0.9)
        data = pca.fit_transform([[2,8,4,5],[6,3,0,8],[5,4,9,1]])
        print(data)
        '''
        [[ 1.28620952e-15  3.82970843e+00]
         [ 5.74456265e+00 -1.91485422e+00]
         [-5.74456265e+00 -1.91485422e+00]]'''
        return None
    
    
    if __name__ == '__main__':
        var()
        pca()
    
    # 特征选择  主成分分析 特征比较多的时候用主成分分析
    

    高纬度数据容易出现的问题
    特征之间通常是相关的
    数据:
    (-1,-2)
    (-1, 0)
    ( 0, 0)
    ( 2, 1)
    ( 0, 1)
    要求:将这个二维的数据简化成一维?
    在这里插入图片描述
    在这里插入图片描述

    通过公式计算
    在这里插入图片描述
    矩阵运算得出P为在这里插入图片描述
    在这里插入图片描述

    通过公式计算
    在这里插入图片描述
    PCA语法
    PCA(n_components=None) 将数据分解为较低维数空间
    在这里插入图片描述

    展开全文
  • scikit-learn: 使用conda安装scikit-learn

    万次阅读 2018-11-28 10:42:11
    如果使用的Anaconda发布的Python版本,可以使用下列命令来安装scikit-learn机器学习库: conda install -c anaconda scikit-learn 验证 安装完成以后,可以使用下列的方法来进行版本的简单验证,从显示的版本信息...

    安装

    如果使用的Anaconda发布的Python版本,可以使用下列命令来安装scikit-learn机器学习库:

    conda install -c anaconda scikit-learn

    验证

    安装完成以后,可以使用下列的方法来进行版本的简单验证,从显示的版本信息上看,目前作者使用的版本号为0.19.1的scikit-learn:

    bj-m-211510a:tools jinguang1$ python
    Python 3.6.5 |Anaconda, Inc.| (default, Apr 26 2018, 08:42:37)
    [GCC 4.2.1 Compatible Clang 4.0.1 (tags/RELEASE_401/final)] on darwin
    Type “help”, “copyright”, “credits” or “license” for more information.
    >>> import sklearn
    >>> sklearn.version
    ‘0.19.1’

    展开全文
  • http://blog.csdn.net/pipisorry/article/details/52251305scikit-learn 教程导航简介:使用scikit-learn进行机器学习 机器学习:问题设定加载样例数据集学习和预测模型持久化惯例 统计学习教程 统计学习:scikit-...

    http://blog.csdn.net/pipisorry/article/details/52251305

    scikit-learn 教程导航

    简介:使用scikit-learn进行机器学习

    • 机器学习:问题设定
    • 加载样例数据集
    • 学习和预测
    • 模型持久化
    • 惯例

    统计学习教程

    • 统计学习:scikit-learn中的配置和estimator对象
    • 有监督学习:预测高维观测对象
    • 模型选择:选择estimator和参数
    • 无监督学习:寻找数据特征
    • 连接所有流程
    • 帮助

    文本分析

    • 设置
    • 加载“Twenty Newsgroups”数据集
    • 抽取text文件的特征
    • 训练分类器
    • 建立管道
    • 评估测试集的表现
    • 使用网格搜索调整参数
    • 练习1:语言识别
    • 练习2:影评情感分析
    • 练习3:CLI文本分类应用
    • 路在何方

    选择合适的estimator

    通常机器学习最难的一部分是选择合适的estimator。

    不同的estimator适用于不同的数据集和问题。

    在本节中,sklearn官方文档提供了一个图,可以快速地根据你的数据和问题选择合适的estimator。单击相应的区域还可以获得更具体的内容。

    推荐到官网看看flowchart ,很有意思,具有简单的普适性


    其他的资源,视频和讨论

    • python 统计学新手
    • 其他的教程
    • 视频

    具体参见官方文档http://scikit-learn.org/stable/presentations.html

    [scikit-learn Tutorials]*

    皮皮blog



    如何开启机器学习之路

    通常用Pandas包去进行主数据分析会比较好,而且这很容易你自己完成。所以,让我们集中精力在实现上。为了确定性,我们假设有一个特征-对象矩阵作为输入,被存在一个*.csv文件中。

    数据加载

    首先,数据要被加载到内存中,才能对其操作。Scikit-Learn库在它的实现用使用了NumPy数组,所以我们将用NumPy来加载*.csv文件。让我们从UCI Machine Learning Repository下载其中一个数据集。

    我们将在下面所有的例子里使用这个数据组,换言之,使用X特征物数组和y目标变量的值。

    数据标准化

    我们都知道大多数的梯度方法(几乎所有的机器学习算法都基于此)对于数据的缩放很敏感。因此,在运行算法之前,我们应该进行标准化,或所谓的规格化。标准化包括替换所有特征的名义值,让它们每一个的值在0和1之间。而对于规格化,它包括数据的预处理,使得每个特征的值有0和1的离差。Scikit-Learn库已经为其提供了相应的函数。
    特征的选取

    毫无疑问,解决一个问题最重要的是是恰当选取特征、甚至创造特征的能力。这叫做特征选取和特征工程。虽然特征工程是一个相当有创造性的过程,有时候更多的是靠直觉和专业的知识,但对于特征的选取,已经有很多的算法可供直接使用。如树算法就可以计算特征的信息量。

    其他所有的方法都是基于对特征子集的高效搜索,从而找到最好的子集,意味着演化了的模型在这个子集上有最好的质量。递归特征消除算法(RFE)是这些搜索算法的其中之一,Scikit-Learn库同样也有提供。

    算法的开发

    正像我说的,Scikit-Learn库已经实现了所有基本机器学习的算法。让我来瞧一瞧它们中的一些。

    逻辑回归

    大多数情况下被用来解决分类问题(二元分类),但多类的分类(所谓的一对多方法)也适用。这个算法的优点是对于每一个输出的对象都有一个对应类别的概率。

    朴素贝叶斯

    它也是最有名的机器学习的算法之一,它的主要任务是恢复训练样本的数据分布密度。这个方法通常在多类的分类问题上表现的很好。

    k-最近邻

    kNN(k-最近邻)方法通常用于一个更复杂分类算法的一部分。例如,我们可以用它的估计值做为一个对象的特征。有时候,一个简单的kNN算法在良好选择的特征上会有很出色的表现。当参数(主要是metrics)被设置得当,这个算法在回归问题中通常表现出最好的质量。

    决策树

    分类和回归树(CART)经常被用于这么一类问题,在这类问题中对象有可分类的特征且被用于回归和分类问题。决策树很适用于多类分类。

    支持向量机

    SVM(支持向量机)是最流行的机器学习算法之一,它主要用于分类问题。同样也用于逻辑回归,SVM在一对多方法的帮助下可以实现多类分类。

    除了分类和回归问题,Scikit-Learn还有海量的更复杂的算法,包括了聚类, 以及建立混合算法的实现技术,如Bagging和Boosting。

    如何优化算法的参数

    在编写高效的算法的过程中最难的步骤之一就是正确参数的选择。一般来说如果有经验的话会容易些,但无论如何,我们都得寻找。幸运的是Scikit-Learn提供了很多函数来帮助解决这个问题。

    作为一个例子,我们来看一下规则化参数的选择,在其中不少数值被相继搜索了:

    有时候随机地从既定的范围内选取一个参数更为高效,估计在这个参数下算法的质量,然后选出最好的。

    至此我们已经看了整个使用Scikit-Learn库的过程,除了将结果再输出到一个文件中。这个就作为你的一个练习吧,和R相比Python的一大优点就是它有很棒的文档说明。

    [基于 Python 和 Scikit-Learn 的机器学习介绍]

    皮皮blog



    scikit-learn机器学习实例

    [基于Scikit-Learn的五个文本分类案例研究]

    [Kaggle入门——使用scikit-learn解决DigitRecognition问题]

    from: http://blog.csdn.net/pipisorry/article/details/52251305

    ref:  [[译]使用scikit-learn进行机器学习的简介(教程1)]

    [[译]针对科学数据处理的统计学习教程(scikit-learn官方教程2)]


    展开全文
  • scikit-learn安装步骤

    万次阅读 2019-10-24 09:52:07
    scikit-learn安装步骤scikit-learn简介什么是scikit-learn?scikit-learn可以做什么?scikit-learn安装 scikit-learn简介 什么是scikit-learn? python的机器学习工具 简单高效的数据挖掘和数据分析工具 每个...

    scikit-learn简介

    什么是scikit-learn?

    • python的机器学习工具
    • 简单高效的数据挖掘和数据分析工具
    • 每个人都可以访问,并且可以在各种情况下重用
    • 基于NumPy,SciPy和matplotlib构建
    • 开源,可商业使用-BSD许可证

    scikit-learn可以做什么?

    功能 简介 应用 算法
    分类(Classification) 识别物体属于哪个类别 垃圾邮件检测,图像识别 SVM, nearest neighbors, random forest, …
    回归 (Regression) 预测与对象关联的连续值属性 药物反应,股票价格 SVR, ridge regression, Lasso, …
    聚类(Clustering) 自动将相似对象归为一组 客户细分,分组实验结果 k-Means, spectral clustering, mean-shift, …
    降维(Dimensionality reduction) 减少要考虑的随机变量的数量 可视化,提高效率 PCA, feature selection, non-negative matrix factorization.
    模型选择(Model selection) 比较,验证和选择参数和模型 通过参数调整提高准确性 grid search, cross validation, metrics.
    预处理(Preprocessing) 特征提取和归一化 转换输入数据(例如文本)以用于机器学习算法 preprocessing, feature extraction.

    scikit-learn安装

    • 前提条件:

    Python (>= 3.5)
    NumPy (>= 1.11.0)
    SciPy (>= 0.17.0)
    joblib (>= 0.11)

    • sk-learn绘图功能需要Matplotlib版本>=1.5.1
    • 一些scikit-learn示例可能需要一个或多个附加依赖项:scikit-image(> = 0.12.3),pandas(> = 0.18.0)

    使用 pip install -U scikit-learn进行安装,或者conda install scikit-learn

    展开全文
  • 【Scikit-Learn】Scikit-Learn实战

    千次阅读 2018-05-19 16:33:33
    大多数正在使用Python学习数据科学的人肯定会听说过scikit-learn,这是一个开源的Python库,通过统一的界面,可以实现各种机器学习,预处理,交叉验证和可视化算法。 本文将向您介绍您需要经历的基本步骤,以成功...
  • learn-python-the-hard-way中文版

    千次下载 热门讨论 2012-03-14 14:32:27
    learn-python-the-hard-way中文版,o基础学习python!||随手上传是种美德
  • welearn随行课堂刷题教程

    万次阅读 多人点赞 2020-09-01 09:36:59
    WELearn随行课堂一键自动刷课助手工具是一款电脑上的刷时长的课程学习的平台,在WELearn随行课堂刷时长工具中你可以体验到一系列非常丰富的课程学习工具哦,一分钟自动完成100%。“WE Learn”是一款集在线课程、学习...
  • scikit-learn

    千次阅读 2018-12-24 23:01:23
    scikit-learn 是一个开源项目, 可以免费使用和分发, 任何人都可以 轻松获取其源代码来查看其背后的原理。 scikit-learn 项目正在不断 地开发和改进中, 它的用户社区非常活跃。 它包含许多目前最先进的机 器学习...
  • Scikit-Learn把所有的机器学习算法都整合在一起了,根据需要选取相应的学习算法. Scikit-Learn通用的学习步骤: 1.数据 2.根据数据特点选取相对应的算法 3.建立模型 3.预测数据 1.数据 scikit-learn ...
  • Learning to Learn

    千次阅读 2018-09-27 11:13:06
    最近看论文的时候,看到一个词 meta learning--Learning to Learn ,有点不太明白,所以就找了下面这篇文章。(仅供学习交流使用) Learning to Learn Chelsea Finn Jul 18, 2017 A key aspect of intelligence ...
  • scikit learn安装

    千次阅读 2017-12-19 17:30:38
    1、创建基于python3的虚拟环境 mkvirtualenv -p /usr/bin/...2、在虚拟环境中安装scikit learn: pip3 install scikit-learn 注意:安装scikit learn需要安装numpy,pandas等 3、安装numpy pip3 install nump
  • Scikit-Learn简介

    万次阅读 2018-07-05 11:19:23
    写给自己的备忘1 简介对Python语言有所了解的科研人员可能都知道SciPy——一个开源的基于...而在这些分支版本中,最有名,也是专门面向机器学习的一个就是Scikit-learn。Scikit-learn项目最早由数据科学家David ...
  • 文档链接: http://sklearn.apachecn.org/cn/0.19.0/install.html GitHub: https://github.com/apachecn/scikit-learn-doc-zh(觉得不错麻烦给个 Star) 安装 scikit-learn | ApacheCN
  • 2.scikit-learn是一个基于NumPy,SciPy,Matplotlib的开源学习工具包 3. 在数据量不是过大的情况下,可以解决大部分问题. 安装 安装 Scikit-learn (sklearn) 最简单的方法就是使用 pip或者用PyCharm或者 Anaconda...
  • Python Learn day03

    万次阅读 2018-01-11 15:16:05
    Python Learn day03 函数式编程 函数式编程 特点: 1.不是纯函数式编程,允许有变量; 2.支持高阶函数,函数也可以作为变量传入; 3.支持闭包,有了闭包就能返回函数; 4.有限度的支持匿名函数; ...
  • Python Learn day04

    万次阅读 2018-01-12 11:10:10
    Python Learn day04 2018年01月12日11:08:55 模块、包、面向对象编程基础 模块、包 为了便于管理和后期维护,我们通常把功能都封装在一个个的模块中,通过调用模块来进行操作,同时,为了区分同名的不同内容...
  • 【超分辨率】Zoom to Learn, Learn to Zoom

    千次阅读 2019-04-16 21:15:15
    前几天陈启峰大佬在我司内部分享几篇关于图像增强的文章....论文名称:Zoom to Learn, Learn to Zoom 背景: 与以往的超分辨率算法不同,本文并没有去对高分辨率图像进行bicubic降采样来制作低...
  • scikit-learn介绍

    万次阅读 2019-05-26 12:41:44
    scikit-learn是一个建立在Scipy基础上的用于机器学习的Python模块。在不同的应用领域中,已经大展出为数众多的基于Scipy的工具包,他们统称为Scikits。而在所有的分支版本中,scikit-learn是最有名的,是开源的,...
  • scikit-learn用户手册0.16.1版

    千次下载 热门讨论 2015-05-31 15:19:47
    Scikit-Learn是基于python的机器学习模块,基于BSD开源许可证。这个项目最早由DavidCournapeau 在2007 年发起的,目前也是由社区自愿者进行维护。 scikit-learn的基本功能主要被分为六个部分,分类,回归,聚类,...
  • scikit-learn 环境安装

    2018-03-11 16:47:16
    Scikit-learn 安装官网: http://scikit-learn.org/stable/install.html1、Scikit-learn需要NumPy和SciPy等其他包的支持 2、安装Scikit-learn pip install -U scikit-learn
  • scikit-learn (sklearn) 0.19.X 中文文档
  • 成功解决read_data_sets (from tensorflow.contrib.learn.python.learn.datasets.mnist) is deprecated and wil 目录 解决问题 解决思路 解决方法 解决问题 read_data_sets (from ...
  • Scikit-learn快速入门教程和实例(一)

    万次阅读 多人点赞 2018-01-19 11:35:04
    Github主页:https://linxid.github.io/ 知乎:https://www.zhihu.com/people/dong-wen-hui-90/activities CSDN:... 一,什么是SKlearn ...SciKit learn的简称是SKlearn,...
  • 元学习Meta Learning/Learning to learn

    万次阅读 多人点赞 2018-12-11 12:56:35
    Meta Learning 元学习或者叫做 Learning to Learn 学会学习 已经成为继Reinforcement Learning 增强学习之后又一个重要的研究分支(以后仅称为Meta Learning)。对于人工智能的理论研究,呈现出了 Artificial ...
  • 文章目录一、Scikit-learn介绍二、Scikit-learn算法选择路径图三、Scikit-learn的安装 一、Scikit-learn介绍 Python语言的机器学习工具 Scikit-learn包括许多知名的机器学习算法的实现 Scikit-learn文档完善,容易...
  • scikit-learn学习之贝叶斯分类算法

    万次阅读 2016-04-26 21:48:46
    ========================...本系列博客主要参考 Scikit-Learn 官方网站上的每一个算法进行,并进行部分翻译,如有错误,请大家指正 转载请注明出处,谢谢 =====================================================...
  • Scikit-Learn提供了比较全的数据集,主要分为以下几类 1. 自带的小数据集(packaged dataset) 2. 在线下载的数据集(Downloaded Dataset) 3. 生成的数据集(Generated Dataset) 4. svmlight/libsvm格式的数据集 ...
  • 成功解决WARNING:tensorflow:From :read_data_sets (from tensorflow.contrib.learn.python.learn. 目录 解决问题 解决思路 解决方法 解决问题 WARNING:tensorflow:From 190403.py:6: ...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 294,642
精华内容 117,856
关键字:

learn