精华内容
下载资源
问答
  • sklearn学习聚类

    千次阅读 2019-01-30 12:11:05
    1. sklearn聚类概述 \qquad在sklearn的类库中,sklearn.cluster.SpectralClustering实现了基于Ncut的聚类,没有实现基于RatioCut的切图聚类。同时,对于相似矩阵的建立,也只是实现了基于K邻近法和全连接法的...

    原文链接

    1. sklearn谱聚类概述

    \qquad在sklearn的类库中,sklearn.cluster.SpectralClustering实现了基于Ncut的谱聚类,没有实现基于RatioCut的切图聚类。同时,对于相似矩阵的建立,也只是实现了基于K邻近法和全连接法的方式,没有基于ϵ\epsilon-邻近法的相似矩阵。最后一步的聚类方法则提供了两种,K-Means算法和 discretize算法。

    \qquad对于SpectralClustering的参数,我们主要需要调参的是相似矩阵建立相关的参数和聚类类别数目,它对聚类的结果有很大的影响。当然其他的一些参数也需要理解,在必要时需要修改默认参数。

    2. SpectralClustering重要参数与调参注意事项

    \qquad下面我们就对SpectralClustering的重要参数做一个介绍,对于调参的注意事项会一起介绍。
    \qquad 1)n_clusters:代表我们在对谱聚类切图时降维到的维数,同时也是最后一步聚类算法聚类到的维数。也就是说sklearn中的谱聚类对这两个参数统一到了一起。简化了调参的参数个数。虽然这个值是可选的,但是一般还是推荐调参选择最优参数。

    \qquad 2) affinity: 也就是我们的相似矩阵的建立方式。可以选择的方式有三类,第一类是 ‘nearest_neighbors’即K邻近法。第二类是’precomputed’即自定义相似矩阵。选择自定义相似矩阵时,需要自己调用set_params来自己设置相似矩阵。第三类是全连接法,可以使用各种核函数来定义相似矩阵,还可以自定义核函数。最常用的是内置高斯核函数’rbf’。其他比较流行的核函数有‘linear’即线性核函数, ‘poly’即多项式核函数, ‘sigmoid’即sigmoid核函数。如果选择了这些核函数, 对应的核函数参数在后面有单独的参数需要调。自定义核函数我没有使用过,这里就不多讲了。affinity默认是高斯核’rbf’。一般来说,相似矩阵推荐使用默认的高斯核函数

    \qquad 3) 核函数参数gamma: 如果我们在affinity参数使用了多项式核函数 ‘poly’,高斯核函数‘rbf’, 或者’sigmoid’核函数,那么我们就需要对这个参数进行调参。

    \qquad多项式核函数中这个参数对应K(x,z)=(γxz+r)dK(x,z) = (\gamma x·z + r)^d中的γ\gamma,一般需要通过交叉验证选择一组合适的γ,r,d\gamma,r,d
    \qquad高斯核函数中这个参数对应K(x,z)=exp(γxz2)K(x,z)=exp(\gamma||x-z||^2)中的γ\gamma,一般需要通过交叉验证选择合适的γ\gamma
    \qquadsigmoid核函数中这个参数对应K(x,z)=tanh(γxz+r)K(x,z) = tanh(\gamma x·z + r)中的γ\gamma,一般需要通过交叉验证选择一组合适的γ,r\gamma,r
    γ\qquad\gamma默认值为1.0,如果我们affinity使用’nearest_neighbors’或者是’precomputed’,则这么参数无意义。

    \qquad 4)核函数参数degree:如果我们在affinity参数使用了多项式核函数 ‘poly’,那么我们就需要对这个参数进行调参。这个参数对应K(x,z)=(γxz+r)dK(x,z) = (\gamma x·z + r)^d中的d,默认是3。一般需要通过交叉验证选择一组合适的γ,r,d\gamma,r,d

    \qquad 5)核函数参数coef0: 如果我们在affinity参数使用了多项式核函数 ‘poly’,或者sigmoid核函数,那么我们就需要对这个参数进行调参。

    \qquad多项式核函数中这个参数对应K(x,z)=(γxz+r)dK(x,z) = (\gamma x·z + r)^d中的rr。一般需要通过交叉验证选择一组合适的γ,r,d\gamma,r,d
    \qquadsigmoid核函数中这个参数对应K(x,z)=tanh(γxz+r)K(x,z) = tanh(\gamma x·z + r)中的rr,一般需要通过交叉验证选择一组合适的γ,r\gamma,r
    \qquadcoef0默认为1.

    \qquad 6)kernel_params:如果affinity参数使用了自定义的核函数,则需要通过这个参数传入核函数的参数。

    \qquad 7 ) n_neighbors: 如果我们affinity参数指定为’nearest_neighbors’即K邻近法,则我们可以通过这个参数指定KNN算法的K的个数。默认是10.我们需要根据样本的分布对这个参数进行调参。如果我们affinity不使用’nearest_neighbors’,则无需理会这个参数。

    \qquad 8)eigen_solver:在降维计算特征值特征向量的时候,使用的工具。有 None, ‘arpack’, ‘lobpcg’, 和‘amg’4种选择。如果我们的样本数不是特别大,无需理会这个参数,使用’'None暴力矩阵特征分解即可,如果样本量太大,则需要使用后面的一些矩阵工具来加速矩阵特征分解。它对算法的聚类效果无影响。

    \qquad 9)eigen_tol:如果eigen_solver使用了arpack’,则需要通过eigen_tol指定矩阵分解停止条件。

    \qquad 10)assign_labels:即最后的聚类方法的选择,有K-Means算法和 discretize算法两种算法可以选择。一般来说,默认的K-Means算法聚类效果更好。但是由于K-Means算法结果受初始值选择的影响,可能每次都不同,如果我们需要算法结果可以重现,则可以使用discretize。

    \qquad 11)n_init:即使用K-Means时用不同的初始值组合跑K-Means聚类的次数,这个和K-Means类里面n_init的意义完全相同,默认是10,一般使用默认值就可以。如果你的n_clusters值较大,则可以适当增大这个值。

    \qquad从上面的介绍可以看出,需要调参的部分除了最后的类别数n_clusters,主要是相似矩阵affinity的选择,以及对应的相似矩阵参数。当我选定一个相似矩阵构建方法后,调参的过程就是对应的参数交叉选择的过程。对于K邻近法,需要对n_neighbors进行调参,对于全连接法里面最常用的高斯核函数rbf,则需要对gamma进行调参。

    3.SpectralClustering实例

    \qquad首先我们生成500个个6维的数据集,分为5个簇。由于是6维,这里就不可视化了,代码如下:

    import matplotlib.pyplot as plt
    from sklearn.datasets import make_blobs
    
    X, y = make_blobs(n_samples=500, n_features=6, centers=5, cluster_std=[0.4, 0.3, 0.4, 0.3, 0.4], random_state=11)
    plt.scatter(X[:, 0], X[:, 1], marker='o')
    plt.show()
    

    在这里插入图片描述
    \qquad接着我们看看默认的谱聚类的效果:

    y_pred = SpectralClustering().fit_predict(X)
    # Calinski-Harabasz Score 14907.099436228204
    print("Calinski-Harabasz Score", metrics.calinski_harabaz_score(X, y_pred))
    
    plt.scatter(X[:, 0], X[:, 1], c=y_pred)
    plt.show()
    

    在这里插入图片描述

    \qquad由于我们使用的是高斯核,那么我们一般需要对n_clusters和gamma进行调参。选择合适的参数值。代码如下:

    for i, gamma in enumerate((0.01, 0.1, 1, 10)):
        for j, k in enumerate((3, 4, 5, 6)):
            y_pred = SpectralClustering(n_clusters=k, gamma=gamma).fit_predict(X)
            print("Calinski-Harabasz Score with gamma=", gamma, "n_clusters=", k, "score:",
                  metrics.calinski_harabaz_score(X, y_pred))
                  
    """
    Calinski-Harabasz Score with gamma= 0.01 n_clusters= 3 score: 1979.7709609161868
    Calinski-Harabasz Score with gamma= 0.01 n_clusters= 4 score: 3154.0184121901602
    Calinski-Harabasz Score with gamma= 0.01 n_clusters= 5 score: 23410.63894999139
    Calinski-Harabasz Score with gamma= 0.01 n_clusters= 6 score: 19303.734087657893
    Calinski-Harabasz Score with gamma= 0.1 n_clusters= 3 score: 1979.7709609161868
    Calinski-Harabasz Score with gamma= 0.1 n_clusters= 4 score: 3154.0184121901607
    Calinski-Harabasz Score with gamma= 0.1 n_clusters= 5 score: 23410.638949991386
    Calinski-Harabasz Score with gamma= 0.1 n_clusters= 6 score: 19427.96189435911
    Calinski-Harabasz Score with gamma= 1 n_clusters= 3 score: 450.692778360567
    Calinski-Harabasz Score with gamma= 1 n_clusters= 4 score: 120.1243266675767
    Calinski-Harabasz Score with gamma= 1 n_clusters= 5 score: 23410.638949991386
    Calinski-Harabasz Score with gamma= 1 n_clusters= 6 score: 633.021945343848
    Calinski-Harabasz Score with gamma= 10 n_clusters= 3 score: 42.777268645847606
    Calinski-Harabasz Score with gamma= 10 n_clusters= 4 score: 42.40099368087282
    Calinski-Harabasz Score with gamma= 10 n_clusters= 5 score: 30.558274478353223
    Calinski-Harabasz Score with gamma= 10 n_clusters= 6 score: 47.37991118563843
    """
    

    \qquad可见最好的n_clusters是5,而最好的高斯核参数是1或者0.1,或者0.01。

    \qquad将n_clusters=5,gamma=0.1可视化

    y_pred = SpectralClustering(n_clusters=5, gamma=0.1).fit_predict(X)
    plt.scatter(X[:, 0], X[:, 1], c=y_pred)
    plt.show()
    

    在这里插入图片描述

    展开全文
  • 人工智能学习

    千次阅读 2017-11-03 11:04:44
    AI未来 AI对社会经济影响 AI技术体系 AI应用领域 深度学习和机器学习是目前最受欢迎的技术,实际上,深度学习是机器学习的一种,深度学习属于机器学习的一种分支。深度学习实际上...

    [AI教程]最全人工智能图谱解析和视频下载

    晗狄技术观

    百家号 10-17 19:26

    机器学习和深度学习是最近红的发紫的热点技术。也算是工作需要,我自己也找了一些学习资料来学习,先从基础开始,逐步深入,计划结合智能运维,分析下人工智能和设备运维的价值和前景。

    本篇文章只是把AI学习资料和AI体系架构分享出来,我个人的分析成果也会陆续分享呈现给小伙伴们。下面先从人工智能发展历史、内涵外延、技术体系、行业应用等各个方面,通过思维导图的方式呈现出来,希望对大家学习AI能起到一定的引导作用。(本文AI相关体系架构图片来自“全球人工智能”,学习资料和视频来自“datadw”微信公众号)。

    人工智能的历史

    AI内涵和外延

    AI未来学

    AI对社会经济影响

    AI技术体系

    AI应用领域

    深度学习和机器学习是目前最受欢迎的技术,实际上,深度学习是机器学习的一种,深度学习属于机器学习的一种分支。深度学习实际上指的的深度神经网络学习,普通神经网络由于训练代价较高,一般只有3-4层,而深度神经网络由于采用了特殊的训练方法可以达到8-10层。

    深度神经网络能够捕捉到数据中的深层联系,从而能够得到更精准的模型,而这些联系不容易被普通的机器学习方法所发觉。接下来,把人工智能相关的学习视频和资料分类分享给大家。

    第一部分数据篇

    数据教程

    下载链接:https://pan.baidu.com/s/1pLK25zP

    密码: qtuu

    第二部分 机器学习

    吴恩达机器学习

    https://pan.baidu.com/s/1i5QKxiX

    密码: wcx9

    机器学习与量化交易

    https://pan.baidu.com/s/1qY6nsBi

    密码: p3t2

    林轩田:机器学习基石

    https://pan.baidu.com/s/1nvuimnR

    密码: b8zn

    林轩田:机器学习技巧

    https://pan.baidu.com/s/1jHO0njw

    密码: 246v

    Ng视频课程和讲义

    https://pan.baidu.com/s/1i48TjGp

    密码: hnnn

    机器学习

    https://pan.baidu.com/s/1qXP9Sao

    密码: ri67

    机器学习课程(余凯、张潼)

    https://pan.baidu.com/s/1qYubZVA

    密码: by8j

    Scikit Learn 机器学习

    https://pan.baidu.com/s/1ccTE7k

    密码: s3he

    第三部分 深度学习

    Udacity 深度学习

    https://pan.baidu.com/s/1miOCuKw

    密码: h8kg

    Hinton深度学习视频课程

    https://pan.baidu.com/s/1c11BO56

    密码: 34vw

    深度学习NLP

    https://pan.baidu.com/s/1jIoiD3S

    密码: 736d

    第四部分 其他资源

    人工智能

    http://pan.baidu.com/s/1bV2aXS

    密码: 7ydc

    http://pan.baidu.com/s/1bpy6wI7

    密码: yiwj

    深度学习

    http://pan.baidu.com/s/1kVp2B7T

    密码: 8xey

    算法链接

    http://pan.baidu.com/s/1pLkAFzH

    密码: ewj2

    自然语言处理(NLP)

    http://pan.baidu.com/s/1ckvmuq

    密码: te6q

    推荐系统

    http://pan.baidu.com/s/1dEWHXzb

    密码: 3ux1

    斯坦福NLP课程

    http://pan.baidu.com/s/1hsqU8cc

    密码: px2c

    神经网络和深度学习

    http://pan.baidu.com/s/1miPsvkG

    密码: npvp

    大规模人脸标注数据集

    http://pan.baidu.com/s/1boBhqfP

    密码: 4nt5

    数据集

    http://pan.baidu.com/s/1c2w2vZy

    密码:frmf

    TensorFlow教程

    http://pan.baidu.com/s/1c11BLCW

    密码: gk45

    模型链接

    http://pan.baidu.com/s/1jHJa5Zg

    密码: 9tgc

    数据分析

    http://pan.baidu.com/s/1eSP43J0

    密码: dfp9

    Python入门课程

    http://pan.baidu.com/s/1c1TvZYK

    密码: 1zb7

    论文合集

    http://pan.baidu.com/s/1mieBjcc

    密码: 74f2

    计算机视觉

    http://pan.baidu.com/s/1qXJ4o4s

    密码: 7kta

    编程教程链接

    http://pan.baidu.com/s/1kUAQXoj

    密码: x35a

    CNCC2016演讲

    下载链接: http://pan.baidu.com/s/1o8qIqZg

    密码: dv5s

    对资料提供者无私奉献表示感谢,学习资料虽多,但是建议大家根据自己感兴趣的领域有重点、有选择的针对性学习,这样才能更好的掌握一门知识。但是小伙伴也可以先收藏起来,在工作或学习的不同阶段,可能会用到,未雨绸缪、有备无患。

    相关阅读

    一图全面解析AI技术发展史

    从BI到AI只差数据科学平台的距离

    一个资深架构师眼中的人工智能

    人工智能影响力报告下载

    香港科技大学TensorFlow机器学习课程

    盘点: 各大公司都推出了哪些机器人

    温馨提示:

    请搜索“ICT_Architect”或“扫一扫”下面二维码关注公众号,获取更多精彩内容。

    专注做一个有情怀的技术分享平台

    展开全文
  • scikit-learn 学习聚类SpectralClustering

    千次阅读 2018-09-06 17:09:07
    聚类可看作是一种降维的方法。 class sklearn.cluster.SpectralClustering() 参数:  n_clusters:切图时降到的维数 affinity:相似矩阵的建立方式。'nearest_neighbors':k-近邻,'precomputed':自定义,全...

    谱聚类可看作是一种降维的方法。

    class sklearn.cluster.SpectralClustering()


    参数:

     n_clusters:切图时降到的维数

    affinity:相似矩阵的建立方式。'nearest_neighbors':k-近邻,'precomputed':自定义,全连接方式,常用高斯核'rbf',多项式'poly',sigmoid函数'sigmoid'

     eigen_solver:特征值求解的策略,{None, ‘arpack’, ‘lobpcg’, or ‘amg’}

     eigen_tol:如果eigen_solver使用了arpack’,则需要通过eigen_tol指定矩阵分解停止条件

     gamma:核函数参数,如果在affinity里使用了全连接方式,核函数,需要利用该参数对核函数进行调参。

      degree:当使用了多项式作为核函数时,对该参数进行调参,默认为3

      coef:当核函数为多项式或者sigmoid函数时进行调整,默认为1

      n_neighbors:当affinity设置为'nearest_neighbors'时,该参数作为设置近邻数量

    assign_labels:最后使用的聚类方式:{‘k-means’,'discritize'}


    返回:

    affinity_matrix_:用于聚类的相似矩阵

    labels_:


     

    示列代码:

    import numpy as np
    from sklearn import datasets
    X=datasets.load_iris()
    #print(X)
    #查看默认的谱聚类效果
    from sklearn.cluster import SpectralClustering
    spectral=SpectralClustering()
    pred_y=spectral.fit_predict(X.data)
    from sklearn import metrics
    print("Calinski-Harabasz Score",metrics.calinski_harabaz_score(X.data,pred_y))
    """
    Calinski-Harabasz Score 438.286953256
    """
    
    #默认使用的是高斯核,需要对n_cluster和gamma进行调参,选择合适的参数
    scores=[]
    s=dict()
    for index,gamma in enumerate((0.01,0.1,1,10)):
        for index,k in enumerate((3,4,5,6)):
            pred_y=SpectralClustering(n_clusters=k).fit_predict(X.data)
            print("Calinski-Harabasz Score with gamma=",gamma,"n_cluster=",k,"score=",metrics.calinski_harabaz_score(X.data,pred_y))
            tmp=dict()
            tmp['gamma']=gamma
            tmp['n_cluster']=k
            tmp['score']=metrics.calinski_harabaz_score(X.data,pred_y)
            s[metrics.calinski_harabaz_score(X.data,pred_y)]=tmp
            scores.append(metrics.calinski_harabaz_score(X.data,pred_y))
    print(np.max(scores))
    print("最大得分项:")
    print(s.get(np.max(scores)))
    """
    Calinski-Harabasz Score with gamma= 0.01 n_cluster= 3 score= 558.91617342
    Calinski-Harabasz Score with gamma= 0.01 n_cluster= 4 score= 526.594543218
    Calinski-Harabasz Score with gamma= 0.01 n_cluster= 5 score= 493.129509828
    Calinski-Harabasz Score with gamma= 0.01 n_cluster= 6 score= 473.659126731
    Calinski-Harabasz Score with gamma= 0.1 n_cluster= 3 score= 558.91617342
    Calinski-Harabasz Score with gamma= 0.1 n_cluster= 4 score= 526.594543218
    Calinski-Harabasz Score with gamma= 0.1 n_cluster= 5 score= 493.129509828
    Calinski-Harabasz Score with gamma= 0.1 n_cluster= 6 score= 473.659126731
    Calinski-Harabasz Score with gamma= 1 n_cluster= 3 score= 558.91617342
    Calinski-Harabasz Score with gamma= 1 n_cluster= 4 score= 526.594543218
    Calinski-Harabasz Score with gamma= 1 n_cluster= 5 score= 493.129509828
    Calinski-Harabasz Score with gamma= 1 n_cluster= 6 score= 473.659126731
    Calinski-Harabasz Score with gamma= 10 n_cluster= 3 score= 558.91617342
    Calinski-Harabasz Score with gamma= 10 n_cluster= 4 score= 526.594543218
    Calinski-Harabasz Score with gamma= 10 n_cluster= 5 score= 493.129509828
    Calinski-Harabasz Score with gamma= 10 n_cluster= 6 score= 473.659126731
    558.91617342
    最大得分项参数:
    {'gamma': 10, 'n_cluster': 3, 'score': 558.91617342043787}
    
    得到的Calinski-Harabasz分数值ss越大则聚类效果越好,参数如上
    """
    

     

    展开全文
  • 五线学习软件

    千次阅读 2013-06-09 15:45:35
    推荐给钢琴初学者的五线学习软件。    支持高音谱表和低音谱表。  支持键盘和鼠标两种输入方式。  统计正确和错误的音符个数。           下载地址(含源代码):    ...

    推荐给钢琴初学者的五线谱学习软件。

     

       支持高音谱表和低音谱表。

       支持键盘和鼠标两种输入方式。

       统计正确和错误的音符个数。

     

     

     

     

     

    下载地址(含源代码):

     

      http://download.csdn.net/detail/mailtogst/5553147 

     

    展开全文
  • 请问 用mtlab分析电化阻抗 的源代码 哪位有 学习一下 谢谢
  • 功率学习及matlab代码

    千次阅读 2021-01-27 21:41:08
    只接触很少信号处理的问题,该篇是查阅资料总结的,先对概念等内容进行介绍,最后附matlab的功率代码。 看了很多资料,没有说明白为啥可以有这么多种方法计算,也不清楚具体这种方法计算出来的是否正确,就写了一...
  • 一、聚类的演算(一)、演算1、聚类概览 聚类演化于图论,后由于其表现出优秀的性能被广泛应用于聚类中,对比其他无监督聚类(如kmeans),spectral clustering的优点主要有以下:1.过程对数据结构并没有太多...
  • 小提琴学习(1) 五线

    千次阅读 2016-11-28 16:49:21
    学习视频:http://v.youku.com/v_show/id_XOTI0NTQ1ODA=.html?&f=26354086&from=y1.2-3.4.4&spm=a2h0j.8191423.item_XOTI0NTQ1ODA=.A 第四天: 节、拍 谱号:高音、低音 调号: 拍号:
  • 前端学习第一弹:制作简易菜谱

    千次阅读 2017-10-03 21:27:02
    时隔几年重拾html(当时就学的很浅显),连基本属性都不记得了,希望能一直坚持下去,从一个个小例子中不断丰富知识库,加油吧~~程序写的比较乱,还请各位大牛指导一二……直接上代码吧: 你好,吃货 ...
  • 中科技STM32F103ZET6学习资料

    千次阅读 2019-12-01 23:37:15
    STM32学习资料(中) 有需要的自行保存,别忘了点击关注奥!!! **适合初学者** 链接:https://pan.baidu.com/s/1isRvPA41ED5mDDCZuJVBmQ 提取码:qmcx: 有关中STM32ZET6教程、开发板原理图、以及实验程序我...
  • 一、认识五线及其口诀 钢琴乐谱怎么看?学习五线及其口诀 高音谱号:下加一线你唱1,下加一间你唱2一二三线,3 5 7,四线五线唱2 4,一二三间,4 6 1,,到了四间请唱 3上加一二三线6 1 3,四线五线唱5 7,上...
  • 认五线-基本乐理

    千次阅读 2006-08-24 15:08:00
    认五线-基本乐理(三)
  • 小虎最近研究自功率的意义和作用,发现自功率还可以进行信号的简谐分量分析的哦,这里小虎使用了MATLAB进行仿真的方法来展现结果。
  • 利用DFT计算图像功率,程序基于OpenCV #include #include #include <highgui.h>// 以图像中心为原点,调整傅立叶变换图像的四个象限区,即第一和第三象限交换 // 第二和第四象限交换 void cvShiftDFT(CvArr * ...
  • 2. 减法的原理和相关算法 3. WAV音频文件的格式 二、音频信号噪声抑制原理 2.1语音和噪声 1、冲激噪声 冲激噪声的时域波形是类似于冲激函数那样的窄脉冲,常见的消除冲激噪声的方式有两种: (1)对带噪...
  • 聚类(Spectral Clustering)算法介绍

    万次阅读 多人点赞 2018-09-03 10:54:01
    这里主要是介绍一下聚类算法,做一个学习笔记,同时也希望对想要了解该算法的朋友有一个帮助。关于聚类的其他系列算法,这里推荐一个写的很不错的博客。 聚类在最近几年变得受欢迎起来,主要原因就是它实现简单...
  • 论文地址:Predicting drug response of tumors from integrated ...利用深度神经网络预测整合基因组的肿瘤药物反应 作者信息: Yu-Chiao Chiu1, Hung-I Harry Chen1,2, Tinghe Zhang2, Songyao Zhang2,3,...
  • 将E直接kmeans聚类,得到的结果也能反映V的聚类特性,而聚类的引入L和L ’ 是使得G的分割具有物理意义。  而且,如果E的item(即n)足够大,将难计算出它的kmeans,我们完全可以用PCA降维(仍为top的特征值与向量)。...
  • 作者:Chu Wang, Babak Samari, Kaleem Siddiqi 译者:Elliott Zheng Abstract ... 然而,到目前为止,点特征已经以独立和孤立的方式被...在本文中,我们建议通过在局部图上使用图卷积结合新的图池化策略来克...
  • 下面链接中的文章总结的太好了,就偷懒不自己写了。 算法流程 聚类原理总结 sklearn中的参数 scikit-learn学习聚类
  • 频谱、幅度、功率和能量

    千次阅读 2018-11-16 10:36:45
    在信号处理的学习中,有一些与有关的概念,如频谱、幅度、功率和能量等,常常让人很糊涂,搞不清其中的关系。这里主要从概念上厘清其间的区别。 对一个时域信号进行傅里叶变换,就可以得到的信号的频谱,...
  • 该教程记录了我从一个聚类算法小白学习聚类算法的过程,在开始学习之前,请确保你了解下面的知识: 线性代数矩阵的相关性质 导数的相关知识 欧式距离 图的基本知识 如果你过上面的知识但是忘记了也没关系,在...
  • 在做电化实验的时候,我们会获得很多的电化稳态阻抗(EIS),其中包含频率、实部、虚部,然后需要将这些EIS的数据进行平均值处理,接着模量等于实部和虚部的平方和再开根号,还有相位角是虚部除以实部的反正切...
  • 能量与功率

    万次阅读 2016-12-08 23:22:28
    1.能量与功率 能量与功率分别是针对能量有限的信号和功率有限的信号。在进行信号的分析的时候一定更要看准这是一个能量信号还是一个功率信号,应用不同的进行分析会使问题的解决思路更加明确。 1.1 ...
  • 结合自定义核,应用两个非常常见的形态算子(例如,扩张和侵蚀),...接下里的例子是从乐谱中提取音符(五线中音符和乐谱线的分离) 理论 Morphology Operations 形态是一组图像处理操作, 基于预定义的stru
  • [摘要]利用新研制的能量分辨为0.5 eV 的高分辨(e, 2e)仪测量了CF3I分子在9—15 eV能区的束缚能.新仪能较好地分辨该分子碘孤对轨道的自旋轨道劈裂组分5e3/2和5e1/2,并得到了它们各自的电子动量分布以及分支比...
  • 电化稳态阻抗(EIS)在等效电路已知的情况下进行拟合,是防腐蚀涂层过程中的很重要的一个部分,通过对具有物理意义的等效电路的元器件进行拟合可以得到涂层在腐蚀环境中的状态变化,从而监控涂层的某一个方面的...
  • 现代估计:多窗口

    千次阅读 2018-05-18 10:43:50
    本文翻译自Kspectra Tool ...分析中的多窗口方法对两类问题提供了一个新颖的解决方案,这两类问题是:估计和对一个时间序列里面既有连续也有特征成分的信号重建。 这个方法被广泛应用在地球物理信号分...
  • 一般AR模型适合表示时间序列的功率有尖峰而没有深谷的信号,MA模型适合表示其功率有深谷而没有尖峰的信号,ARMA模型则适合尖峰和深谷都有的情况 弄清三者的关系我们需要先学习分解的知识 n分解方法:  ...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 34,242
精华内容 13,696
关键字:

学谱