精华内容
下载资源
问答
  • import java.util.ArrayList; import java.util.Collections...i 标记:在点少的情况下使用这个方法,可以把密集密度的数据筛选出来,上面的代码主要是筛选出密度区域,然给区域找出一个中心点(x,y)|(av_time,av)

                                               

    package com.test.demo.gua;
     
    import java.util.ArrayList;
    import java.util.Collections;
    import java.util.List;
     
    public class K_meanTest {
        public static void main(String[] args){
            List<Double> x=new ArrayList<>();
            List<Double> y=new ArrayList<>();
     
            x.add(2.0);
            y.add(1.0);
     
            x.add(3.0);
            y.add(2.0);
     
            x.add(4.0);
            y.add(3.0);
     
            x.add(5.0);
            y.add(4.0);
     
            x.add(6.0);
            y.add(5.0);
     
            x.add(2.1);
            y.add(5.1);
     
            x.add(2.2);
            y.add(5.2);
     
            x.add(2.3);
            y.add(5.3);
     
            x.add(2.4);
            y.add(5.5);
     
            x.add(2.5);
            y.add(5.6);
     
            x.add(5.0);
            y.add(18.0);
     
     
            double[] xu=getCollectCenterValue(y, x);
     
            System.out.print(xu[0]);
     
        }
        /**
         * //密度计算,思路:我们是否可以找到一个点使得,这个点到其他距离最短
         * @param x  x表示时间
         * @param y  y表示时间对应的值
         * @return
         */
        public static double[] getCollectCenterValue(List<Double> x, List<Double> y){
            //存放的目标值
            double[] goal=new double[2];
            double radius=1;
            double xx=0;
            double yy=0;
            double lin=0;
            List<List<Double>> cu=new ArrayList<>();
            //存放时间
            List<List<Double>> time=new ArrayList<>();
            List<List<Double>> value=new ArrayList<>();
            for(int i=0;i<x.size();i++){
                List<Double> line=new ArrayList<>();
                List<Double> tim=new ArrayList<>();
                List<Double> val=new ArrayList<>();
                for(int j=0;j<x.size();j++){
                    xx=Math.pow((x.get(i)-x.get(j)),2);
                    yy=Math.pow((y.get(i)-y.get(j)),2);
                    lin=Math.sqrt(xx+yy);
                    if(lin<radius){
                        line.add(lin);
                        tim.add(x.get(j));
                        val.add(y.get(j));
                    }
                }
                cu.add(line);
                time.add(tim);
                value.add(val);
            }
            //存放下标的集合
            List<Integer> lisort=new ArrayList<>();
            for(int k=0;k<cu.size();k++){
                lisort.add(cu.get(k).size());
            }
            int count=getMaxX(lisort);//数量帅选
            //根据值找出下标
            int index=0;
            for(int n=0;n<lisort.size();n++){
                if(lisort.get(n)== count){
                    index=n;
                }
            }
            //根据下标找出值(找出目标簇)
            List<Double> ng=value.get(index); //存放值
            List<Double> tt=time.get(index);  //存放时间
            //根据找出的值,求一个均值
            double av=getAvg(ng);
            double av_time=getAvg(tt);
            goal[0]=av;
            goal[1]=av_time;
            return goal;
        }
        //集合取极大值
        public static Integer getMaxX(List<Integer> numbers){
            int max =  Collections.max(numbers);
            return max;
        }
     
        public static double getAvg(List<Double> list){
            double eavg=0;
            for(int i=0;i<list.size();i++){
                eavg+=list.get(i);
            }
            eavg=eavg/list.size();
            return eavg;
        }
    }

                 标记:在点少的情况下使用这个方法,可以把密集密度的数据筛选出来,上面的代码主要是筛选出密度区域,然给区域找出一个中心点(x,y)|(av_time,av)

    展开全文
  •  4)用求得的m(x)来更新iter_position,然后重复3) ,根据迭代次数限制,或者判断 m(x)与iter_position 距离变动大小来决定推出迭代,从而我们就得到了2d散点集合种,密度最大的位置,也就是点最密集的位置 ...

    【Python Meanshif】

    参考来源http://www.chioka.in/meanshift-algorithm-for-the-rest-of-us-python/

    这个参考链接是提供代码的,针对于用mean shift对2D点集 进行聚类,并返回聚类中心,那位大佬还对理论进行了较为详细的介绍,还有一些用相应API进行分割,聚类的说明,可以看看。

    算法简介

    1、meanshift 目前有几个比较常用的接口提供: Scikit-Learn,Opencv

    2、meanshift 在追踪领域,聚类等都有着比较多的应用

    3、本次主要介绍meanshift的算法逻辑,以及以及简单的实现方法:

          1)输入一堆2D点集记为X

          2)设置初始点坐标,建议选择,X的均值点记为x_mean,同时设置一个距离阈值,选择高斯函数作为权重核函数

          3)输入其实点位置iter_position,根据距离阈值求出所有近邻点N(X),然后根据如下公式求出这些点的带权中心

                                    

          4)用求得的m(x)来更新iter_position,然后重复3) ,根据迭代次数限制,或者判断 m(x)与iter_position 距离变动大小来决定推出迭代,从而我们就得到了2d散点集合种,密度最大的位置,也就是点最密集的位置

    实例说明:

           下图中黑色点表示 图中 黑色点为所有数据点,蓝色点为最开始初始化的位置,黄色点为5次迭代之后找到的密度最大位置。

                                                                                

    实现:

    #以下函数 主要来自于参考链接内容中的 大佬写的函数,输入数据是numpy array的2d点,shape like(30,2)
    def mean_shift(data,iter_position):
        
        look_distance = 500  # 设置近邻点搜索阈值
        kernel_bandwidth = 25  # 设置权重函数(高斯)的一个阈值
    
        def euclid_distance(x, xi):  #求 两点之间的欧式距离
            return np.sqrt(np.sum((x - xi)**2))
    
        def neighbourhood_points(X, x_centroid, distance = 5): #求N(X)近邻点集合
            eligible_X = []
            for x in X:
                distance_between = euclid_distance(x, x_centroid)
                if distance_between <= distance:
                    eligible_X.append(x)
            return eligible_X
    
        def gaussian_kernel(distance, bandwidth): #权重函数,对应到公式中的k(x-xi)
            val = (1/(bandwidth*math.sqrt(2*math.pi))) * np.exp(-0.5*((distance / bandwidth))**2)
            return val
        
        X = np.copy(data)
        n_iterations = 5  #迭代次数
        for it in range(n_iterations):
            neighbours = neighbourhood_points(X, iter_position, look_distance)
            #print(neighbours)
            numerator = 0.
            denominator = 0.
            for neighbour in neighbours:
                distance = euclid_distance(neighbour, iter_position)
                weight = gaussian_kernel(distance, kernel_bandwidth)
                numerator += (weight * neighbour)
                denominator += weight
            new_x = numerator / denominator
            iter_position=new_x
            
        return iter_position

     

    展开全文
  • 密度估计与自适应带宽的核密度估计

    万次阅读 多人点赞 2017-06-29 22:26:44
    最近看论文,发现一个很不错的概率密度估计方法。...(概率密度函数是用来描述连续型随机变量取值的密集程度的,举例:某地某次考试的成绩近似服从均值为80的正态分布,即平均分是80分,由正态分布的图形知x=80时的函数

    最近看论文,发现一个很不错的概率密度估计方法。在此小记一下。
    先来看看准备知识。
    密度估计经常在统计学中作为一种使用有限的样本来估计其概率密度函数的方法。
    我们在研究随机变量的过程中,随机变量的概率密度函数的作用是描述随机变量的特性。(概率密度函数是用来描述连续型随机变量取值的密集程度的,举例:某地某次考试的成绩近似服从均值为80的正态分布,即平均分是80分,由正态分布的图形知x=80时的函数值最大,即随机变量在80附近取值最密集,也即考试成绩在80分左右的人最多。)但是在实际应用中,总体概率密度函数通常是未知的,那么如何来估计总体概率密度呢?一般,我们通过抽样或者采集一定的样本,可以根据统计学知识从样本集合中推断总体概率密度。这种方法统称为概率密度估计,即根据训练样本来确定随机变量的概率分布。一般概率密度估计方法方法大致分为两类:参数估计非参数估计
    参数估计(Parametric Estimation)是根据对问题的经验知识,假设问题具有某种数学模型 ,随机变量服从某种分布,即先假定概率密度函数的形式,然后通过训练数据估计出分布函数的参数。常见的参数估计方法有极大似然估计方法贝叶斯估计方法。对于参数估计,根据样本中是否已知样本所属类别(即是否带标签)将参数估计又划分为监督参数估计非监督参数估计。监督参数估计是由 已知类别的样本集对总体分布的某些参数进行统计推断 。而无监督参数估计已知总体概率密度函数形式但未知样本所属的类别,要求推断出概率密度函数的某些参数 ,这种推断方法称之为非监督情况下的参数估计。
    非参数估计(Nonparametric Estimation)是在已知样本所属的类别不假定总体分布形式下, 基于大样本的性质,直接利用样本估计出整个函数。在很多情况下,我们对样本的分布并没有充分的了解,无法事先给出密度函数的形式,而且有些样本分布的情况也很难用简单的函数来描述。在这种情况下,就需要用到非参数估计。但是,并不是非参数估计一定优于参数估计,因为非参数估计受训练样本影响,其完备性或泛化能力不会很好;且这种估计只能用数值方法取得,无法得到完美的封闭函数图形。常用的非参数估计方法有直方图法核概率密度估计等。
    (若有闲暇,后续将极大似然、贝叶斯估计等等估计方法详细总结)
    这里说说核密度估计方法(也有称之为Parzen窗法)
    进入正题
    核密度估计的形式:

    f^h(x)=1ni=1nKh(xxi)=1nhi=1nK(xxih)

    这里K(x)核函数(非负,积分为1,均值为0,符合概率密度的性质),h>0是带宽。有很多种核函数,uniform,triangular,biweight,triweight,Epanechnikov,normal等。各种核函数的图形如下:
    各种核函数曲线
    由于高斯内核方便的数学性质,也经常使用 K(x)=ϕ(x)ϕ(x)为标准正态概率密度函数。核密度估计与直方图很类似,但相比于直方图还有光滑连续的性质。
    举例理解(该例子来自维基百科https://en.wikipedia.org/wiki/Kernel_density_estimation
    已知:6个数据点
    x1=2.1x2=1.3x3=0.4x4=1.9x5=5.1x6=6.2
    对于直方图,首先将水平轴划分为覆盖数据范围的子间隔或区段。在这种情况下,我们有6个宽度为2的矩形。每当数据点落在此间隔内时,我们放置一个高度为112的矩形。对于核密度估计,我们在每个数据点xi上放置方差2.25(由红色虚线表示)的正态核函数。叠加一起得到核密度估计的结果,蓝色线表示。
    很明显,直方图得到的密度估计平滑程度比使用核密度估计得到的密度函数要差很多.
    现在问题是如何选定核函数的“方差”呢?这其实是由h来决定,不同的带宽h下的核函数估计结果差异很大。
    这里写图片描述
    核带宽的选择
    带宽是一个自由参数,对所得到的估计值有很大的影响。为了说明效果,举个例子:
    下图是从标准正态分布中抽取的随机样本(横轴上的蓝色的点点代表样本点)灰色曲线是真是的概率密度(正态密度,均值0,方差1)。相比之下,红色曲线是使用了过小的带宽h(=0.05)得出的概率密度曲线,可见其波折陡峭;绿色曲线过于平滑,因为它使用了过大的带宽h(=2),掩盖了数据大部分基础结构。

    这里写图片描述

    那么对于h的选择可以使用最小化L2风险函数(即平均积分平方误差,mean intergrated squared error)。

    MISE(h)=E[(f^h(x)f(x))2dx]

    weakassumptions下,MISE(h)=AMISE(h)+o(1nh+h4),其中AMISE为渐进的MISE。而AMISE有,

    AMISE(h)=R(K)nh+14m2(K)2h4R(f′′)

    其中,
    R(g)=g(x)2dx

    m2(K)=x2K(x)dx

    为了使MISE(h)最小,则转化为求极点问题,
    AMISE(h)h=R(K)nh2+m2(K)2h3R(f′′)=0

    hAMISE=R(K)15m2(K)25R(f′′)15n15

    当核函数确定之后,hAMISE公式里的Rmf′′都可以确定下来,有(hAMISEn15),AMISE(h)=O(n45)

    如果使用高斯核函数进行核密度估计,则h的最优选择(即使平均积分平方误差最小化的带宽)为

    h=(4σ^53n)151.06σ^n15

    这里σ^是样品的标准差。这种近似称为正态分布近似高斯近似,或Silverman(1986)经验法则。虽然这个经验法则很容易计算,但应谨慎使用,因为当密度不接近正态时,可能会产生泛化极差的估计。该经验法则推导过程详见:Silverman, B.W. (1986). Density Estimation for Statistics and Data Analysis. London: Chapman & Hall/CRC. p. 48. ISBN 0-412-24620-1.
    这里带宽的作用简述:
    1.在数据可视化的相关领域中,带宽的大小决定了核密度估计函数(KDE)的平滑(smooth)程度,带宽越小越undersmooth,带宽越大越oversmooth。(详细解释)
    2.在POI兴趣点推荐领域,或位置服务领域,带宽h的设置主要与分析尺度以及地理现象特点有关。较小的带宽可以使密度分布结果中出现较多的高值或低值区域,适合于揭示密度分布的局部特征,而较大的带宽可以在全局尺度下使热点区域体现得更加明显。另外,带宽应与兴趣点的离散程度呈正相关,对于稀疏型的兴趣点分布应采用较大的带宽,而对于密集型的兴趣点则应考虑较小一些的带宽。

    如果带宽不是固定的,而是根据样本的位置而变化(其变化取决于估计的位置(balloon estimator)或样本点(逐点估计pointwise estimator)),则会产生一种特别有力的方法,称为自适应或可变带宽的核密度估计。就POI兴趣点推荐来说,由于密集的城市地区的签到密度很高,人烟稀少的农村地区的签到密度较低。就是说不同位置应该采取不同的分析尺度,因此本文采用不固定的带宽来进行核密度估计。

    说到这, 有些朋友可能不知道POI兴趣点推荐是啥意思, 这里简单的说一下:POI是Point-of-Interest的意思,即兴趣点。就是说,给用户推荐其感兴趣的地点。就这么简单。在推荐系统相关领域,兴趣点推荐是一个非常火爆的研究课题。这里会用到核密度估计的方法,比如这篇论文:Jia-Dong Zhang,Chi-Yin Chow.(2015)GeoSoCa: Exploiting Geographical, Social and Categorical Correlations for Point-of-Interest Recommendations.SIGIR’15, August 09 - 13, 2015, Santiago, Chile.就利用了可变带宽的核密度估计方法。

    这里再简单讨论一下自适应带宽的核密度估计方法。自适应带宽的核密度估计方法是在固定带宽核密度函数的基础上,通过修正带宽参数为而得到的,其形式如式所示:

    k(x)=1Mj1M1(ωhj)nK(xx(j)ωhj)

    K(x)=1(2π)n|S|exp(12xTS1x)

    hj=[Mk=1f(x(k))]1Mf(x(j))α

    这里k(x)是带宽为hj的核密度估计函数,M是样例的个数,看出来了吧,每一个点j都有一个带宽hj,因此这叫自适应可变K(x)是核函数,这里用了高斯核函数,当然也可以是其他的核函数。0α1,为灵敏因子,通常α取0.5,α=0时,自适应带宽的核密度估计就变成了固定带宽的核密度估计了。固定带宽的核密度估计就是前面说的核密度估计。ω表示带宽的参数。
    自适应带宽的核密度估计可以参考维基百科:https://en.wikipedia.org/wiki/Variable_kernel_density_estimation

    推荐帖子:http://blog.sina.com.cn/s/blog_62b37bfe0101homb.html

    参考资料
    https://en.wikipedia.org/wiki/Kernel_density_estimation
    https://www.zhihu.com/question/20212426/answer/74989607
    https://en.wikipedia.org/wiki/Variable_kernel_density_estimation
    http://www.tuicool.com/articles/EVJnI3
    袁修开,吕震宙,池巧君. 基于核密度估计的自适应重要抽样可靠性灵敏度分析.西北工业大学学报.Vol.26 No.3.2008.6.

    展开全文
  • 原标题:核密度图的绘制我们先看一下别人家文章中的核密度图。 那么,怎么做出这样的图呢?...我们用ggplot2绘制这6个数的核密度图(两种方法,代码对应下图的p1p2)、直方图和密度图的组合比较(下图p3),与其“镜...

    原标题:核密度图的绘制

    我们先看一下别人家文章中的核密度图。

    bb5adfed76f9eeae79177ef693ba2368.png

    那么,怎么做出这样的图呢?这种核密度图到底想表达或表现什么呢?

    核密度图的绘制

    所谓“眼过千遍不如手过一遍”,数据我们这里用Wikipedia文中的这6个数: −2.1, −1.3,−0.4,1.9,5.1,6.2。我们用ggplot2绘制这6个数的核密度图(两种方法,代码对应下图的p1和p2)、直方图和密度图的组合比较(下图p3),与其“镜像翻转”数列“相加”后新数列的密度图(下图p4,橙色)。代码如下:

    > library("ggplot2", lib.loc="~/R/win-library/3.4")

    > x

    > x

    [1] -2.1 -1.3 -0.4 1.9 5.1 6.2

    # 载入数据

    > p

    > p1

    > p1

    # 第一种画法,利用geom_density()画的核密度图,“面积”可填充颜色(见下图,p1)。这里的adjust用来调整bw(带宽),数值为默认值的倍数。这里geom_density()默认的核函数为Gaussian,关于带宽的解释见下文。

    > p2

    > p2

    # 第二种画法,方法相类似,最后的结果与p1一致,只是不能填充颜色(下图p2)。

    > p3

    +geom_line(stat ="density",adjust=0.55,color="red",size=1)+xlim(-5,10)

    > p3

    # 同样的数据,用geom_histogram()画直方图作比较,某种意义上可为bw的调整做参考。

    > m

    > z

    > n

    > data

    > data

    m n

    1 1 -8.3

    2 1 -6.4

    3 1 -2.3

    4 1 2.3

    5 1 6.4

    6 1 8.3

    7 2 -2.1

    8 2 -1.3

    9 2 -0.4

    10 2 1.9

    11 2 5.1

    12 2 6.2

    > p1

    > w1

    > p4

    # 将x这列数据乘以负1,从顺序颠倒后与x相加,生成z,z和x组成数据框,绘制分组核密度图,见p4。本文对图表主题,文字不做调整,调整方法见上一篇文章《ggplot2绘图学习笔记分享》,这里不再赘述。

    99d4e7824d6445f46c8578686088df35.png

    KDE 简介

    核密度估计(kernel density estimation,KDE)是根据已知的一列数据(x1,x2,…xn)估计其密度函数的过程,即寻找这些数的概率分布曲线。我们最常见的密度函数莫过于正态分布(也称高斯分布)的密度函数:

    dae1bf904ca0637f8b75daf4bd869476.png

    而密度估计就是给定一列数据,分布未知的情况下估计其密度函数。

    例如上文的6个数据:c(x1 = −2.1,x2 = −1.3, x3 = −0.4, x4 = 1.9, x5 = 5.1, x6= 6.2),我们看下这列数据的“密度”如何。

    画频率直方图就是一种密度估计的方法(如下图,组距为2),这里的“密度”(density)可以感性得理解为一个区间(直方图的组距)内数据数量的多少,右图即为这6个数据的密度曲线(这里简称为密度图),它是左图的外轮廓化,数据量越多,直方图的顶点也越接近一条线。

    aa24c51e1c5ffe1e8ad54b7563ca8998.png

    https://en.wikipedia.org/wiki/

    直方图和密度图都是一组数据在坐标轴上“疏密程度”的可视化,只不过直方图用条形图显示,而密度图使用拟合后的(平滑)的曲线显示,“峰”越高,表示此处数据越“密集”。“密度”越高,如下图。

    8883185b546b4b16742d385171c35e9b.gif

    https://en.wikipedia.org/wiki/

    “核”与“带宽”

    核密度估计是用用下面的函数去估计一个分部未知的独立样本的分布:

    其中K,也就是“核”(kernel)表示核函数,部分常见的核函数如下图(看到Gaussian的函数是不是觉得很眼熟?另为,R中的kernel 有"gaussian","epanechnikov","rectangular","triangular","biweight","cosine","optcosine")。

    34263efc1f2ed3dadd8b4dc7f4de0eef.png

    公式里的“h”,被称为“带宽” (bandwidth,也写作bw),为平滑参数,可简单理解为直方图的“组距”,带宽越大曲线越平滑,见下图。

    67d05d4a22885fe32c7e65bf6f073020.png

    小结

    核密度估计实际上是表现一组数据的分布情况,转录组中用来展示所有样本基因的表达量丰度分布,将FPKM取对数后替换本文第1部分绘图的数据,即可画出样本中所有基因表达量的分布图。一般情况下,它可用来比较某个样本跟其它样本间的差异。

    当然,也可以用于其他的数据分布的分析,除了箱型图,还可考虑核密度图。

    想学ggplot2作图的童鞋可以点击“阅读原文”到在线课堂看周老师的视频教程,每个视频都可下载课件和数据。今天的就到这里啦,若觉得本文还不错要记得分享哦~

    参考文献:

    Hebenstreit, Daniel, et al. "RNA sequencing reveals two major classes of gene expression levels in metazoan cells."Molecular systems biology7.1 (2011): 497.

    Shah, Sohrab P., et al. "The clonal and mutational evolution spectrum of primary triple-negative breast cancers."Nature486.7403 (2012): 395-399.返回搜狐,查看更多

    责任编辑:

    展开全文
  • 基于MSCNN的人群密度估计之生成人群密度

    千次阅读 热门讨论 2020-02-03 00:28:02
    终于到了在家躺着都是给国家做贡献的时候(手动捂脸),对人员密集场所的监控自动报警也算是对疫情的一份贡献吧,哈哈!项目地址:https://github.com/zzubqh/CrowdCount,如果你感觉有点用就帮不点个start吧 ???? ...
  • 密度聚类假设聚类结构能够通过样本分布的密集程度确定,通常情形下,密度聚类算法从样本密度的角度来考察样本之间的可连接性,并基于可连接样本不断扩展聚类簇以获得最终的聚类结果。 DBSCAN 是一种很典型的密度聚类...
  • DBscan算法是典型的基于密度的聚类算法,假定类别可以通过样本分布的紧密程度决定。在DBscan算法中,将样本密集的一个区域内的点作为一个cluster,再将相连的clueter聚合为一个cluster。 把所有的数据点区分并标记...
  •    密度聚类方法的指导思想是,只要样本点的密度大于某阈值,则将该样本添加到最近的簇中。这类算法能克服基于距离的算法只能发现“类圆形”(凸)的聚类的缺点,可发现任意形状的聚类,且对噪声数据不敏感。但计算...
  • 关于超像素分割和密度聚类(CFSFDP)的学习
  • 随着市场对于数据中心需求的增加,导致了对于诸如计算输出存储容量大小所需的增加,同时也需要更好地规划未知的需求。然而,增加容量以满足未来的计算需求所需的成本代价...增加数据中心的环境密度和容量规划可以...
  • 关键词密度

    2010-07-22 22:24:00
    百科名片关键词密度(Keyword Density)与关键词频率(Keyword Frequency)所阐述的实质上是同一个概念,用来量度关键词在网页上出现的总次数与其他文字的比例,一般用百分比表示。相对于页面总字数而言,...
  • 基于密度的聚类算法

    千次阅读 2019-01-29 17:37:38
    基于密度的聚类方法 摘要:我们生活在数据大爆炸时代,每时每刻都在产生海量的数据如视频,文本,图像等。由于数据的类型大小已经超出了人们传统手工处理的能力范围,聚类,作为一种最常见的无监督学习技术,...
  • DBSCAN密度聚类

    2019-05-17 02:47:28
    DBSCAN(Density-Based Spatial Clustering of Applications with Noise,具有噪声的基于密度的聚类方法)是一种很典型的密度聚类算法,K-Means,BIRCH这些一般只适用于凸样本集的聚类相比,DBSCAN既可以适用于凸...
  • 基于融合判决的人群密度分析方法研究,周宇男,王生进,针对视频监控中人群密集程度的估计问题,综合运用基于前景像素数目的分析方法基于图像纹理模式的分析方法,并提出了一种融合判
  • 指定半径下,使用meanshift算法原理对分布在二维平面上的多个点做密度聚类,求出每个聚类包含点的个数及中心坐标。
  • 聚类算法之DBSCAN划分高密度区域

    千次阅读 2018-05-01 17:46:23
    关于聚类算法的前面两篇文章,已经介绍过了常用的原型聚类算法k-measn算法层次聚类中的凝聚算法,这篇文章介绍一些密度聚类算法DBSCAN。k-means算法需要事先指定簇的个数,而凝聚不需要指定簇的个数,这两个算法会...
  • 密度地图上,点的疏密即可看出现象的集中或分散程度,点的个数越多越密集,反映数据所表示的事物或现象在该区域的密度或浓度越大。 本文使用QGIS演示点密度地图的制作过程,最终效果如下: 01下载示范...
  • 基于密度的聚类算法DBSCAN

    千次阅读 2018-01-08 10:06:23
    一、算法思想:  ...与划分层次聚类方法不同,它将簇定义为密度相连的点的最大集合,能够把具有足够高密度的区域划分为簇,并可在噪声的空间数据库中发现任意形状的聚类。 DBSCAN中的几个
  • 密度WIFI部署要点

    2017-12-05 19:11:00
    1. 划分AP组,分组带宽控制 根据区域的人数密集程度划分不同的AP组,并进行优化策略调整,分组分权限进行带宽控制,以确保单用户的2.4G带宽不低于1M,5G用户不低于2M2. 相邻AP错开信道 超高密无线场景AP无疑会非常...
  • DBSCAN密度聚类算法

    千次阅读 2019-01-09 15:32:20
    DBSCAN(Density-Based Spatial Clustering of Applications with Noise,具有噪声的基于密度的聚类方法)是一种很典型的密度聚类算法,K-Means,BIRCH这些一般只适用于凸样本集的聚类相比,DBSCAN既可以适用于凸...
  • DBSCAN(Density-Based Spatial Clustering of Applications with Noise,具有噪声的基于密度的聚类方法)是一种很典型的密度聚类算法,K-Means,BIRCH这些一般只适用于凸样本集的聚类相比,DBSCAN既可以适用于凸样....
  • 为了克服粗糙K-均值聚类算法初始聚类中心点随机选取,以及样本密度函数定义所存在的缺陷,基于数据对象所在区域的样本点密集程度,定义了新的样本密度函数,选择相互距离最远的K个高密度样本点作为初始聚类中心,...
  • 密度估计原理及spark&python实现

    千次阅读 2019-08-03 11:38:47
    密度估计属于非参数估计,它主要解决的问题就是在对总体样本的分布未知的情况,如何估计样本的概率分布。 像平时,我们经常也会用直方图来展示样本数据的分布情况,如下图: 但是,直方图有着明显的缺点: 非常...
  • 密集组网(UDN)

    2021-03-20 16:43:06
    密集组网(UDN,Ultra Dense Deployment)是通过更加密集化的无线网络基础设施部署,在局部热点区域实现百倍量级的系统容量提升; 要点在于通过小基站加密部署提升空间复用方式。 目前,UDN正成为解决未来5G网络...
  • 人流密度估计调研报告

    千次阅读 2020-02-25 17:44:25
    a)低分辨率:可以看看UCF Crowd Counting 50这个数据集,在很多密集的情况下,一个人头的pixel可能只有5*5甚至更小,这就决定了基于检测的很多方法都行不通; b)遮挡严重:在人群中,头肩模型都难以适用更不用说人体...
  • 模糊聚类算法具有较强的实用性,但传统模糊C均值算法(FCM)具有对样本集进行等划分趋势的缺陷,没有考虑不同样本的实际分布对聚类效果的影响,当数据集中各样本密集程度相差较大时,聚类结果不是很理想。...
  • 使用Matlab 绘图时Marker点过于密集

    万次阅读 2019-01-19 11:39:18
    matlab自带的标记点添加,会按照数据长度一个一个添加,这就导致了在数据比较密集的情况下,出现Marker过于密集的情况。 可以使用plot直接绘制一条曲线,然后再插入固定个数的标记点,来实现减少Marker密度的目的。...
  • 本文来谈一下基于深度学习的航空物体场景下的物体检测。航空物体这类场景一般由无人机空拍来收集数据,然后进行后...通用物体检测一样,航空物体检测也经历了从无到有的过程。乍一看,这两类任务都属于物体检测(obje
  • 2.3 高密度散点图

    千次阅读 2015-04-09 10:46:49
    对于高密度的散点图,在R语言中可以使用hexbin包中的hexbin()函数将二元变量的封箱放到六变形单元格中;也可以使用IDPmisc 包中的iplot()函数通过颜色来展示点的密度;也可以使用ggplot2中的qplot()函数来画图,使用...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 6,076
精华内容 2,430
关键字:

密度和密集程度