精华内容
下载资源
问答
  • 作者结合自己学习实践,从以下三个方面介绍对比了自相关与互相关 1. 定义 2. 从其他角度对于相关的理解 3. 在工程实践中的应用
  • Reversing:逆向工程揭密

    热门讨论 2010-06-21 17:27:22
    第一次看到“逆向工程”这个词是2001年《机械工程学报》上一篇文章,主要是讲用三坐标测量仪测量产品各个部件三维尺寸并计算机快速建模、进而反推其设计思想和基本设计原则。第一次使用逆向工程工具...
  • J2EE应用开发详解

    热门讨论 2011-03-31 15:29:16
    37 3.5 动态代理 39 3.6 反射机制Hibernate中的应用 42 3.7 小结 46 第4章 Servlet技术 47 4.1 Servlet简介 47 4.1.1 Servlet的特点 47 4.1.2 Servlet的优势 48 4.1.3 Servlet的工作过程 49 4.1.4 Servlet的生命...
  • 第一次看到“逆向工程”这个词是2001年《机械工程学报》上一篇文章,主要是讲用三坐标测量仪测量产品各个部件三维尺寸并计算机快速建模、进而反推其设计思想和基本设计原则。第一次使用逆向工程工具...
  • 关注、星标嵌入式客栈,精彩及时送达[导读] 在工程应用时,有时候需要计算两个信号序列相似度,实际信号由于在采集过程会混入干扰,如果简单依次比较各样本是否相等或者差值,则很难判定两个信号序列相似...
    关注、星标嵌入式客栈,精彩及时送达86ccc54e1bf88c3779a5dfa6d53540c0.png[导读] 在工程应用时,有时候需要计算两个信号序列的相似度,实际信号由于在采集过程中会混入干扰,如果简单的依次比较各样本是否相等或者差值,则很难判定两个信号序列的相似程度。本文来聊聊我的一些思路。

    什么是互相关函数?

    在统计学中,相关是描述两个随机变量序列或二元数据之间的统计关系,无论是否具有因果关系。广义上讲,相关性是统计上的关联程度,它通常指的是两个变量的线性相关的程度。比如商品的价格和消费者购买愿意数量之间的关系,也即所谓的需求曲线。

    相关性是有用的,因为它们可以描述一种可在实践中加以利用的预测作用。例如,根据电力需求和天气之间的相关性,电力公司可能会在天气凉快时候生产更少的电力。在这个例子中,有一定的因果关系存在,因为极端天气导致人们使用更多的电力用于取暖或制冷。然而,一般而言,相关性的存在并不足以推断出因果关系的存在,也就是说相关性并不意味着因果关系。

    连续信号里,为函数及的互相关函数定义为:

    离散信号,假设两个信号序列x(n)及y(n),每个序列的能量都是有限能量序列,则x(n)及y(n)的互相关序列为:

    那么互相关函数就是描述在连续信号或离散序列的相关程度的一种统计度量。

    什么是相关系数?

    最熟悉的度量两个量之间的相关性的方法是皮尔逊乘积矩相关系数(PPMCC),也称为“皮尔逊相关系数”,通常简称为“相关系数”。在数学上,它被定义为对原始数据的最小二乘拟合的质量(拟合程度或效果)。它是由数据集两个变量的协方差的比率,归一化到他们的方差的平方根得到的。数学上,两个变量的协方差除以标准差的乘积。

    皮尔逊积矩相关系数试图通过两个随机序列的数据集建立一条最佳拟合曲线,实质上是通过列出期望和由此产生的皮尔逊相关系数表明实际数据集离预期值有多远。根据皮尔逊相关系数的符号,如果数据集的变量之间存在某种关系,可以得到负相关或正相关。其定义公式如下:

    上述公式展开为:

    在根据期望计算公式展开,就得到:

    如果考察延迟d处的互相关,则上述公式就变为:

    为了方便理解,本文就不考察延迟节拍了。

    相关系数有啥用?

    皮尔逊相关系数的绝对值不大于1是Cauchy–Schwarz不等式的推论(有兴趣的可以去找书看看)。因此,相关系数的值在[-1,1]之间。在理想的增加线性相关关系情况下,相关系数为+1;在理想的减少(反相关)线性关系情况下,相关系数为-1;在所有其他取值情况下,表示变量之间的线性相关程度。当它接近零时,更接近于不相关。系数越接近-1或1,变量之间的相关性越强。

    故,相关系数其值范围分布在区间[-1,1]:

    • 1表示完全正相关
    • 0表示不相关
    • -1表示完全负相关

    为了方便理解,假定两个随机序列按照下面各类情况分布,下面的数字为相关系数:

    f29645004ae49eb709a7800593f6d20a.png

    程序如何实现呢?

    上述公式在实际编程时,当然可以直接按照公式编制代码,如果仔细观察会发现该公式可以进一步简化,过程省略:

    由这个公式就很容易编程了,干货在这里,可以拿去稍加改造即可使用:

    #include 
    #include 

    /* 返回值在区间: [-1,1]          */
    /* 如返回-10,则证明输入参数无效    */
    #define delta 0.0001f
    double calculate_corss_correlation(double *s1, double *s2,int n){
        double sum_s12 = 0.0;
        double sum_s1  = 0.0;
        double sum_s2  = 0.0;
        double sum_s1s1 = 0.0//s1^2
        double sum_s2s2 = 0.0//s2^2
        double pxy = 0.0;
        double temp1 = 0.0;
        double temp2 = 0.0;
        
        if( s1==NULL || s2==NULL || n<=0)
          return -10;
        
        for(int i=0;i    {
             sum_s12  += s1[i]*s2[i];
             sum_s1   += s1[i];
             sum_s2   += s2[i];
             sum_s1s1 += s1[i]*s1[i]; 
             sum_s2s2 += s2[i]*s2[i]; 
        }
        
        temp1 = n*sum_s1s1-sum_s1*sum_s1;
        temp2 = n*sum_s2s2-sum_s2*sum_s2;
        
        /* 分母不可为0 */
        if( (temp1>-delta && temp1        (temp2>-delta && temp2        (temp1*temp2<=0) )
        {
            return -10;  
        }       
        
        pxy = (n*sum_s12-sum_s1*sum_s2)/sqrt(temp1*temp2);
        
        return pxy;
    }
    double s1[30] = {
    0.309016989,0.587785244,0.809016985,0.95105651,1,0.951056526,
    0.809017016,0.587785287,0.30901704,5.35898E-08,0,0,
    0,0,0,0,0,0,
    0,0,0,0,0,0,
    0,0,0,0,0,0
    };
    double s2[30] = {
    0.343282816,0.686491368,0.874624132,0.99459642,1.008448609,
    1.014252458,0.884609221,0.677632906,0.378334666,0.077878732,
    0.050711886,0.066417083,0.088759401,0.005440732,0.04225661,
    0.035349939,0.0631196,0.007566056,0.053183895,0.073143706,
    0.080285063,0.030110227,0.044781145,0.01875573,0.08373928,
    0.04550342,0.038880858,0.040611891,0.046116826,0.087670453
    };

    int main(void){
        double pxy;
        double s3[30];

        pxy = calculate_corss_correlation(s1,s2,30);
        printf("pxy of s1 and s2:%f\n",pxy);  
        
        pxy = calculate_corss_correlation(s1,s1,30);
        printf("pxy of s1 and s1:%f\n",pxy);  

        for(int i=0;i    {
            s3[i] = -1*s1[i];
        }
        pxy = calculate_corss_correlation(s1,s3,30);
        printf("pxy of s1 and s3:%f\n",pxy);  
        
        return 0;
    }

    运行结果为:

    pxy of s1 and s2:0.997435
    pxy of s1 and s1:1.000000
    pxy of s1 and s1:-1.000000

    将这三个信号绘制成波形来看看:

    ff8def13f73ffdad84ca48f4db2bb7f3.png

    由图看出:

    • S1与S2非常相似,其相关系数为0.997435,高度相似
    • S1与-S1则刚好相位相反,理想反相关,其相关系数为-1
    • S1与S1则理所当然是一样的,其相关系数为1

    再来一组信号对比一下:

    e3ba4b04a6654c9f7cf05d8c216a7fea.png

    其波形数据为:

    double s1[30]={
        0.309016989,0.587785244,0.809016985,0.95105651,1,
        0.951056526,0.809017016,0.587785287,0.30901704,5.35898E-08,
        0,0,0,0,0,
        0,0,0,0,0,
        0,0,0,0,0,
        0,0,0,0,0
    };
    double s6[30]={
        0,0,0.187381311,0.368124547,0.535826787,
        0.684547097,0.809016985,0.904827044,0.968583156,0.998026727,
        0.992114705,0.951056526,0,0,0,
        0,0,0,0,0,
        0,0,0,0,0,
        0,0,0,0,0
    };
    double s7[30]={
        0.187381311,0.368124547,0.535826787,0.684547097,0.809016985,
        0.904827044,0.968583156,0.998026727,0.992114705,0.951056526,
        0.876306697,0.770513267,0.637424022,0.481753714,0,
        0,0,0,0,0,
        0,0,0,0,0,
        0,0,0,0,0
    };

    利用上述代码计算S1与S6,S1与S7的相关系数:

    pxy of s1 and s6:0.402428
    pxy of s1 and s7:0.612618

    可见,S6、S7与S1的相关系数越来越大,从波形上看相似度也越来越大。

    总结一下

    通过相关系数可以比较完美的判断两个信号序列,或者两个随机变量之间的相似度。相关系数以及互相关函数应用很广,本文仅仅描述了一个工程上应用较多的实际栗子。事实上,该数学特性有着广泛的应用,有兴趣的可以深度学习探讨一下。

    辛苦原创,如喜欢请帮忙点赞/在看/转发支持,不胜感激!

    END

    往期精彩推荐,点击即可阅读▲数学之美:嵌入式编程凹凸性之妙用(附C代码) Linux 内核架构分析void 型指针的高阶用法,你掌握了吗?

    6ed9b366363ace33a79b27215237be76.png

    展开全文
  • C#与.NET3.5高级程序设计第四版高清PDF中文完整版

    千次下载 热门讨论 2011-07-05 10:25:50
    4.3 c#中的数组操作  4.4 枚举类型  4.5 结构类型  4.6 值类型和引用类型  4.7 值类型和引用类型:最后的细节  4.8 c#可空类型  4.9 小结  第5章 定义封装的类类型  5.1 c#类类型  5.2 类构造...
  • 目前从事软件需求工程、网络协议验证形式化方法以及函数式语言等方面研究。 目录 封面 -29 封底 -28 书名 -27 版权 -26 出版说明 -25 关于作者 -22 前言 -21 序言 -20 目录 -18 第1章 引言和概述 1 1.1 使用...
  • [导读] 在工程应用时,有时候需要计算两个信号序列相似度,实际信号由于在采集过程会混入干扰,如果简单依次比较各样本是否相等或者差值,则很难判定两个信号序列相似程度。本文来聊聊我一些思路。 什么是...

    [导读] 在工程应用时,有时候需要计算两个信号序列的相似度,实际信号由于在采集过程中会混入干扰,如果简单的依次比较各样本是否相等或者差值,则很难判定两个信号序列的相似程度。本文来聊聊我的一些思路。

    什么是互相关函数?

    在统计学中,相关是描述两个随机变量序列或二元数据之间的统计关系,无论是否具有因果关系。广义上讲,相关性是统计上的关联程度,它通常指的是两个变量的线性相关的程度。比如商品的价格和消费者购买愿意数量之间的关系,也即所谓的需求曲线。

    相关性是有用的,因为它们可以描述一种可在实践中加以利用的预测作用。例如,根据电力需求和天气之间的相关性,电力公司可能会在天气凉快时候生产更少的电力。在这个例子中,有一定的因果关系存在,因为极端天气导致人们使用更多的电力用于取暖或制冷。然而,一般而言,相关性的存在并不足以推断出因果关系的存在,也就是说相关性并不意味着因果关系。

    连续信号里,为函数及的互相关函数定义为:
    ρxy=fx(t)fy(tτ)dt \rho_{xy}=\int_{-\infty}^{\infty }f_x(t)f_y(t-\tau)dt

    离散信号,假设两个信号序列x(n)及y(n),每个序列的能量都是有限能量序列,则x(n)及y(n)的互相关序列为:
    ρxy=x(n)y(nl) \rho_{xy}=\sum_{-\infty}^{\infty}x(n)y(n-l)
    那么互相关函数就是描述在连续信号或离散序列的相关程度的一种统计度量。

    什么是相关系数?

    最熟悉的度量两个量之间的相关性的方法是皮尔逊乘积矩相关系数(PPMCC),也称为“皮尔逊相关系数”,通常简称为“相关系数”。在数学上,它被定义为对原始数据的最小二乘拟合的质量(拟合程度或效果)。它是由数据集两个变量的协方差的比率,归一化到他们的方差的平方根得到的。数学上,两个变量的协方差除以标准差的乘积。

    皮尔逊积矩相关系数试图通过两个随机序列的数据集建立一条最佳拟合曲线,实质上是通过列出期望和由此产生的皮尔逊相关系数表明实际数据集离预期值有多远。根据皮尔逊相关系数的符号,如果数据集的变量之间存在某种关系,可以得到负相关或正相关。其定义公式如下:
    ρxy=corr(X,Y)=cov(X,Y)σXσY \rho_{xy}=corr(X,Y)=\frac{cov(X,Y)}{{\sigma_{X}}{\sigma_{Y}}}
    上述公式展开为:
    ρxy=E[(XX)(YY)]σXσY \rho_{xy}=\frac{E[(X-\overline{X})(Y-\overline{Y})]}{{\sigma_{X}}{\sigma_{Y}}}
    在根据期望计算公式展开,就得到:
    ρxy=i=1n[x(i)x][y(i)y]i=1n[x(i)x]2i=1n[y(i)y]2 \rho_{xy}=\frac{\sum_{i=1}^{n}[x(i)-\overline{x}]\ast[y(i)-\overline{y}]}{\sqrt{\sum_{i=1}^{n}[x(i)-\overline{x}]^2}\sqrt{\sum_{i=1}^{n}[y(i)-\overline{y}]^2}}
    如果考察延迟d处的互相关ρxy\rho_{xy},则上述公式就变为:
    ρxy=i=1n[x(i)x][y(id)y]i=1n[x(i)x]2i=1n[y(id)y]2 \rho_{xy}=\frac{\sum_{i=1}^{n}[x(i)-\overline{x}]\ast[y(i-d)-\overline{y}]}{\sqrt{\sum_{i=1}^{n}[x(i)-\overline{x}]^2}\sqrt{\sum_{i=1}^{n}[y(i-d)-\overline{y}]^2}}
    为了方便理解,本文就不考察延迟节拍了。

    相关系数有啥用?

    皮尔逊相关系数的绝对值不大于1是Cauchy–Schwarz不等式的推论(有兴趣的可以去找书看看)。因此,相关系数的值在[-1,1]之间。在理想的增加线性相关关系情况下,相关系数为+1;在理想的减少(反相关)线性关系情况下,相关系数为-1;在所有其他取值情况下,表示变量之间的线性相关程度。当它接近零时,更接近于不相关。系数越接近-1或1,变量之间的相关性越强。

    故,相关系数其值范围分布在区间[-1,1]:

    • 1表示完全正相关
    • 0表示不相关
    • -1表示完全负相关

    为了方便理解,假定两个随机序列按照下面各类情况分布,下面的数字为相关系数:
    在这里插入图片描述

    程序如何实现呢?

    上述公式在实际编程时,当然可以直接按照公式编制代码,如果仔细观察会发现该公式可以进一步简化,过程省略:
    ρxy=nxiyixiyi[nxi2(xi)2][nyi2(yi)2] \rho_{xy}=\frac{n\sum x_iy_i-\sum x_i\sum y_i}{\sqrt{[n\sum x_i^2-(\sum x_i)^2][n\sum y_i^2-(\sum y_i)^2]}}
    由这个公式就很容易编程了,干货在这里,可以拿去稍加改造即可使用:

    #include <stdio.h>
    #include <math.h>
    
    /* 返回值在区间: [-1,1]          */
    /* 如返回-10,则证明输入参数无效    */
    #define delta 0.0001f
    double calculate_corss_correlation(double *s1, double *s2,int n)
    {
        double sum_s12 = 0.0;
        double sum_s1  = 0.0;
        double sum_s2  = 0.0;
        double sum_s1s1 = 0.0; //s1^2
        double sum_s2s2 = 0.0; //s2^2
        double pxy = 0.0;
        double temp1 = 0.0;
        double temp2 = 0.0;
        
        if( s1==NULL || s2==NULL || n<=0)
          return -10;
        
        for(int i=0;i<n;i++)
        {
             sum_s12  += s1[i]*s2[i];
             sum_s1   += s1[i];
             sum_s2   += s2[i];
             sum_s1s1 += s1[i]*s1[i]; 
             sum_s2s2 += s2[i]*s2[i]; 
        }
        
        temp1 = n*sum_s1s1-sum_s1*sum_s1;
        temp2 = n*sum_s2s2-sum_s2*sum_s2;
        
        /* 分母不可为0 */
        if( (temp1>-delta && temp1<delta) || 
            (temp2>-delta && temp2<delta) ||
            (temp1*temp2<=0) )
        {
            return -10;  
        }       
        
        pxy = (n*sum_s12-sum_s1*sum_s2)/sqrt(temp1*temp2);
        
        return pxy;
    }
    double s1[30] = {
    0.309016989,0.587785244,0.809016985,0.95105651,1,0.951056526,
    0.809017016,0.587785287,0.30901704,5.35898E-08,0,0,
    0,0,0,0,0,0,
    0,0,0,0,0,0,
    0,0,0,0,0,0
    };
    double s2[30] = {
    0.343282816,0.686491368,0.874624132,0.99459642,1.008448609,
    1.014252458,0.884609221,0.677632906,0.378334666,0.077878732,
    0.050711886,0.066417083,0.088759401,0.005440732,0.04225661,
    0.035349939,0.0631196,0.007566056,0.053183895,0.073143706,
    0.080285063,0.030110227,0.044781145,0.01875573,0.08373928,
    0.04550342,0.038880858,0.040611891,0.046116826,0.087670453
    };
    
    int main(void)
    {
        double pxy;
        double s3[30];
    
        pxy = calculate_corss_correlation(s1,s2,30);
        printf("pxy of s1 and s2:%f\n",pxy);  
        
        pxy = calculate_corss_correlation(s1,s1,30);
        printf("pxy of s1 and s1:%f\n",pxy);  
    
        for(int i=0;i<n;i++)
        {
            s3[i] = -1*s1[i];
        }
        pxy = calculate_corss_correlation(s1,s3,30);
        printf("pxy of s1 and s3:%f\n",pxy);  
        
        return 0;
    }
    

    运行结果为:

    pxy of s1 and s2:0.997435
    pxy of s1 and s1:1.000000
    pxy of s1 and s1:-1.000000
    

    将这三个信号绘制成波形来看看:
    在这里插入图片描述

    由图看出:

    • S1与S2非常相似,其相关系数为0.997435,高度相似
    • S1与-S1则刚好相位相反,理想反相关,其相关系数为-1
    • S1与S1则理所当然是一样的,其相关系数为1

    再来一组信号对比一下:
    在这里插入图片描述

    其波形数据为:

    double s1[30]={
        0.309016989,0.587785244,0.809016985,0.95105651,1,
        0.951056526,0.809017016,0.587785287,0.30901704,5.35898E-08,
        0,0,0,0,0,
        0,0,0,0,0,
        0,0,0,0,0,
        0,0,0,0,0
    };
    double s6[30]={
        0,0,0.187381311,0.368124547,0.535826787,
        0.684547097,0.809016985,0.904827044,0.968583156,0.998026727,
        0.992114705,0.951056526,0,0,0,
        0,0,0,0,0,
        0,0,0,0,0,
        0,0,0,0,0
    };
    double s7[30]={
        0.187381311,0.368124547,0.535826787,0.684547097,0.809016985,
        0.904827044,0.968583156,0.998026727,0.992114705,0.951056526,
        0.876306697,0.770513267,0.637424022,0.481753714,0,
        0,0,0,0,0,
        0,0,0,0,0,
        0,0,0,0,0
    };
    

    测试计算其相关系数:

    pxy of s1 and s6:0.402428
    pxy of s1 and s7:0.612618
    

    可见,S6、S7与S1的相关系数越来越大,从波形上看相似度也越来越大。

    总结一下

    通过相关系数可以比较完美的判断两个信号序列,或者两个随机变量之间的相似度。相关系数以及互相关函数应用很广,本文仅仅描述了一个工程上应用较多的实际栗子。事实上,该数学特性有着广泛的应用,有兴趣的可以深度学习探讨一下。

    展开全文
  • 人工智能数学之信息论

    千次阅读 2019-03-25 22:04:43
    信息论(Information Theory)是概率数理统计分支,我们主要看信息论人工智能中的应用,所以目前只关注相关的信息。例如基于信息增益的决策树,最大熵模型, 特征工程中特征选取时用到的信息,模型损失函数的...

    信息论

      信息论(Information Theory)是概率数理统计分支,我们主要看信息论在人工智能中的应用,所以目前只关注相关的信息。例如基于信息增益的决策树,最大熵模型, 特征工程中特征选取时用到的互信息,模型损失函数的交叉熵(cross-entropy)。信息论中log默认以2为底。

    基础

    1.熵

      直观来说熵就是表示事情不确定性的因素度量,熵越大不确定性就越大,而不确定性越大,带来的信息则越多,所以在熵越高,带来的信息越多,不确定性越强。但是确定的东西,带来的不确定性很小,信息也很少,所以熵很低。熵=不确定性=信息量。他们三个成正比例。例如太阳东升西落,熵就为0。一枚质地均匀的硬币,正反面的出现,熵就为1。
    公式
      设X为离散随机变量,概率分布:
      P ( X = xi ) = pi, i = 1,2,3,…,n
      则随机变量X的熵为:
      H(p) = -∑ pi * log pi
      由上式可以得出,太阳东升西落、硬币正反面的熵运算。

    2.条件熵

      信息增益理解之前我们要理解一下条件熵,信息增益字面理解,信息增加后对最后的目标结果有多大的益处。也就是说通过选择合适的X特征作为判断信息,让Y的不确定性减少的程度越大,则选择出的X越好。而条件熵H(Y|X)表达就是给定X后,Y的不确定性是多少。
      H ( Y | X ) = -∑ pi * H ( Y | X = xi )
      这里 pi = P( X = xi ) ,i = 1,2,…,n
      熵和条件熵中的概率如果通过估计得到,例如极大似然估计,则熵和条件熵将会,变名字经验熵和经验条件熵。

    交叉熵损失函数

      交叉熵被设置为模型的损失函数,表示的两个概率分布的相似程度,交叉熵越小代表预测的越接近真实。q(x)代表的是预测概率,p(x)代表的是真实概率。
    在这里插入图片描述
    二分类问题交叉熵公式
      L=−[ylog y^+(1−y)log (1−y^)]
      y^代表预测的正例概率。y代表真实标签。模型可以是逻辑回归或者是神经网络,输出值映射成概率值需要sigmoid函数。所以如果二分类的标签值是0和1。则公式可以写成。
      L=−log y^,y=1时,L值和预测值之间的图像
    在这里插入图片描述
      从图上我们可以看出,当预测值接近1,也就是接近真实值的时候,L交叉熵损失函数值越接近于0。这样我们可以直观的看出,交叉熵损失函数是如何表征了预测值到真实值之间的差距。

    信息增益

      信息增益直观来说就是当给了你一条信息X,这条信息对你理解另一条信息Y有没有帮助,如果有帮助,则会使你对信息Y的理解加深,不理解的信息减少。则信息增益就等于Y的熵给定X后Y的熵。公式如下:
      IG(Y|X) = H(Y)-H(Y|X)
      信息增益作为决策树模型中的核心算法,是决策树模型中非叶子节点选择特征的重要评判标准,简单说一下决策树,决策树模型作为基于实例的模型,主要是叶节点(目标值或者目标类别),非叶节点是用于判断实例的特征属性。之后将依据信息论详细介绍决策树模型。

    信息增益率

    互信息(Mutual Information)

      概率中两个随机变量的互信息是描述两个变量之间依赖性的度量。它也决定着两个变量的联合概率密度P(XY)与各自边际概率
      P(X)和P(Y)乘积的相似程度。我们可以从概率学的知识了解到,如果X和Y之间相互独立,P(X)P(Y) = P(XY)。和相关系数不同,它不仅能获得线性关系,还可以获得非线性关系。互信息公式如下:
    在这里插入图片描述
      下图为连续型随机变量互信息的公式:
    在这里插入图片描述
      p(x,y) 当前是 X 和 Y 的联合概率密度函数,而p(x)和p(y)分别是 X 和 Y 的边缘概率密度函数。

      直观来说,互信息就是度量当已知一个信息,会对另一个信息的不确定性减少的程度,如果XY相互独立,则X不会减少Y的不确定性,互信息为0。所以互信息是非负的。

    展开全文
  • PT80-NEAT开发指南v1.1

    2014-06-24 18:38:34
    使用 NEAT 工程向导建立应用程序 ........................................................................................................ 5 编译及运行程序(模拟器下) ......................................
  • 实例006 在工程中查找文本 实例007 定制编程环境 1.2 VB应用程序开发步骤 实例008 创建或打开新工程 实例009 建立并设计用户界面 实例010 添加程序代码 实例011 运行调试程序 实例012 保存程序并生成可...
  • 实例006 在工程中查找文本 实例007 定制编程环境 1.2 VB应用程序开发步骤 实例008 创建或打开新工程 实例009 建立并设计用户界面 实例010 添加程序代码 实例011 运行调试程序 实例012 保存程序并生成可...
  • 1.3 鼠标操作实际中的应用 实例015 隐藏和显示鼠标 实例016 鼠标双击窗体时模拟键盘tab键操作 实例017 使用鼠标拖放复制文本 实例018 利用鼠标绘图 实例019 模拟鼠标操作 实例020 实现鼠标穿透窗体 第2章 键盘操作...
  • 1.3 鼠标操作实际中的应用 实例015 隐藏和显示鼠标 实例016 鼠标双击窗体时模拟键盘tab键操作 实例017 使用鼠标拖放复制文本 实例018 利用鼠标绘图 实例019 模拟鼠标操作 实例020 实现鼠标穿透窗体 第2章 键盘操作...
  • 实例172 事务插入多表学生信息数据中的应用 实例173 添加多条供求信息数据中设置事务的保存点 实例174 存储过程级别事务会员基本信息注册中的应用 6.2 新型事务:System.Transactions事务性编程模型 实例...
  • 实例172 事务插入多表学生信息数据中的应用 实例173 添加多条供求信息数据中设置事务的保存点 实例174 存储过程级别事务会员基本信息注册中的应用 6.2 新型事务:System.Transactions事务性编程模型 实例...
  • java源码包---java 源码 大量 实例

    千次下载 热门讨论 2013-04-18 23:15:26
     这是个J2ME控制台程序,它能剔除PNG文件中的非关键数据段,减少文件大小从而达到压缩图片的目的。而图片的质量并不会受到损失。使用时候只需控制台窗口执行jar就可以了。 Java 3DMenu 界面源码 5个目标文件 ...
  • 层次查询相关函数 查看执行计划 第章数据插入、删除和修改 数据插入语句 数据修改语句 数据删除语句 伪列使用 和 自增列使用 自增列定义 属性 第章视图 视图作用 视图定义 视图删除 视图...
  • 第五单元:国际3S最新技术应用--介绍ArcGIS9高级应用与river tools河流地形绘制软件及GIS最新技术水文、地质和生态与可持续发展中的应用及答疑:(4-6课时) 1)地统计应用与ArcGIS地统计分析;2). 遥感与GIS...
  • java源码包2

    千次下载 热门讨论 2013-04-20 11:28:17
     这是个J2ME控制台程序,它能剔除PNG文件中的非关键数据段,减少文件大小从而达到压缩图片的目的。而图片的质量并不会受到损失。使用时候只需控制台窗口执行jar就可以了。 Java 3DMenu 界面源码 5个目标文件 ...
  • 1.8 C#.NET企业体系结构中的作用 1.9 小结 第2章 C#基础 2.1 引言 2.2 第一个C#程序 2.2.1 代码 2.2.2 编译并运行程序 2.2.3 详细介绍 2.3 变量 2.3.1 变量的初始化 2.3.2 类型推断 2.3.3 变量的作用域 2.3.4 常量...
  • java源码包3

    千次下载 热门讨论 2013-04-20 11:30:13
     这是个J2ME控制台程序,它能剔除PNG文件中的非关键数据段,减少文件大小从而达到压缩图片的目的。而图片的质量并不会受到损失。使用时候只需控制台窗口执行jar就可以了。 Java 3DMenu 界面源码 5个目标文件 ...
  • java源码包4

    千次下载 热门讨论 2013-04-20 11:31:44
     这是个J2ME控制台程序,它能剔除PNG文件中的非关键数据段,减少文件大小从而达到压缩图片的目的。而图片的质量并不会受到损失。使用时候只需控制台窗口执行jar就可以了。 Java 3DMenu 界面源码 5个目标文件 ...
  • J2ME优化压缩PNG文件 4个目标文件 内容索引:JAVA源码,综合应用,J2me游戏,PNG,图形处理 这是个J2ME控制台程序,它能剔除PNG文件中的非关键数据段,减少文件大小从而达到压缩图片的目的。而图片的质量并不会受到损失...

空空如也

空空如也

1 2 3
收藏数 43
精华内容 17
关键字:

互相关函数在工程中的应用