精华内容
参与话题
问答
  • ISO9001:2015正式版标准下载 中文版

    热门讨论 2015-10-26 19:34:34
    ISO9001:2015正式版标准,iso90012015版标准于9月发布,这里是中文翻译版,最新的国标还在翻译中,iso9001最新 标准下载 正式版标准,本标准仅供参考!
  • IEEE 802.11标准全部版本(无线局域网协议标准)

    千次下载 热门讨论 2009-05-19 14:20:32
    IEEE 802.11标准全部版本(无线局域网协议标准),这是俺在IEEE的官方网站上收集的哦。。。
  • ISO27001-2013-中文版本,属于标准类,有助于相关人员工作查阅
  • 三种常用数据标准化方法

    万次阅读 多人点赞 2017-04-15 17:42:41
    引入 评价是现代社会各领域的一项经常性的工作,是科学做出管理决策的重要依据。随着人们研究领域的不断扩大,所面临的评价对象日趋复杂,如果仅依据单一指标对事物进行评价往往不尽合理,必须全面地从整体的角度...

    引入

    评价是现代社会各领域的一项经常性的工作,是科学做出管理决策的重要依据。随着人们研究领域的不断扩大,所面临的评价对象日趋复杂,如果仅依据单一指标对事物进行评价往往不尽合理,必须全面地从整体的角度考虑问题,多指标综合评价方法应运而生。所谓多指标综合评价方法,就是把描述评价对象不同方面的多个指标的信息综合起来,并得到一个综合指标,由此对评价对象做一个整体上的评判,并进行横向或纵向比较。

    而在多指标评价体系中,由于各评价指标的性质不同,通常具有不同的量纲和数量级。当各指标间的水平相差很大时,如果直接用原始指标值进行分析,就会突出数值较高的指标在综合分析中的作用,相对削弱数值水平较低指标的作用。因此,为了保证结果的可靠性,需要对原始指标数据进行标准化处理。

    目前数据标准化方法有多种,归结起来可以分为直线型方法(如极值法、标准差法)、折线型方法(如三折线法)、曲线型方法(如半正态性分布)。不同的标准化方法,对系统的评价结果会产生不同的影响,然而不幸的是,在数据标准化方法的选择上,还没有通用的法则可以遵循

    常见的方法有:min-max标准化(Min-max normalization),log函数转换,atan函数转换,z-score标准化(zero-mena normalization,此方法最为常用),模糊量化法。本文只介绍min-max法(规范化方法),z-score法(正规化方法),比例法(名字叫啥不太清楚,归一化方法)。

     

    数据的标准化(normalization)是将数据按比例缩放,使之落入一个小的特定区间。在某些比较和评价的指标处理中经常会用到,去除数据的单位限制,将其转化为无量纲的纯数值,便于不同单位或量级的指标能够进行比较和加权。其中最典型的就是数据的归一化处理,即将数据统一映射到[0,1]区间上,常见的数据归一化的方法有:min-max标准化(Min-maxnormalization)也叫离差标准化,是对原始数据的线性变换,使结果落到[0,1]区间,转换函数如下:其中max为样本数据的最大值,min为样本数据的最小值。这种方法有一个缺陷就是当有新数据加入时,可能导致max和min的变化,需要重新定义。log函数转换通过以10为底的log函数转换的方法同样可以实现归一下,具体方法如下:看了下网上很多介绍都是x*=log10(x),其实是有问题的,这个结果并非一定落到[0,1]区间上,应该还要除以log10(max),max为样本数据最大值,并且所有的数据都要大于等于1。atan函数转换用反正切函数也可以实现数据的归一化:使用这个方法需要注意的是如果想映射的区间为[0,1],则数据都应该大于等于0,小于0的数据将被映射到[-1,0]区间上。而并非所有数据标准化的结果都映射到[0,1]区间上,其中最常见的标准化方法就是Z标准化,也是SPSS中最为常用的标准化方法:z-score 标准化(zero-meannormalization)也叫标准差标准化,经过处理的数据符合标准正态分布,即均值为0,标准差为1,其转化函数为:其中μ为所有样本数据的均值,σ为所有样本数据的标准差。

     


    1 什么是数据标准化(Normalization

    将数据按比例缩放,使之落入一个小的特定区间。在某些比较评价的指标处理中经常会用到,去除数据的单位限制,将其转化为无量纲的纯数值便于不同单位或量级的指标能够进行比较和加权

    2 有哪些常用方法呢?

    方法一:规范化方法

    pic1

    •  也叫离差标准化,是对原始数据的线性变换,使结果映射到[0,1]区间。

    方法二:正规化方法pic2

    • 这种方法基于原始数据的均值(mean)和标准差(standard deviation)进行数据的标准化。将A的原始值x使用z-score标准化到x’。
    • z-score标准化方法适用于属性A的最大值和最小值未知的情况,或有超出取值范围的离群数据的情况。
    • spss默认的标准化方法就是z-score标准化。
    • 用Excel进行z-score标准化的方法:在Excel中没有现成的函数,需要自己分步计算,其实标准化的公式很简单。

    步骤如下:
    1.求出各变量(指标)的算术平均值(数学期望)xi和标准差si ;
    2.进行标准化处理:
    zij=(xij-xi)/si
    其中:zij为标准化后的变量值;xij为实际变量值。
    3.将逆指标前的正负号对调。
    标准化后的变量值围绕0上下波动,大于0说明高于平均水平,小于0说明低于平均水平。


    方法三:归一化方法

    pic3

    http://yuenshome.sinaapp.com/2014/08/三种常用数据标准化方法/

    展开全文
  • 归一化和标准化区别

    千次阅读 2019-07-03 01:36:29
    作者:小松 ...来源:知乎 著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。 归一化:对数据的数值范围进行特定缩放,但不改变其数据分布的一种线性特征变换。 ...1.min-max 归一化:将数值范围...

    作者:小松
    链接:https://www.zhihu.com/question/20467170/answer/463834078
    来源:知乎
    著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
     

    归一化:对数据的数值范围进行特定缩放,但不改变其数据分布的一种线性特征变换。

    1.min-max 归一化:将数值范围缩放到(0,1),但没有改变数据分布;

    min-max归一化

    2. z-score 归一化:将数值范围缩放到0附近, 但没有改变数据分布;

    z-score归一化

    标准化:对数据的分布的进行转换,使其符合某种分布(比如正态分布)的一种非线性特征变换。

    1. box-cox标准化:

    box-cox标注化

     


    作者:无影随想 
    时间:2016年1月。 
    出处:https://zhaokv.com/machine_learning/2016/01/normalization-and-standardization.html
    声明:版权所有,转载请注明出处

    在机器学习和数据挖掘中,经常会听到两个名词:归一化(Normalization)与标准化(Standardization)。它们具体是什么?带来什么益处?具体怎么用?本文来具体讨论这些问题。

    一、是什么

    1. 归一化

    常用的方法是通过对原始数据进行线性变换把数据映射到[0,1]之间,变换函数为:

    x′=x−minmax−minx′=x−minmax−min

    其中minmin是样本中最小值,maxmax是样本中最大值,注意在数据流场景下最大值与最小值是变化的。另外,最大值与最小值非常容易受异常点影响,所以这种方法鲁棒性较差,只适合传统精确小数据场景。

    2. 标准化

    常用的方法是z-score标准化,经过处理后的数据均值为0,标准差为1,处理方法是:

    x′=x−μσx′=x−μσ

    其中μμ是样本的均值,σσ是样本的标准差,它们可以通过现有样本进行估计。在已有样本足够多的情况下比较稳定,适合现代嘈杂大数据场景。

    二、带来什么

    归一化的依据非常简单,不同变量往往量纲不同,归一化可以消除量纲对最终结果的影响,使不同变量具有可比性。比如两个人体重差10KG,身高差0.02M,在衡量两个人的差别时体重的差距会把身高的差距完全掩盖,归一化之后就不会有这样的问题。

    标准化的原理比较复杂,它表示的是原始值与均值之间差多少个标准差,是一个相对值,所以也有去除量纲的功效。同时,它还带来两个附加的好处:均值为0,标准差为1。

    均值为0有什么好处呢?它可以使数据以0为中心左右分布(这不是废话嘛),而数据以0为中心左右分布会带来很多便利。比如在去中心化的数据上做SVD分解等价于在原始数据上做PCA;机器学习中很多函数如SigmoidTanhSoftmax等都以0为中心左右分布(不一定对称)。

    标准差为1有什么好处呢?这个更复杂一些。对于xixi与xi′xi′两点间距离,往往表示为

    D(xi,xi′)=∑j=1pwj⋅dj(xij,xi′j);∑j=1pwj=1D(xi,xi′)=∑j=1pwj⋅dj(xij,xi′j);∑j=1pwj=1

    其中dj(xij,xi′j)dj(xij,xi′j)是属性jj两个点之间的距离,wjwj是该属性间距离在总距离中的权重,注意设wj=1,∀jwj=1,∀j并不能实现每个属性对最后的结果贡献度相同。对于给定的数据集,所有点对间距离的平均值是个定值,即

    D¯=1N2∑i=1N∑i′=1ND(xi,xi′)=∑j=1pwj⋅d¯jD¯=1N2∑i=1N∑i′=1ND(xi,xi′)=∑j=1pwj⋅d¯j

    是个常数,其中

    d¯j=1N2∑i=1N∑i′=1Ndj(xij,xx′j)d¯j=1N2∑i=1N∑i′=1Ndj(xij,xx′j)

    可见第jj个变量对最终整体平均距离的影响是wj⋅d¯jwj⋅d¯j,所以设wj∼1/d¯jwj∼1/d¯j可以使所有属性对全数据集平均距离的贡献相同。现在设djdj为欧式距离(或称为二范数)的平方,它是最常用的距离衡量方法之一,则有

    dj¯=1N2∑i=1N∑i′=1N(xij−xi′j)2=2⋅varjdj¯=1N2∑i=1N∑i′=1N(xij−xi′j)2=2⋅varj

    其中varjvarj是Var(Xj)Var(Xj)的样本估计,也就是说每个变量的重要程度正比于这个变量在这个数据集上的方差。如果我们让每一维变量的标准差都为1(即方差都为1),每维变量在计算距离的时候重要程度相同。

    三、怎么用

    在涉及到计算点与点之间的距离时,使用归一化或标准化都会对最后的结果有所提升,甚至会有质的区别。那在归一化与标准化之间应该如何选择呢?根据上一节我们看到,如果把所有维度的变量一视同仁,在最后计算距离中发挥相同的作用应该选择标准化,如果想保留原始数据中由标准差所反映的潜在权重关系应该选择归一化。另外,标准化更适合现代嘈杂大数据场景。

    展开全文
  • 标准化和归一化的区别

    千次阅读 2019-08-20 18:47:37
    一、是什么? 1.归一化  是为了将数据映射到0~1之间,去掉量纲的过程,让计算更加合理,不会因为量纲问题导致1米与100mm产生不同。  归一化是线性模型做数据预处理的关键步骤,比如LR,非线性的就不用归一化...

    一、是什么?

    1. 归一化

      是为了将数据映射到0~1之间,去掉量纲的过程,让计算更加合理,不会因为量纲问题导致1米与100mm产生不同。

      归一化是线性模型做数据预处理的关键步骤,比如LR,非线性的就不用归一化了。

         归一化就是让不同维度之间的特征在数值上有一定比较性,可以大大提高分类器的准确性。

    缺点:这种方法有个缺陷就是当有新数据加入时,可能导致max和min的变化,需要重新定义。

    另外,最大值与最小值非常容易受异常点影响,所以这种方法鲁棒性较差,只适合传统精确小数据场景

    2. z-标准化

      消除分布产生的度量偏差,例如:班级数学考试,数学成绩在90-100之间,语文成绩在60-100之间,那么,小明数学90,语文100,小花数学95,语文95,如何评价两个综合成绩好坏的数学处理方式。

     

    二、怎么选?

    1. 标准化

    • 标准化更好保持了样本间距。当样本中有异常点时,归一化有可能将正常的样本“挤”到一起去。比如三个样本,某个特征的值为1,2,10000,假设10000这个值是异常值,用归一化的方法后,正常的1,2就会被“挤”到一起去。如果不幸的是1和2的分类标签还是相反的,那么,当我们用梯度下降来做分类模型训练时,模型会需要更长的时间收敛,因为将样本分开需要更大的努力!而标准化在这方面就做得很好,至少它不会将样本“挤到一起”。
    • 标准化更符合统计学假设:对一个数值特征来说,很大可能它是服从正态分布的。标准化其实是基于这个隐含假设,只不过是略施小技,将这个正态分布调整为均值为0,方差为1的标准正态分布而已。

    (1)逻辑回归必须要进行标准化吗?

    答案:这取决于我们的逻辑回归是不是用正则。

      如果你不用正则,那么,标准化并不是必须的,如果你用正则,那么标准化是必须的。(暗坑3)
      为什么呢?
      因为不用正则时,我们的损失函数只是仅仅在度量预测与真实的差距,加上正则后,我们的损失函数除了要度量上面的差距外,还要度量参数值是否足够小。而参数值的大小程度或者说大小的级别是与特征的数值范围相关的。举例来说,我们用体重预测身高,体重用kg衡量时,训练出的模型是: 身高 = 体重*x ,x就是我们训练出来的参数。
    当我们的体重用吨来衡量时,x的值就会扩大为原来的1000倍。
      在上面两种情况下,都用L1正则的话,显然对模型的训练影响是不同的。

      假如不同的特征的数值范围不一样,有的是0到0.1,有的是100到10000,那么,每个特征对应的参数大小级别也会不一样,在L1正则时,我们是简单将参数的绝对值相加,因为它们的大小级别不一样,就会导致L1最后只会对那些级别比较大的参数有作用,那些小的参数都被忽略了。

      如果你回答到这里,面试官应该基本满意了,但是他可能会进一步考察你,如果不用正则,那么标准化对逻辑回归有什么好处吗?

      答案是有好处,进行标准化后,我们得出的参数值的大小可以反应出不同特征对样本label的贡献度,方便我们进行特征筛选。如果不做标准化,是不能这样来筛选特征的。

      答到这里,有些厉害的面试官可能会继续问,做标准化有什么注意事项吗?

      最大的注意事项就是先拆分出test集,不要在整个数据集上做标准化,因为那样会将test集的信息引入到训练集中,这是一个非常容易犯的错误!
     

    举例:简单的预测房价的线性回归模型:

      有一组关于房价和房子变量的数据集,通过房子的面积,房间数量,房子的层数来预测房价。

      占地面积1800尺,房间数量3间,房子层数2层-> 房价?;为了方便对比,我们分别看一下标准化前和标准化后的模型输出分布是怎么样的。

      可以看出,标准化前后变量的系数不同,误差不同,但是R平方,和变量的t值是相同的

      现在我们来预测一个1590尺,3个卧室,3层的房屋

      我们发现预测出来的房价是一样的。
      这时你一定会想,既然结果都一样,做不做标准化,都一样嘛。说到这里,我们再看一下,建模时寻找最优解的时间吧。

      为什么标准化后的建模时间会短呢?这时候就要说起寻找系数最优解-梯度下降法。

      标准化前,由于变量的单位相差很大,导致了椭圆型的梯度轮廓。标准化后,把变量变成统一单位,产生了圆形轮廓。由于梯度下降是按切线方向下降,所以导致了系统在椭圆轮廓不停迂回地寻找最优解,而圆形轮廓就能轻松找到了。

      还有一种比较极端的情况,有时没做标准化,模型始终找不到最优解,一直不收敛。

    (2)PCA需要标准化吗?

      我们再来看一下,如果将预测房价的变量,用PCA方法来降维,会不会对结果产生影响。

      我们看出在标准化前,用一个成分就能解释99%的变量变化,而标准化后一个成分解释了75%的变化。 主要原因就是在没有标准化的情况下,我们给了居住面积过大权重,造成了这个结果。

    (3)Kmeans,KNN需要标准化吗?

      Kmeans,KNN一些涉及到距离有关的算法,或者聚类的话,都是需要先做变量标准化的。

      举例:我们将3个城市分成两类,变量有面积和教育程度占比;三个城市分别是这样的:

      城市A,面积挺大,但是整天发生偷盗抢劫,教育程度低;
      城市B,面积也挺大,治安不错,教育程度高;
      城市C,面积中等,治安也挺好,教育程度也挺高;

      我们如果不做标准化,直接做聚类模型的话,A城市和B城市分在一块儿了,你想想,一个治安挺好的城市和一个整体偷盗抢劫城市分在一起,实在是有点违反常理。

    总结:

      在分类、聚类算法中,需要使用距离来度量相似性的时候、或者使用PCA技术进行降维的时候,Z-score standardization表现更好

    基于树的模型不需要标准化;

    用到正则的线性模型一定要标准化,没用到正则的线性模型不一定要标准化, 但标准化可以加快收敛;

    基于距离或聚类需要先做标准化,如KNN、kmeans

    PCA最好先做标准化

     

    2. 归一化

      模型算法里面有没关于对距离的衡量,没有关于对变量间标准差的衡量。比如decision tree 决策树,他采用算法里面没有涉及到任何和距离等有关的,所以在做决策树模型时,通常是不需要将变量做标准化的。

      在不涉及距离度量、协方差计算、数据不符合正太分布的时候,可以使用归一化方法。比如图像处理中,将RGB图像转换为灰度图像后将其值限定在[0 255]的范围。有时候,我们必须要特征在0到1之间,此时就只能用归一化。有种svm可用来做单分类,里面就需要用到归一化。

     

    三、怎么用?

    ?

    1

    2

    3

    4

    5

    6

    7

    8

    9

    10

    11

    12

    13

    14

    15

    16

    17

    18

    19

    20

    21

    22

    23

    24

    25

    26

    27

    #导入数据到data变量中

    import pandas

    data = pandas.read_csv('路径.csv')

     

    #(一)Min-Max 标准化

     

    from sklearn.preprocessing import MinMaxScaler

    #初始化一个scaler对象

    scaler = MinMaxScaler()

    #调用scaler的fit_transform方法,把我们要处理的列作为参数传进去

     

    data['标准化后的A列数据'] = scaler.fit_transform(data['A列数据'])

    data['标准化后的B列数据'] = scaler.fit_transform(data['B列数据'])

     

    #(二)Z-Score标准化 (可在scale中直接实现)

     

    from sklearn.preprocessing import scale

    data['标准化后的A列数据'] = scale(data['A列数据'])

    data['标准化后的B列数据'] = scale(data['B列数据'])

     

    # (三) Normalizer归一化

     

    from sklearn.preprocessing import Normalizer

    scaler = Normalizer()

    #归一化可以同时处理多个列,所以[0]第一个进行赋值

    data['归一化后的A列数据'] = scaler.fit_transform(data['A列数据'])[0]

    data['归一化后的B列数据'] = scaler.fit_transform(data['B列数据'])[0]

      

     

    参考文献:

    【1】关于数据建模变量标准化

    【2】机器学习面试之归一化与标准化

    【3】[机器学习] 数据特征 标准化和归一化

    展开全文
  • 中心化和标准

    千次阅读 2018-09-03 20:55:01
    1 为什么会谈到中心化和标准化呢? 因为在阅读《推荐系统》一书,学习“改进余弦相似度”和“Pearson”相关系数时,都谈到了减去均值(当然两者中用到的,是不同的均值)。这便是“中心化”,至于标准化,是在搜索...

    1 为什么会谈到中心化和标准化呢?

    因为在阅读《推荐系统》一书,学习“改进余弦相似度”和“Pearson”相关系数时,都谈到了减去均值(当然两者中用到的,是不同的均值)。这便是“中心化(Zero-centered或者Mean-subtraction(subtraction表示减去)),至于标准化(Standardization或Normalization),是在搜索中心化的内容附带学习的,以这种比较的方式拓展知识面,也是比较有效的。

    2 中心化和标准化是什么?—— 定义

    中心化
    根据侯杰泰的话:所谓中心化, 是指变量减去它的均值(即数学期望值)。对于样本数据,将一个变量的每个观测值减去该变量的样本平均值,变换后的变量就是中心化的。[3]

    标准化
    数值减去均值,再除以标准差

    处理结果
    (1)中心化(零均值化)后的数据均值为零。
    (2)z-score 标准化后的数据均值为0,标准差为1(方差也为1)。

    3 为什么要提出中心化和标准化的方法?

    • 中心化
      1 变量单位 —— 统一单位
      在是为了统一单位,例如有数据集1, 2, 3, 6, 3,其均值为3,那么中心化之后的数据集为1-3,2-3,3-3,6-3,3-3,即:-2,-1,0,3,0。数据中心化是为了消除量纲对数据结构的影响,因为不同变量之间单位不一样,会造成各种统计量的偏误。
      2 模型构建 —— 多重共线
      中心化可以解决模型运行不稳定,最重要的是解决交互项变量和主变量之间的多重共线问题。[4]
      3 增加基向量的正交性
      举例分析
      以PCA为例说下中心化的作用。
      下面两幅图是数据做中心化(centering)前后的对比,可以看到其实就是一个平移的过程,平移后所有数据的中心是(0,0)。
      这里写图片描述
      在做PCA的时候,我们需要找出矩阵的特征向量,也就是主成分(PC)。比如说找到的第一个特征向量是a = [1, 2],a在坐标平面上就是从原点出发到点(1,2)的一个向量。如果没有对数据做中心化,那算出来的第一主成分的方向可能就不是一个可以“描述”(或者说“概括”)数据的方向了。还是看图比较清楚。
      这里写图片描述
      黑色线就是第一主成分的方向。只有中心化数据之后,计算得到的方向才能比较好的“概括”原来的数据。
    • 标准化
      数据标准化(归一化)处理是数据挖掘的一项基础工作,不同评价指标往往具有不同的量纲和量纲单位,这样的情况会影响到数据分析的结果,为了消除指标之间的量纲影响,需要进行数据标准化处理,以解决数据指标之间的可比性。原始数据经过数据标准化处理后,各指标处于同一数量级,适合进行综合对比评价。
      对数据进行标准化,消除特征之间的差异性,也便于一心一意学习权重
      举例分析
      在一些实际问题中,我们得到的样本数据都是多个维度的,即一个样本是用多个特征来表征的。比如在预测房价的问题中,影响房价的因素有房子面积、卧室数量等,我们得到的样本数据就是这样一些样本点,这里的样本点又被称为特征。很显然,这些特征的量纲和数值得量级都是不一样的,在预测房价时,如果直接使用原始的数据值,那么他们对房价的影响程度将是不一样的,而通过标准化处理,可以使得不同的特征具有相同的尺度(Scale)。简言之,当原始数据不同维度上的特征的尺度(单位)不一致时,需要标准化步骤对数据进行预处理。
      .
      下图中以二维数据为例:左图表示的是原始数据;中间的是中心化后的数据,数据被移动到原点周围;右图将中心化后的数据除以标准差,得到标准化后的数据,可以看出每个维度上的尺度是一致的(红色线段的长度表示尺度)。
      这里写图片描述
      图片解释:
    • 左图表示的是原始数据。
    • 中间的是中心化后的数据,可以看出就是一个平移的过程,平移后中心点是(0,0)。同时中心化后的数据对向量也容易描述,因为是以原点为基准的。
    • 右图将中心化后的数据除以标准差,得到为标准化的数据,可以看出每个维度上的尺度是一致的(红色线段的长度表示尺度,右图中的红色横线和竖线,两者长度相等),而没有处理之前的数据是不同的尺度标准。原始数据经过数据标准化处理后,各指标处于同一数量级,适合进行综合对比评价。

    4 中心化和标准化的实际应用有哪些?

    理论研究:
    回归问题、一些机器学习算法,以及训练神经网络的过程中,通常需要对原始数据进行中心化处理和标准化处理。

    [1] 中心化和标准化_CSDN博客
    [2] 数据的中心化和标准化_CSDN博客
    [3] 怎样进行中心化处理_百度知道
    [4] 数据中心化处理的原因Stata专版经管之家(原人大经济论坛)
    [5] 统计学里面的中心化是什么意思知乎_百度知道
    [6] 数据什么时候需要中心化和标准化处理?- 知乎

    展开全文
  • 归一化化定义:归一化化就是要把你需要处理的数据经过处理后(通过某种算法)限制在你需要的一定范围内。归一化的原因是什么那: 一是为了后面数据处理的方便,把不同量纲的东西放在同一量纲下比较,即把...特征标准
  • 数据标准化/归一化normalization

    万次阅读 多人点赞 2016-08-19 09:42:40
    这里主要讲连续型特征归一化的常用方法。 连续型特征还有一种处理方式是,先分桶/分箱(如等频/等距的分)[待写]进行离散化后再使用离散数据的处理方法。 离散数据处理参考[数据预处理:独热编码(One-Hot ...
  • 方差、协方差、标准差(标准偏差/均方差)、均方误差、均方根误差(标准误差)、均方根值 本文由博主经过查阅网上资料整理总结后编写,如存在错误或不恰当之处请留言以便更正,内容仅供大家参考学习。 方差...
  • 2018.1.19 HAL库详解见STM32之HAL库...到目前为止,有标准外设库(STD库)、HAL库、LL库 三种。前两者都是常用的库,后面的LL库是ST最近才添加,随HAL源码包一起提供,目前支持的芯片也偏少。各库如下所示:   其
  • python 计算均值、方差、标准差 Numpy,Pandas

    万次阅读 多人点赞 2019-10-23 22:58:25
    Numpy 计算均值、方差、标准差2. Pandas 计算均值、方差、标准差 Python 中的 numpy 包 和 pandas 包都能够计算均值、方差等,本文总结一下它们的用法。 1. Numpy 计算均值、方差、标准差 一般的均值可以用 numpy ...
  • 上一节我们利用SPSS中的数据标准化方法及主成分分析法,得出了“解释的总方差”和“成分矩阵”(如下图) 接下来我们将利用主成分分析得出的数据计算指标权重 2、权重计算 (1)输入数据 将主成分分析中得出的“成分...
  • Python求均值,方差,标准

    万次阅读 多人点赞 2018-09-28 00:15:46
    import numpy as np arr = [1,2,3,4,5,6] #求均值 arr_mean = np.mean(arr) #求方差 arr_var = np.var(arr) #求标准差 arr_std = np.std(arr,ddof=1) print("平均值为:%f"...标准差为:%f...
  • 普通正态分布如何转换到标准正态分布

    万次阅读 多人点赞 2019-01-13 22:32:16
    1.普通正态分布转换标准正态分布公式 我们知道正态分布是由两个参数μ\muμ与σ\sigmaσ确定的。对于任意一个服从N(μ,σ2)N(\mu, \sigma^2)N(μ,σ2)分布的随机变量XXX,经过下面的变换以后都可以转化为μ=0,σ=1\...
  • c 标准和c++标准

    万次阅读 多人点赞 2018-08-29 10:16:49
    C语言的发展阶段 C语言之所以命名为C,是因为 C语言源自Ken Thompson发明的B语言,而 B语言则源自BCPL语言。 1967年,剑桥大学的Martin Richards对CPL语言进行了简化,于是产生了BCPL(Basic Combined Programming...
  • C标准:C90、C99、C11

    万次阅读 2014-08-15 16:37:40
    C语言原来是没有统一的标准的,第一个标准是90
  • 国家标准软件开发文档模板

    千次下载 热门讨论 2009-12-02 09:51:47
    国家标准软件开发文档模板,包括:操作手册(GB8567——88)、测试分析报告(GB8567——88)、测试计划(GB8567——88)、概要设计说明书(GB8567——88)、开发进度月报(GB8567——88)、可行性研究报告(GB8567...
  • DICOM:DICOM标准学习路线图(初稿)

    万次阅读 多人点赞 2015-10-18 21:29:48
    背景:近期多次收到网友邮件或私信希望给出一个简单的说明,方便由简到难的来逐步浏览和阅读专栏中的博文。自己按照上述的主线来写,一直以为逻辑还算清晰,但自己回想起来,对于初学者甚至外行来说,专栏整体还不够...
  • DirectX修复工具 V3.3标准 绿色版

    万次下载 热门讨论 2015-05-03 09:43:18
    因此,当您使用标准版数据包时,程序将进行标准修复;当您使用增强版的数据包时,程序将进行增强修复;当数据包不全或没有数据包(即只有DirectX Repair.exe程序)时,程序将进行在线修复。在线修复、离线修复可自由...

空空如也

1 2 3 4 5 ... 20
收藏数 3,778,795
精华内容 1,511,518
关键字:

标准