精华内容
下载资源
问答
  • 比较大小的方法
    千次阅读
    2020-12-31 09:23:18

    比较幂大小的方法

    一、

    转化法:

    1

    比较

    20

    4

    10

    15

    的大小

    分析:

    此题若直接计算,结果太大,不可行

    .

    观察到两个指数分别是

    20

    10

    ,考

    虑到

    20

    10

    2

    倍,

    利用幂的乘方公式,

    可以把要比较的两个幂化为指数相同

    的形式进行比较

    .

    解:

    因为

    20

    2

    10

    10

    4

    (4

    )

    16

    ,

    10

    10

    16

    15

    所以

    20

    10

    4

    15

    【点评】

    比较两个幂的大小,通常有两种方法:一是使它们的底数相同,化为

    同底数幂比较;二是把它们的指数变为相同,通过比较底数来确定幂的大小

    .

    题采用第二种方法

    .

    二、归纳猜想法

    2

    、比较

    1001

    1000

    1000

    1001

    的大小

    分析:

    观察两个幂的关系发现:它们的底数和指数都相差

    1.

    用字母表示一般形

    式,

    即比较

    1

    n

    n

    (

    1)

    n

    n

    的的大小

    (

    n

    为正整数)

    然后从分析

    1

    n

    2

    n

    ,

    3

    n

    等简单形式入手,从而发现规律,通过归纳猜想得出结论

    .

    解:

    比较下列幂的大小:

    2

    1

    1

    2

    ,

    3

    2

    2

    3

    ,

    3

    4

    ,

    5

    4

    4

    5

    ,

    6

    5

    5

    6

    ,

    7

    6

    6

    7

    对上述结果进行归纳可以发现,当

    3

    n

    时,

    1

    n

    n

    (

    1)

    n

    n

    3

    n

    时,

    1

    n

    n

    (

    1)

    n

    n

    ,所以,

    1001

    1000

    1000

    1001

    .

    【点评】

    当已知条件中数据较大时,可抓住式子的特点,用符合原式子特点的

    较小的数来代替较大的数进行研究,

    化繁为简,

    化难为易,

    从中发现规律,

    解决

    问题

    .

    更多相关内容
  • 一般比较大小有两个法则:(1)底数比较法:运用幂的乘方变形为指数相等,底数不同的形式进行比较;(2)指数比较法:运用幂的乘方变形为底数相等,指数不同的形式进行比较。也就是说,在幂的运算中遇到比较大小的题目,...

    在幂的运算中,有一种比较大小类型的题目,数据很大,计算基本上是不可能的事情,会出现几百、几千次方,怎么算?遇到这种题目,不要慌张,巧用幂的有关法则就能比较大小,那么怎么使用呢?一般比较大小有两个法则:(1)底数比较法:运用幂的乘方变形为指数相等,底数不同的形式进行比较;(2)指数比较法:运用幂的乘方变形为底数相等,指数不同的形式进行比较。也就是说,在幂的运算中遇到比较大小的题目,首先想能不能换成同底数或同指数,如果可以的话,基本上问题解决了;如果不能,我们再想其它的办法。

    01指数比较法

    解题前先观察几个幂的特征,主要看幂的底数有没有联系,即是不是同一个数的次方;看幂的指数有没有联系,即是不是一个数的倍数。例题1中,发现底数分别为81,27和9,都和3有关,81是3的4次方,27是3的3次方,9是3的2次方,先把81,27,9转化为底数为3的幂,再根据幂的乘方,底数不变,指数相乘化简.然后根据指数的大小即可比较大小.

    02底数比较法

    本题底数是3、4、5,没有什么特点,但是指数是30、40、50有特点,都是10的倍数,因此我们可以利用幂的乘方将指数都转化为10,然后利用底数的大小进行比较。这两种方法是幂的运算中,比较大小最常用的两种方法。

    03作商法比较大小

    如果上述两种方法不能使用,那就先想一下,以前我们所学的作差法和作商法,作差法常用在比较代数式(主要是整式)的大小,作商法也能比较代数式(主要是分式)的大小。比如例题3中,写成两个幂比的形式,那我们可以试着用作商法比较大小。

    即P、Q(都为正数)比较大小,当P/Q>1时,P>Q;当P/Q=1时,P=Q;当P/Q<1时,P<Q,用它们的商与1进行比较。

    04比较指数的大小

    当底数为参数时,我们可以找数字之间的关系,一般是乘、除、乘方之间的关系,不能是加减关系,找到后转化为幂的关系,然后通过同底数幂的乘法、同底数幂的除法或幂的乘方、积的乘方找字母之间的关系。

    05比较底数大小

    几个正数的相同次幂比较大小,幂的值越大则对应的数就越大。这也是比较幂的大小一种方法,注意灵活使用。

    这是幂的运算中,比较大小的几种方法,巧用幂的有关法则比较大小,这些题目不再是难题。

    展开全文
  • 不同流程方案的环境损耗指数,可作为评价流程环境影响的指标,指数的相对大小能够较客观、真实地反映流程环境友好的程度。同时,以实际案例研究了废气溶剂回收系统的各种方案,并根据EDI的大小筛选出了最优的流程。...
  • 这让我很意外,于是改变了随机种子值,改变训练集的大小,结果发现无一例外它们都是一样的。由此我提出了一个疑问:基尼指数和信息增益是等价的吗? 如果等价,那干嘛还要两个算法?如果不等价,为什么生成的树总是...

    问题提出

    在自己实现决策树算法的时候,发现生成的id3树和cart树一模一样。竟然每个决策节点都选择了同一属性的同一划分。这让我很意外,于是改变了随机种子值,改变训练集的大小,结果发现无一例外它们都是一样的。由此我提出了一个疑问:基尼指数和信息增益是等价的吗?
    如果等价,那干嘛还要两个算法?如果不等价,为什么生成的树总是一样的呢?

    二者比较

    直接取iris数据集中的一部分作为训练集,并指定一个属性作为判断标准。列出一系列对该属性的划分,同时用基尼指数和信息增益作为判断标准进行评价,以此比较两者的区别(此例中训练集大小为100个样本,对0号属性“sepal length”进行划分)
    基尼指数vs信息增益
    ent为信息增益,gini为基尼指数。同时为了便于观察,引入了 1 − g i n i 1-gini 1gini,这样它与ent的意义就更接近:越大越好。
    如果说信息增益和基尼指数等价的话,那么对于每一个划分,两者对于它的评价应该是一致的。这并不意味着它们的数值相等,而是指它们的偏序关系是一致的:如果信息增益认为划分A比划分B好,那么基尼指数也能推出划分A比划分B好。简而言之,它们对一组划分的排序应该是完全一致的。
    所以我们想找的反例就是信息增益认为划分A比划分B好,但基尼指数却得到相反的结论。
    从图中我们可看到,大体上两种标准的趋势是一样的。似乎只要将它们进行y轴上的放缩,就能得到一个不错的拟合。但实际上,如红色箭头标注的那样,两种标准不是完全一致的。信息增益的同时,基尼指数却没有明显提升。可见,它们不是等价的。
    但是它们对于最高点,也就是最优划分的判断是一致的。这又引起人的思考,是不是它们只是在局部有细微差别,但是对最优划分却总是一致呢?

    进一步寻找反例

    经过不断地试探,我找到了一组合适的反例:

    属性值4.45.05.15.16.06.06.16.16.16.36.36.46.56.86.87.7
    类别0100211122222222

    记原始数据集 D   D\, D的信息熵为 E 0 E_{0} E0
    现在考虑两个划分:
    D v 1 Dv_{1} Dv1 :属性值 ≤ 5.55 \le 5.55 5.55 > 5.55 \gt 5.55 >5.55,相应的信息增益记为 E 1 E_{1} E1,基尼指数为 G 1 G_{1} G1
    D v 2 Dv_{2} Dv2 :属性值 ≤ 6.2 \le 6.2 6.2 > 6.2 \gt 6.2 >6.2,相应的信息增益记为 E 2 E_{2} E2,基尼指数为 G 2 G_{2} G2
    经过计算得到:
    E 0 = 1.41973671 E_{0}=1.41973671 E0=1.41973671
    E 1 = 0.60845859 , G 1 = 0.375 E_{1}=0.60845859, \quad G_{1}=0.375 E1=0.60845859,G1=0.375
    E 2 = 0.55883437 , G 2 = 0.36111111 E_{2}=0.55883437, \quad G_{2}=0.36111111 E2=0.55883437,G2=0.36111111
    而且 E 1 E_{1} E1是所有划分中信息增益的最大值, G 2 G_{2} G2是所有划分中基尼指数的最小值
    这就是我们想要的反例:按信息增益,划分 D v 1 Dv_{1} Dv1优于 D v 2 Dv_{2} Dv2 ,但按基尼指数 D v 2 Dv_{2} Dv2优于 D v 1 Dv_{1} Dv1,同时它们都是划分集里的极值,以此形成的id3树和cart树将会不同

    思考

    现在,我们已经确定信息增益和基尼指数不是等价的,而且id3树和cart树不一定总是一样的。但我们还需要进一步思考,造成此种现象的原因。
    回顾定义:
    E n t ( D ) = − ∑ k = 1 d p k log ⁡ 2 p k G i n i ( D ) = 1 − ∑ v = 1 d p v 2 Ent(D)=-\sum^{d}_{k=1}p_{k}\log_{2}p_{k}\\ Gini(D)=1-\sum^{d}_{v=1}p_{v}^{2} Ent(D)=k=1dpklog2pkGini(D)=1v=1dpv2
    信息熵和基尼指数都能反映一个集合的纯度,且集合为单一类别时,两者皆为0;集合中每个元素都取自不同类时,两者都取最大值。
    刚才的例子中划分 D v 1 Dv_{1} Dv1 将集合划分为两个子集 S 11 , S 12 S_{11},S_{12} S11,S12

    属性值4.45.05.15.1
    类别0100
    属性值6.06.06.16.16.16.36.36.46.56.86.87.7
    类别211122222222

    S 11 S_{11} S11的信息增益、基尼系数分别为 E s 11 = 0.81127812 , G s 11 = 0.375 E_{s11}=0.81127812, \quad G_{s11}=0.375 Es11=0.81127812,Gs11=0.375
    S 12 S_{12} S12的信息增益、基尼系数分别为 E s 12 = 0.81127812 , G s 12 = 0.375 E_{s12}=0.81127812, \quad G_{s12}=0.375 Es12=0.81127812,Gs12=0.375
    E 1 = E 0 − 4 16 E s 11 − 12 16 E s 12 , G 2 = 4 16 G s 11 + 12 16 G s 12 E_{1}=E_{0}-\frac{4}{16}E_{s11}-\frac{12}{16}E_{s12}, \quad G_{2}=\frac{4}{16}G_{s11}+\frac{12}{16}G_{s12} E1=E0164Es111612Es12,G2=164Gs11+1612Gs12

    划分 D v 2 Dv_{2} Dv2 将集合划分为两个子集 S 21 , S 22 S_{21},S_{22} S21,S22

    属性值4.45.05.15.16.06.06.16.16.1
    类别010021112
    属性值6.36.36.46.56.86.87.7
    类别2222222

    S 22 S_{22} S22只包含一个类,信息熵和基尼系数都为0.
    S 21 S_{21} S21的信息增益、基尼系数分别为 E s 21 = 1.53049305 , G s 21 = 0.64197531 E_{s21}=1.53049305, \quad G_{s21}=0.64197531 Es21=1.53049305,Gs21=0.64197531
    E 2 = E 0 − 9 16 E s 21 , G 2 = 9 16 G s 21 E_{2}=E_{0}-\frac{9}{16}E_{s21}, \quad G_{2}=\frac{9}{16}G_{s21} E2=E0169Es21,G2=169Gs21
    从中我们可以看到 E s 11 , &ThinSpace; E s 12 &lt; E s 21 G s 11 , &ThinSpace; G s 12 &lt; G s 21 E_{s11},\,E_{s12} \lt E_{s21} \quad G_{s11},\,G_{s12} \lt G_{s21} Es11,Es12<Es21Gs11,Gs12<Gs21
    也就是说两种判断方式都认为 S 11 , S 12 &ThinSpace; S_{11},S_{12}\, S11,S12 S 21 &ThinSpace; S_{21}\, S21更纯,但为什么 E 1 &gt; E 2 &ThinSpace; E_{1} \gt E_{2}\, E1>E2 &ThinSpace; G 1 &gt; G 2 \,G_{1} \gt G_{2} G1>G2呢?
    我们注意到 E s 11 &ThinSpace; E_{s11}\, Es11 E s 21 &ThinSpace; E_{s21}\, Es21的差距比 G s 11 &ThinSpace; G_{s11}\, Gs11 G s 21 &ThinSpace; G_{s21}\, Gs21的差距更大,也就是说 S 21 S_{21} S21的混乱状态在熵中得到了更好的表示,被 9 16 \frac{9}{16} 169削弱之后还能显示出混乱,但基尼系数对 S 21 S_{21} S21的混乱状态描述得不够充分,被 9 16 \frac{9}{16} 169削弱之后则显示为更优。
    我们看看信息熵和基尼系数的最大值:
    E n t ( D ) = − ∑ k = 1 n 1 n log ⁡ 2 1 n = log ⁡ 2 n G i n i ( D ) = 1 − ∑ v = 1 n 1 n 2 = n − 1 n Ent(D)=-\sum^{n}_{k=1}\frac{1}{n}\log_{2}{\frac{1}{n}} =\log_{2}{n} \\ Gini(D)=1-\sum^{n}_{v=1}\frac{1}{n^{2}}=\frac{n-1}{n} Ent(D)=k=1nn1log2n1=log2nGini(D)=1v=1nn21=nn1
    这时,我们就可以明显感觉到:当集合越是混乱的时候,基尼系数对这种趋势的表现越不够充分。相比之下,信息熵则更能区分出混乱和更混乱。

    结论

    1. 信息增益和基尼指数不是等价的
    2. 大多数时候它们的区别很小
    3. 信息增益对较混乱的集合有很好的表现力,但是基尼指数有所欠缺。另一方面,这也说明较纯的集合,基尼指数可能会区分得更清楚
    展开全文
  • 遥感影像植被指数

    千次阅读 2021-04-10 17:04:19
    植物叶面在可见光红光波段有很强的吸收特性,在近红外波段有很强的反射特性,这是植被遥感监测的物理基础,通过这两个波段测值的不同组合可得到不同的植被指数。 差值植被指数又称农业植被指数,为二通道反射率之差...

    植被指数概念:

    植物叶面在可见光红光波段有很强的吸收特性,在近红外波段有很强的反射特性,这是植被遥感监测的物理基础,通过这两个波段测值的不同组合可得到不同的植被指数。

    差值植被指数又称农业植被指数,为二通道反射率之差,它对土壤背景变化敏感,能较好地识别植被和水体。该指数随生物量的增加而迅速增大。

    比值植被指数又称为绿度,为二通道反射率之比,能较好地反映植被覆盖度和生长状况的差异,特别适用于植被生长旺盛、具有高覆盖度的植被监测。

    归一化植被指数为两个通道反射率之差除以它们的和。在植被处于中、低覆盖度时,该指数随覆盖度的增加而迅速增大,当达到一定覆盖度后增长缓慢,所以适用于植被早、中期生长阶段的动态监测。

    六种植被指数+改进型

    一、RVI——比值植被指数:RVI=NIR/R,或两个波段反射率的比值。 
      1、绿色健康植被覆盖地区的RVI远大于1,而无植被覆盖的地面(裸土、人工建筑、水体、植被枯死或严重虫害)的RVI在1附近。植被的RVI通常大于2; 
      2、RVI是绿色植物的灵敏指示参数,与LAI、叶干生物量(DM)、叶绿素含量相关性高,可用于检测和估算植物生物量; 
      3、植被覆盖度影响RVI,当植被覆盖度较高时,RVI对植被十分敏感;当植被覆盖度<50%时,这种敏感性显著降低; 
      4、RVI受大气条件影响,大气效应大大降低对植被检测的灵敏度,所以在计算前需要进行大气校正,或用反射率计算RVI。 
      二、NDVI——归一化植被指数:NDVI=(NIR-R)/(NIR+R),或两个波段反射率的计算。 
      1、NDVI的应用:检测植被生长状态、植被覆盖度和消除部分辐射误差等; 
      2、-1<=NDVI<=1,负值表示地面覆盖为云、水、雪等,对可见光高反射;0表示有岩石或裸土等,NIR和R近似相等;正值,表示有植被覆盖,且随覆盖度增大而增大; 
      3、NDVI的局限性表现在,用非线性拉伸的方式增强了NIR和R的反射率的对比度。对于同一幅图象,分别求RVI和NDVI时会发现,RVI值增加的速度高于NDVI增加速度,即NDVI对高植被区具有较低的灵敏度; 
      4、NDVI能反映出植物冠层的背景影响,如土壤、潮湿地面、学、枯叶、粗超度等,且与植被覆盖有关; 
      三、DVI EVI——差值环境植被指数:DVI=NIR-R,或两个波段反射率的计算。 
      1、对土壤背景的变化极为敏感; 
      四、SAVITSAVIMSAVI——调整土壤亮度的植被指数:SAVI=((NIR-R)/(NIR+R+L))(1+L),或两个波段反射率的计算。 
      1、目的是解释背景的光学特征变化并修正NDVI对土壤背景的敏感。与NDVI相比,增加了根据实际情况确定的土壤调节系数L,取值范围0~1。 L=0 时,表示植被覆盖度为零;L=1时,表示土壤背景的影响为零,即植被覆盖度非常高,土壤背景的影响为零,这种情况只有在被树冠浓密的高大树木覆盖的地方才会出现。 
      2、SAVI仅在土壤线参数a=1,b=0(即非常理想的状态下)时才适用。因此有了TSAVI、ATSAVI、MSAVI、SAVI2、SAVI3、SAVI4等改进模型。 
      小结:上述几种VI均受土壤背景的影响大。植被非完全覆盖时,土壤背景影响较大 
      五、GVI——绿度植被指数,k-t变换后表示绿度的分量。 
      1、通过k-t变换使植被与土壤的光谱特性分离。植被生长过程的光谱图形呈所谓的"穗帽"状,而土壤光谱构成一条土壤亮度线,土壤的含水量、有机质含量、粒度大小、矿物成分、表面粗糙度等特征的光谱变化沿土壤亮度线方向产生。 
      2、kt变换后得到的第一个分量表示土壤亮度,第二个分量表示绿度,第三个分量随传感器不同而表达不同的含义。如,MSS的第三个分量表示黄度,没有确定的意义;TM的第三个分量表示湿度。 
      3、第一二分量集中了>95%的信息,这两个分量构成的二位图可以很好的反映出植被和土壤光谱特征的差异。 
      4、GVI是各波段辐射亮度值的加权和,而辐射亮度是大气辐射、太阳辐射、环境辐射的综合结果,所以GVI受外界条件影响大。 
      六、PVI——垂直植被指数,在R-NIR的二为坐标系内,植被像元到土壤亮度线的垂直距离。PVI=((S R-VR)2+(SNIR-VNIR)2)1/2,S是土壤反射率,V是植被反射率。 
      1、较好的消除了土壤背景的影响,对大气的敏感度小于其他VI 
      2、PVI是在R-NIR二位数据中对GVI的模拟,两者物理意义相同 
      3、PVI=(DNnir-b)cosq-DNr′sinq,b是土壤基线与NIR截距,q是土壤基线与R的夹角。 
      七、其他 
      1、根据具体情况改进型:如MSS的DVI = B4-aB2,PVI=(B4-aB2-b)/(1+a2)1/2,SARVI = B4/(B2+b/a);RDVI=(NDVI′DVI)1/2等 
      2、应用于高光谱数据的VI,如CARI(叶绿素吸收比值指数)和CACI(叶绿素吸收连续区指数)等 
      VI划分 
      类型 典型代表 特点 
      线性 DVI 低LAI时,效果较好;LAI增加爱时对土壤背景敏感 
      比值型 NDVI、RVI 增强了土壤与植被的反射对比 
      垂直型 PVI 低LAI时,效果较好;LAI增加爱时对土壤背景敏感 

    转载自:https://blog.csdn.net/qq_36178899/article/details/84106426

    展开全文
  • C++ 之 浮点数的大小比较

    万次阅读 2015-04-08 21:46:26
    本文首先 将 介绍 浮点数 的 存储结构 以及 (int&) 操作 含义。其次,介绍 常规 浮点数比较 方法。最后 本文,将采用 (int&) 转换为 整型 数据 ,直接比较 转换为的 整形数据 的 大小
  • 大数据实战之足彩凯利指数

    千次阅读 2021-11-04 23:27:58
    购买中国体育彩票时,通常会纠结于30还是31亦或是10,今天基于pandas统计凯利指数: ... 了解了什么是凯利指数后,我们应该了解一场比赛中,不同赔率的公司对应的凯利指数总是会不同的。而只有较大的公司如竞彩...
  • 浮点数的相等比较

    千次阅读 2020-12-08 13:39:29
    浮点数的相等比较今天群里边一哥们儿——哦,确切地说,应该是一姊妹——问到了Python中怎样判断一个浮点数的小数部分是不是0,本意是要找和C语言中的fmod函数相同功能的函数的,在Python中在math模块中有这个函数,...
  • 调制指数学习

    千次阅读 2020-02-06 13:08:59
    表示调制变量在载波未经调制时的值的附近的变化程度,在不同的调制类型中有不同的定义。 1. 振幅调制指数 英文:Amplitude modulation index AM调制指数公式如下: 公式中, A是载波的振幅,M是射频信号 ...
  • 自相关的这个“自”,表示你进行相关性观察统计量,是来源于不同对象的同一个属性,比如两学生(不同对象),同时对他们的数学成绩(统一属性)进行统计,如果他们同桌(空间邻接),而且A考得好B就考得好,A考不好...
  • 目前合成指数编制方法有三种,美国商务部、日本经济企划厅、经济合作与发展组织三家机构使用不同的合成指数编制方法。其中美国商务部与日本经济企划厅的计算方法思想上是一致的,但方法上略有不同,经济合作与发展...
  • 预测算法——指数平滑法

    万次阅读 多人点赞 2016-07-21 12:59:03
    指数平滑法是移动平均法中的一种,其特点在于给过去的观测值不一样的权重,即较近期观测值的权数比较远期观测值的权数要大。根据平滑次数不同指数平滑法分为一次指数平滑法、二次指数平滑法和三次指数平滑法等。但...
  • 李雅普诺夫指数

    万次阅读 2019-04-11 15:52:48
    1. 李雅普诺夫指数 Lyaponuv(李雅普诺夫)指数表示相空间相邻轨迹的平均指数发散率的数值特征。又称李雅普诺夫特征指数,是用于...我们假定Lyaponuv指数用 来表示,那么对于 的不同取值有以下不同的含义: 当lambda...
  • 百度指数、淘宝指数学习笔记

    千次阅读 2019-02-23 10:22:28
    百度指数  百度官方的定义:百度指数是以百度海量网民行为数据为基础的数据分享平台。... 百度指数仅仅是一个参考数值而已,他反应的情况是不同关键词在过去一段时间里的“用户关注度”和“媒体关注度...
  • 指数平滑法——趋势平滑预测方法

    万次阅读 2019-07-09 09:08:09
    原文地址:... 指数平滑法(Exponential Smoothing,ES) 目录 1什么是指数平滑法 2指数平滑法的基本公式 3指数平滑的预测公式 3.1(一) 一次指数平滑预测 ...
  • 空间自相关—莫兰指数

    千次阅读 多人点赞 2021-07-07 09:44:06
    莫兰指数分为全局莫兰指数(Global Moran's I)和局部莫兰指数(Local Moran's I),前者是Patrick Alfred Pierce Moran开发的空间自相关的度量;后者是美国亚利桑那州立大学地理与规划学院院长Luc Anselin 教授在...
  • 特雷诺指数、詹森指数和夏普比率

    千次阅读 2020-12-29 16:02:43
    根据不同的风险度量方式,风险调整的收益指标包括多种,其中较为常见的是基于均值-方差模型调整的收益指标。 这类指标基于马科威茨的均值-方差模型和CAPM模型,采用收益率的标准差(波动)或者β系数来衡量市场风险...
  • 几种植被指数

    万次阅读 多人点赞 2019-08-20 17:44:27
    常见的植被指数 常见有:比值植被指数、差值植被指数、归一化植被指数 一、RVI——比值植被指数: RVI=NIR/R 1、值的范围:0-30+,一般绿色植被区的范围是2-8,无植被覆盖的地面(裸土、人工建筑、水体、植被...
  • 指数平滑(时间序列预测)

    万次阅读 2019-07-18 23:36:32
    目录 一、指数平滑 二、指数平滑详解 1、一次指数平滑(又叫简单指数平滑,simple exponential smoothing, SES...指数平滑法进一步加强了观察期近期观察值对预测值的作用,对不同时间的观察值所赋予的权数不等,...
  • 空间相关分析(二) 全局莫兰指数的理解与计算

    万次阅读 多人点赞 2020-05-16 23:09:06
    因此可以尝试从证明相关系数取值范围的方法去证明莫兰指数的取值范围(数学功底不错的小伙伴可以试着用柯西施瓦兹不等式试试) emm,虽然balabala解释一大堆,但毕竟公式还是比较生涩难懂的。以下就以一个具体的例子来...
  • 生存模型的C-index(C指数

    万次阅读 多人点赞 2018-11-30 23:34:18
    本文转自:如何在R软件中求一致性指数 C-index,C指数即一致性指数(index of concordance),用来评价模型的预测能力。c指数是资料所有病人对子中预测结果与实际结果一致的对子所占的比例。它估计了预测结果与实际...
  • 指数平滑法(Exponential Smoothing,ES)

    万次阅读 2020-08-18 22:53:25
    ​​​​​​​​​​​​​​​​​​​1 指数平滑 2 一次指数平滑预测 2.1 定义 2.2 例题 3 二次指数平滑法 3.1 定义 3.2例题 4三次指数平滑预测 4.1 定义 4.2 例题 5 加权系数a的选择 1 指数平滑 在...
  • 什么是一致性指数?C-index,英文名全称concordance index,中文里有人翻译成一致性指数,最早是由范德堡大学(Vanderbilt University)生物统计教教授Frank E Harrell Jr1996年提出,主要用于计算生存分析中的COX模型...
  • 遥感中相关光谱指数归纳

    万次阅读 多人点赞 2018-04-27 15:35:47
    遥感指数NDVI 归一化植被指数 (NIR-R)/(NIR+R)NDWI 归一化水体指数 (G-NIR)/(G+NIR) (NIR-MIR)/(NIR+MIR)MNDWI 改进型归一化差值水体指数 (Green-MIR)/(Green+MIR)NDBI 归一化建筑指数 (MIR-NIR)/(MIR+NIR)归一化...
  • 第一章 指数基金的魅力 投资的三个常识 风险和收益成正比 人取我弃,人弃我取 理性投资,远离杠杆 指数投资的两个忠告 如果看好未来股市或者某个行业,则应该选择宽基指数或者行业指数买入持有,获得股市上涨...
  • 指数编制系列三】权重设置方法

    千次阅读 2019-11-20 18:06:15
    指数编制方法中,我们会经常提到加权平均法(这个在后面会介绍),这里面有一个重要的概念就是权重。权重的设定在指数编制过程中是非常重要的...权重表示在评价过程中,是被评价对象的不同侧面的重要程度的定量分...
  • 不同类型的变量其存储单元的大小不同,变量在使用前必须定义。 (一)整型变量 整型变量分为4种:基本型(int)、短整型(short int 或short)、长整型(long int 或 long)和无符号型(unsigned int ,unsigned short...
  • 指数加权移动平均法(EWMA)

    万次阅读 2019-03-28 11:44:52
    指数加权移动平均法(EWMA) https://www.cnblogs.com/jiangxinyang/p/9705198.html ** 本文内容来自于吴恩达深度学习公开课 1、概述  加权移动平均法,是对观察值分别给予不同的权数,按不同权数求得移动平均...
  • 基于轨迹的Lyapunov指数计算原理及在人体运动学中的应用 Lyapunov基本概念 Lyapunov指数能够通过测量相邻轨迹收敛或分离的速率来衡量混沌的状态,Lyapunov指数越大,表明系统局部稳定性越差。 求解Lyapunov指数的...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 95,841
精华内容 38,336
关键字:

不同指数如何比较大小