精华内容
下载资源
问答
  • 1 为什么需要众包 通过众包我们很容易拿到大量的带有标签的数据。众包有两个优点。 ●速度快。一个商业众包平台或许有上百万甚至几百万的数据标记人员。 ●便宜。在亚马逊众包平台标注一个图像数据通常都不到1...

    image

    我今天要讲的是众包。具体来说,我将讨论如何通过众包获取高质量的数据标签。为开发一个机器学习的智能系统,我们第一步要做的事情就是获得高质量的带标签的数据。

    1 为什么需要众包

    通过众包我们很容易拿到大量的带有标签的数据。众包有两个优点。

    ●速度快。一个商业众包平台或许有上百万甚至几百万的数据标记人员。

    ●便宜。在亚马逊众包平台标注一个图像数据通常都不到1美分。

    所以,通过众包可以以很少的花费在短时间内获得大量的带标签数据。在机器学习里大家经常会说的一句话:更多的数据会打败一个聪明的算法。

    展开全文
  • 为什么多重比较呢? 方差分析后多重比较有很多好处: 误差由多个处理内的变异合并估计,自由度增大了,因而比较的精确度也增大了。 检验显著,说明可以判定多个处理间存在显著的变异。因此方差分析后再...

    在一个试验中,有k个处理平均数间比较时,其全部可能的相互比较对数有k(k-1)/2个,这种比较是复式比较,亦称多重比较(multiple comparisons)。

    为什么要做多重比较呢?

    方差分析后做多重比较有很多好处:

    • 误差由多个处理内的变异合并估计,自由度增大了,因而比较的精确度也增大了。
    • F检验显著,说明可以判定多个处理间存在显著的变异。因此方差分析后再做多重比较,称为Fisher氏保护性多重比较(Fisher's protected multiple comparisons)。
    • 如果有多个比较,不做F检验的情况下,很有可能有更多的比较是显著的;做了F检验以后,显著的平均数比较会相应减少。
    • 显然,在无F检验保护时,设有4个处理(k=4),需要做6个比较,若各个处理间总体上并无差异,每一比较误判为有差异的概率为0.05,则6个比较中至少有1个被误判的概率为 1-(1-0.05)^{2}=0.2649 。

    多重比较有多重方法,本次依次介绍LSD法Sidak法、Bonferroni法、Dunnett法、Tukey法、SNK 法、Duncan法等。

    LSD法

    LSD法全称least significance difference,即最小显著差异法。由Fisher最先提出,本质上是一种t检验。通常用于1对或者几对专业上有特殊意义的样本均数间的比较。

    为了更好的理解LSD法的计算原理,我们首先回顾两独立样本t检验的:

    t=\frac{\overline{X_{1}}-\overline{X_{2}}}{\sqrt{S_{c}^{2}(\frac{1}{n_{1}}+\frac{1}{n_{2}})}}

    其中 S_{c}^{2} 是两个样本的联合估计的方差(满足样本方差齐的前提下),本质就是组内误差的均方,该统计量服从自由度为N-2t分布。

    S_{c}^{2}=\frac{(n_{1}-1)S_{1}^{2}+(n_{2}-1)S_{2}^{2}}{n_{1}+n_{2}-2}

    与上述类似,LSD法也进行的是两两比较的t检验。所不同的是,在满足方差齐性的前提下,LSD法采用所有样本的联合方差来估计均数差的标准误,而不是要比较的两个样本的联合方差。以三样本之间均数差异比较为例,其公式为

    S_{c}^{2}=\frac{(n_{1}-1)S_{1}^{2}+(n_{2}-1)S_{2}^{2}+(n_{3}-1)S_{3}^{2}}{n_{1}+n_{2}+n_{3}-3}

    LSD法往往计算最小显著差异,即

    LSD=t_{\alpha /2}\sqrt{S_{c}^{2}(\frac{1}{n_{1}}+\frac{1}{n_{2}})}

    当两组均数差大于LSD时,说明差异达到显著的水平,也就可以拒绝零假设,认为两组均数不相等。需要注意的是,LSD法单次比较的检验水准仍然为\alpha。LSD法检验的灵敏度最高,但是会因为对比的频数增加使得第一类型错误概率增加。为解决该问题,便出现了Sidak法和Bonferroni法。

    Sidak法

    Sidak法的也是一种t检验,计算公式和LSD法的相同。但是Sidak法对\alpha进行了调整。其调整方法如下:如果有k组,对k组进行两两比较的次数为

    c=\frac{k(k-1)}{2}

    那么做完c次比较,累积犯一类错误的概率为:

    1-(1-\alpha _{\alpha })^{c}

    令上面的公式值等于0.05,由此可以反推出调整后的 \alpha _{\alpha } ​ 。例如进行6次事后比较,则Sidak法的​\alpha _{\alpha }=0.0085,以 \alpha _{\alpha } 作为单次比较的显著性水平,显然 \alpha _{\alpha } 变小了。由于 \alpha _{\alpha } ​减小,结论趋于接受无效假设,因此该方法要比LSD法保守的多

    Bonferroni法

    Bonferroni法与Sidak法类似,同样是在LSD法的基础上对\alpha进行了调整。其调整方法基于Bonferroni不等式。若有k组,其计算公式为

    \alpha _{\alpha }=\frac{\alpha }{k}

    一般认为Bonferroni法是最为保守的,仍然以上面例子来说明。若进行6次比较,则Bonferroni法的调整​\alpha _{\alpha }=0.0083,比上面的sidak法还要小。事实上,当比较的次数不多时,该方法效果比较好,当比较次数较多时(如k>10),该方法对​ \alpha 的调整有些矫枉过正,效果不如Sidak法。

    Dunnett法

    Dunnett法检验统计量为 t_{d} ​,故又称为Dunnett-t检验,实际上该方法的计算与LSD法相同,但是LSD法临界值表基于t分布,而该方法有特殊的临界值表 ,通常用于多个实验组和一个对照组均数的比较。

    Tukey法

    在介绍Tukey方法前,首先了解学生化极差分布。

    在概率论和统计学中,学生化极差分布是极差的抽样分布。该分布是一种连续型概率分布,用于在样本量较小且总体标准差未知的情况下估计正态分布总体的极差。

    假设要比较的组数为k,那么在零假设成立的条件下,下面的随机变量服从学生化极差分布。

    q=\frac{\overline{X}_{max}-\overline{X}_{min}}{\sqrt{\frac{S_{c}^{2}}{n}}}

    公式中分子分别是最大和最小样本的均值, S_{c}^{2} ​是所有样本的联合方差 ,n为每个样本的样本含量。该统计量有两个自由度,分别为kn-k

    Turkey的HSD (Honestly significant difference)是基于学生化极差的成对比较。其思想和LSD方法类似,通过计算HSD统计量,如果两组均数的差异大于该极差,认为差异是显著的,因此拒绝零假设,认为两组均数不同。计算临界HSD的公式为

    HSD=q_{\alpha }(k,\nu )\sqrt{\frac{S_{c}^{2}}{n}}

    k为组数,\nu为联合方差的自由度,即N-kn为每个样本的样本含量。从HSD公式上看,Tukey法较LSD法保守,即较LSD不易发现显著差异。Tukey法要求比较的样本容量相差不大,一般用于样本容量相同的组之间均数的比较

    SNK 法

    SNK法全称Newman–Keuls 或者 Student–Newman–Keuls,属于复极差法(multiple range test),也称为q检验。该方法是对Tukey法的修正,也用的是学生化极差统计量。但是与Tukey法所不同的是,该方法在计算临界值时考虑了两样本均数排序的步长。因而不同步长的两个样本均数的比较使用不同的q临界值

    例如比较三个样本均数,样本均数从小到大排列后,如果比较最大均数和最小均数的差异,两者的步长为3(此时计算的临界值等于HSD),若比较最小均数和第二个均数,步长为2。根据步长和自由度查q临界值表,计算相应的q临界值,即最小显著极差,进而判断均数差异的显著性。

    W_{r}=q_{\alpha }(r,\nu )\sqrt{\frac{S_{c}^{2}}{n}}W_{r}=q_{\alpha }(r,\nu )\sqrt{\frac{S_{c}^{2}}{2}(\frac{1}{n_{1}}+\frac{1}{n_{2}})}

    r为组间步长,其他字母含义同Tukey法。可以发现Tukey法不管要比较的均数相差几步都使用相同(且为最大)的临界值,而SNK法则考虑了步长,并且随着步长r的减小, W_{r} ​也在减小,因而SNK法较Tukey法灵敏(更容易发现显著差异)。另外,对所有r>2,均有 LSD< W_{r} ​,因而SNK法又不及LSD法灵敏。

    Duncan法

    SNK法不同步长下的最小显著极差变幅大,虽然减小了犯Ⅰ类错误的概率,但是同时增加了犯Ⅱ类错误的概率。

    Duncan法的全称为Duncan's new multiple range test (MRT),也称为新复极差法。该方法是对SNK法的修正,但是提高了一类错误概率,降低了二类错误的概率,通常用于农业研究。该方法与SNK法相似,区别在于计算最小显著极差时,不是查q表,而是查SSR表,所得最小显著极差值随着k增大通常比SNK检验的小。

    展开全文
  • 中心极限定理是每个数据科学家/数据分析师每天所统计推断的中心。> Everything is normal in nature (Source: Image by Author)中心极限定理在统计推断中起着重要作用。 它精确地描述了样本数量的增加在多大...

    中心极限定理是每个数据科学家/数据分析师每天所做的统计推断的中心。

    b7ed08c1641447e6d69cd3cebc008029.png

    > Everything is normal in nature (Source: Image by Author)

    中心极限定理在统计推断中起着重要作用。 它精确地描述了样本数量的增加在多大程度上减少了抽样误差,从而告诉我们关于统计估计值(例如,来自样本的百分比)的精度或误差范围。

    相对大量独立随机变量的累加会导致随机变量大致呈正态分布。

    统计推断取决于是否有可能对样本到总体的结果进行广泛的观察。 我们如何保证在示例中看到的关系不仅仅是因为可能性?

    重要性测试旨在提供一种目标度量,以告知有关广泛视野有效性的决策。 例如,人们可以在样本中发现教育与收入之间存在负相关关系。 但是,添加信息对于表明结果不仅是因为可能,而且具有统计学意义也是至关重要的。

    中心极限定理(CLT)是统计和概率的中流tay柱。 该定理表示,随着样本大小的扩展,多个样本之间的均值分布将类似于高斯分布。

    我们可以考虑进行试验并获得结果或观察结果。 我们可以再次重新测试,并获得另一个独立的观察结果。 累积的大量观察值代表观察值样本。

    在计算样本均值的偶然机会上,它将近似于总体分布的均值。 无论如何,像任何估计一样,这都是不正确的,并且会包含一些错误。 在偶然的机会下,我们将抽取大量独立样本并计算其均值,这些均值的分布将形成高斯分布。

    重要的是,观察结果中的每项试验都应具有自主性,并且行为类似。 这是为了确保样本来自等效的基本人口分布。 更正式地说,这种愿望被指为自主的,无差别的分布或一组比较表述。

    初学者经常将中心极限定理误认为是大数定律(LLN)。 它们是不同的,它们之间的主要区别在于LLN依赖于单个样本的大小,而CLT则依赖于样本的数量。

    LLN表示,独立且无差别分布的观测知觉的样本均值将加入一定值,而CLT则描绘了样本均值与值之间的区别的分布。

    由于尽可能地,中心极限定理给了我们估计值的一定分布。 我们可以利用它来提出关于我们做出估计的概率的询问。 例如,假设我们试图考虑选举的结果。

    我们进行了一项调查,发现在我们的样本中,有30%的人会选择候选人A胜过候选人B。显然,我们只看到了总人口中的一小部分,因此我们更想知道我们的结果是否可以 据说可以容纳整个人口,如果不能,我们想了解这个错误可能有多大。

    中心极限定理尽可能地向我们揭示,如果我们不需一次又一次地进行调查,那么随后的理论将在实际人口价值上呈正态分布。

    CLT从中央开始工作。 这意味着您很有可能会假设自己靠近中心,例如,未来总数的大约三分之二将落在均值的一个标准偏差之内,即使样本量很少,您也可以放心。

    但是,如果您谈论的是尾巴,例如,假设与平均值相比超出5个标准差的整数几乎是不可想象的,那么即使有相当大的样本,您也可能会被贬低。

    当分布具有无限制的方差时,CLT会令人失望。 这些情况很少见,但在某些领域可能很重要。

    确实,当您对某些数据的分布一无所知时,可以使用CLT推测其正常性。

    无论如何,CLT的缺点是经常使用它而没有检查怀疑,这在财务领域已经存在了相当长的一段时间,假设收益是正常的,尽管它们具有肥大的尾部分布,这在特征上是很明显的。 携带的危险比正常分布的危险要多。

    当您要处理因变量随机和的总和,不可区分分布的随机变量的总和或违反自治条件和不可区分分布的条件的随机变量的总和时,CLT没有任何重要意义。

    还有其他一些中心极限定理,这些定理可以放宽自治性或难以区分的分布条件。 例如,有一个Lindberg-Feller定理,尽管有所有这些定理,但它要求随机变量是独立的,但它却松开了难以区分的分布条件。

    您可以使用python脚本查看CLT的实现

    a8a48fce7ec41cff6147adb39b29bc28.png

    > Central Limit Theorem (Source: Image by Author)

    结论

    CLT的优势在于它功能强大,这意味着无论数据的均值和方差是否相等,无论数据是否来自各种分布,该定理现在都可以使用。

    CLT指出,样本均值在总体均值上收敛,并且它们之间的距离收敛为正态分布,其方差等于总体方差,即样本数量增加。

    这对统计的应用和对自然的理解很重要。

    参考文献

    ●W. Hoeffding和H. Robbins,1948年。相关随机变量的中心极限定理。 杜克数学杂志,15(3),第773-780页。

    ●Johnson,O.,2004年。信息论和中心极限定理。 世界科学。

    现在,在Twitter,Linkedin和Github上发表您的看法!

    同意还是不同意Saurav Singla的想法和例子? 想告诉我们您的故事吗?

    发推文@ SauravSingla_08,评论Saurav Singla和Star Saurav Singla现在!

    (本文翻译自Tivadar Danka的文章《Why is the Central Limit Theorem Important to Data Scientists?》,参考:https://towardsdatascience.com/why-is-central-limit-theorem-important-to-data-scientist-49a40f4f0b4f)

    展开全文
  • 大数据定律与中心极限定理 数据科学 (Data Science) The Central Limit Theorem is at the center of statistical inference ... 中心极限定理是每个数据科学家/数据分析师每天所统计推断的中心。 Central Li...

    大数据定律与中心极限定理

    数据科学 (Data Science)

    The Central Limit Theorem is at the center of statistical inference what each data scientist/data analyst does every day.

    中心极限定理是每个数据科学家/数据分析师每天所做的统计推断的中心。

    Central Limit Theorem performs a significant part in statistical inference. It depicts precisely how much an increase in sample size diminishes sampling error, which tells us about the precision or margin of error for estimates of statistics, for example, percentages, from samples.

    中心极限定理在统计推断中起着重要作用。 它精确地描述了样本数量的增加在多大程度上减少了抽样误差,从而告诉我们关于统计估计值(例如,样本中的百分比)的精度或误差范围。

    Statistical inference depends on the possibility that it is conceivable to take a broad view results from a sample to the population. How might we guarantee that relations seen in an example are not just because of the possibility?

    统计推断取决于是否有可能对样本进行总体评估。 我们如何保证在示例中看到的关系不仅仅是因为可能性?

    Significance tests are intended to offer a target measure to inform decisions about the validity of the broad view. For instance, one can locate a negative relationship in a sample between education and income. However, added information is essential to show that the outcome isn’t just because of possibility, yet that it is statistically significant.

    重要性测试旨在提供一种目标度量,以告知有关广泛视野有效性的决策。 例如,可以在样本中发现教育与收入之间的负相关关系。 但是,添加信息对于显示结果不仅是因为可能,而且在统计上也很重要至关重要。

    The Central Limit Theorem (CLT) is a mainstay of statistics and probability. The theorem expresses that as the size of the sample expands, the distribution of the mean among multiple samples will be like a Gaussian distribution.

    中心极限定理 (CLT)是统计和概率的中流tay柱。 该定理表示,随着样本大小的扩展,多个样本之间的均值分布将类似于高斯分布

    We can think of doing a trial and getting an outcome or an observation. We can rehash the test again and get another independent observation. Accumulated, numerous observations represent a sample of observations.

    我们可以考虑进行试验并获得结果或观察结果。 我们可以再次重新测试,并获得另一个独立的观察结果。 累积的大量观察值代表观察值样本。

    On the off chance that we calculate the mean of a sample, it will approximate the mean of the population distribution. In any case, like any estimate, it will not be right and will contain some mistakes. On the off chance that we draw numerous independent samples, and compute their means, the distribution of those means will shape a Gaussian distribution.

    在计算样本均值的偶然机会上,它将近似于总体分布的均值。 无论如何,像任何估计一样,这都是不正确的,并且会包含一些错误。 在偶然的机会下,我们将抽取大量独立样本并计算其均值,这些均值的分布将形成高斯分布。

    It is significant that every trial that outcomes in an observation be autonomous and acted similarly. This is to guarantee that the sample is drawing from the equivalent fundamental population distribution. More officially, this desire is alluded to as autonomous and indistinguishably distributed or set of comparative statements.

    重要的是,观察结果中的每项试验都应具有自主性并采取类似的行动。 这是为了确保样本来自等效的基本人口分布。 更正式地说,这种愿望被指为自主的,无差别的分布或一组比较表述。

    As far as possible, the central limit theorem is regularly mistaken for the law of large numbers (LLN) by beginners. They are non -identical, and the key differentiation between them is that the LLN relies upon the size of a single sample, though the CLT relies upon the number of samples.

    初学者经常将中心极限定理经常误认为是大数定律 (LLN)。 它们是不同的,它们之间的主要区别在于LLN依赖于单个样本的大小,而CLT则依赖于样本的数量。

    LLN expresses that the sample means of independent and indistinguishably distributed observations perceptions joins to a certain value as far as possible CLT portrays the distribution of the distinction between the sample means and the value.

    LLN表示,独立且无差别分布的观测知觉的样本均值将加入一个特定值,而CLT则描绘了样本均值与值之间的区别的分布。

    Since as far as possible, the central limit theorem gives us a certain distribution over our estimations. We can utilize this to pose an inquiry about the probability of an estimate that we make. For example, assume we are attempting to think about how an election will turn out.

    由于尽可能地,中心极限定理给了我们估计值的一定分布。 我们可以利用它来提出关于我们做出估计的概率的询问。 例如,假设我们试图考虑选举的结果。

    We take a survey and discover that in our sample, 30% of individual would decide in favor of candidate A over candidate B. Obviously, we have just seen a small sample of the total population, so we had preferred to know whether our outcome can be said to hold for the whole population, and if it can’t, we’d like to understand how substantial the error may be.

    我们进行了一项调查,发现在我们的样本中,有30%的人会选择候选人A胜过候选人B。显然,我们只看到了总人口中的一小部分,因此我们更想知道我们的结果是否可以据说可以容纳整个人口,如果不能,我们想了解这个错误可能有多大。

    As far as possible, the central limit theorem discloses to us that on the off chance that we ran the survey over and again, the subsequent theories would be normally distributed across the real population value.

    中心极限定理尽可能地向我们揭示,如果我们不需一次又一次地进行调查,那么随后的理论将在实际人口价值上呈正态分布。

    The CLT works from the center out. That implies on the off chance that you are presuming close to the center, for example, that around two-thirds of future totals will fall inside one standard deviation of the mean, you can be secure even with little samples.

    CLT从中央开始工作。 这意味着您很有可能会假设自己靠近中心,例如,大约三分之二的未来总量将落在均值的一个标准差之内,即使样本量很少,您也可以放心。

    However, if you talk about the tails, for example, presuming that whole in excess of five standard deviations from the mean is almost unthinkable, you can be mortified, even with sizable samples.

    但是,如果您谈论的是尾巴,例如,假设与平均值相比超出5个标准差的整数几乎是不可想象的,那么即使有相当大的样本,您也可能会被贬低。

    The CLT disappoints when a distribution has a non-limited variance. These cases are rare yet might be significant in certain fields.

    当分布具有无限制的方差时,CLT会令人失望。 这些情况很少见,但在某些领域可能很重要。

    CLT asserts the prominence of the Gaussian distribution as a natural restricting distribution. It legitimizes numerous theories associated to statistics, for example, the normality of the error terms in linear regression is the independent totality of numerous random variables with limited variance or undetectable errors, we can normally expect it is normally distributed.

    CLT断言, 高斯分布的突出之处是自然的限制性分布。 它使与统计有关的众多理论合法化,例如,线性回归中误差项的正态性是方差有限或无法检测到的众多随机变量的独立总数,我们通常可以期望其呈正态分布。

    Solidly, when you don’t have a clue about the distribution of certain data, at that point, you can utilize the CLT to presume about their normality.

    当然,当您对某些数据的分布一无所知时,可以使用CLT推测其正常性。

    In any case, the drawback of the CLT is that it is frequently utilized without checking the suspicions, which has been the situation in finance domain for quite a while, assuming returns were normal, though they have a fat-tailed distribution, which characteristically carries a greater number of dangers than the normal distribution.

    无论如何,CLT的缺点是经常使用它而没有检查怀疑,这在金融领域已经存在了相当长的一段时间,假设收益是正常的,尽管它们具有肥大的分布 ,通常具有危险性比正常分布更大。

    CLT doesn’t have any significant bearing when you are managing with sums of dependent random variables or sums of non- indistinguishably distributed random variables or sums of random variables that breach both the autonomy condition and the indistinguishably distributed condition.

    当您处理因变量随机和的总和,不可区分分布的随机变量的总和或违反自治条件和不可区分分布的条件的随机变量的总和时,CLT没有任何重要意义。

    There are additional central limit theorems that loosen up the autonomy or indistinguishably distributed conditions. For example, there is the Lindberg-Feller theorem, which despite everything, necessitates that the random variables be independent, yet it loosens up the indistinguishably distributed condition.

    还有其他的中心极限定理,可以放宽自治性或难以区分的分布条件。 例如,有一个Lindberg-Feller定理,尽管有所有这些定理,但它要求随机变量是独立的,但它却松开了难以区分的分布条件。

    In conclusion, the advantage of the CLT is that it is powerful, meaning implying that regardless of whether the data originates from an assortment of distributions if their mean and variance are the equivalent, the theorem can even now be utilized.

    总之,CLT的优势在于功能强大,这意味着无论数据的均值和方差是否相等,无论数据是否源自各种分布,该定理现在都可以使用。

    翻译自: https://medium.com/towards-artificial-intelligence/why-is-central-limit-theorem-important-to-data-scientist-49a40f4f0b4f

    大数据定律与中心极限定理

    展开全文
  • 线性回归时,假设之一是要求自变量之间没有强共线性,但是用决策树模型预测时,却没有这个要求。...在统计分析中,作推断(inference)时,如果自变量存在共线性,将无法区分它们对因变量的影响,因此无...
  • 传送门:数理统计|笔记整理(3)——充分统计量——————————————————————————————————————大家好!...为什么说我们会喜欢用这些方法来做统计推断?其背后均有...
  • 为什么要用Bootstrap全称:偏差校正的非参数百分位 Bootstrap 法当变量不满足正态分布,就不能用传统的参数方法来估计置信区间并做出统计推断,而是采用自助抽样(Bootstrap)的方法,前提条件是样本能够代表总体。...
  • t检验 t检验是假设检验的一种方式,统计推断中包括点估计、假设检验、区间估计、预测。之前的对回归方程中的系数的OLS估计就属于点估计,而假设检验就是,我们给出一个假设,然后通过对样本数据的处理,来判断这个...
  • 统计学方法与数据分析(上下册)

    热门讨论 2013-12-29 11:32:47
    1.2为什么学习统计 1.3当前统计的一些应用 1.4统计学家什么 1.5质量和工序改进 1.6学生注意 1.7小结 补充练习 第二部分收集数据 第二章利用调查和科学研究来收集数据- 2.1引言 2.2调查 2.3科学研究 ...
  • Wilks)说,在阅读书中提出了1950年为什么这么的观点,他说:“有一天,统计思维将成为具有读写能力的有效公民资格的必要条件。” 作为一名定量社会科学家,我特别高兴地向您展示如何使用数据回答有关政治科学和...
  • 每篇教你自学技术写作的文章都会首先告诉读者要考虑他们撰写报告的观众。...你必须考虑那些即将阅读你的报告的读者的这些特征:是谁(who)、是什么(what)、为什么(why)、在哪里(where)、什么...
  • 为什么基于 volatile变量的运算在并发下不一定是安全的? 为什么使用 volatile? 并发与线程 并发与线程的关系? 什么是线程? 实现线程有哪些方式? Java线程的实现 Java线程调度 什么是线程调度? 线程调度有哪些方法? ...

空空如也

空空如也

1 2 3 4 5 ... 7
收藏数 130
精华内容 52
关键字:

为什么做推断统计