精华内容
下载资源
问答
  • 概率论中常用分布

    2021-04-08 23:07:57
    概率论中常用分布(用于考试前记忆) 离散情形 二项分布 描述:假设进行 nnn 次试验,每次试验成功的概率是 ppp ,失败的概率是 1−p1-p1−p .令随机变量 XXX 为成功的次数,则 XXX 服从二项分布.P(X=k)=(nk)pk(1...

    概率论中的常用分布(用于考试前记忆)

    离散情形

    1. 二项分布

    描述:假设进行 nn 次试验,每次试验成功的概率是 pp ,失败的概率是 1p1-p .令随机变量 XX 为成功的次数,则 XX 服从二项分布.P(X=k)=(nk)pk(1p)nk\mathbb{P}(X=k)=\binom{n}{k}p^k(1-p)^{n-k}且有E(X)=np;Var(X)=np(1p).\mathbb{E}(X)=np; Var(X)=np(1-p).

    1. 几何分布

    描述:假设进行 nn 次试验,每次试验成功的概率是 pp ,失败的概率是 1p1-p .令 XX 表示直到第一次成功所需的试验次数,则 XX 服从几何分布.P(X=k)=p(1p)k\mathbb{P}(X=k)=p(1-p)^k且有E(X)=1p;Var(X)=1pp2.\mathbb{E}(X)=\frac{1}{p}; Var(X)=\frac{1-p}{p^2}.

    1. 负二项分布

    描述:假设进行 nn 次试验,每次试验成功的概率是 pp ,失败的概率是 1p1-p .令 XX 表示直到成功 rr 次所需的试验次数,则 XX 服从负二项分布.P(X=k)=(k1r1)pr(1p)kr\mathbb{P}(X=k)=\binom{k-1}{r-1}p^r(1-p)^{k-r}且有E(X)=rp;Var(X)=r(1p)p2.\mathbb{E}(X)=\frac{r}{p}; Var(X)=\frac{r(1-p)}{p^2}.

    1. 泊松分布

    描述:用于近似二项分布.P(X=k)=λkeλk!\mathbb{P}(X=k)=\frac{\lambda^ke^{-\lambda}}{k!}且有E(X)=Var(X)=λ.\mathbb{E}(X)=Var(X)=\lambda.

    1. 超几何分布

    描述:假设盒子中有 nn 个球,rr 个黑球,nrn-r个白球,从盒子中取出 mm 个球.令 XX 表示抽到的黑球数,则 XX 服从超几何分布.P(X=k)=(rk)(nrmk)(nm)\mathbb{P}(X=k)=\frac{\binom{r}{k}\binom{n-r}{m-k}}{\binom{n}{m}}且有E(X)=mrn()\mathbb{E}(X)=m\frac{r}{n}(类似于二项分布的期望)

    连续情形

    1. 均匀分布

    1. 正态分布
      pdf
      f(x)=1σ2πe12σ2(xμ)2 f(x)=\frac{1}{\sigma\sqrt{2\pi}}e^{-\frac{1}{2\sigma^2}(x-\mu)^2}

    2. 指数分布
      pdf
      f(x)=eλxf(x)=e^{-\lambda x}且有E(X)=1λ,Var(X)=1λ2\mathbb{E}(X)=\frac{1}{\lambda},Var(X)=\frac{1}{\lambda^2}

    3. Γ\Gamma分布、β\beta分布、χ2\chi^2分布一般不要求记忆,从略.

    展开全文
  • 概率论中的六种常用分布

    万次阅读 2018-09-29 17:54:38
    版权声明:本文为博主原创文章,欢迎转载,请标明出处。... 每天学习一点点: ...概率论中的六种常用分布,即(0-1)分布、二项分布、泊松分布、均匀分布、指数分布和正态分布。 ...
    版权声明:本文为博主原创文章,欢迎转载,请标明出处。 https://blog.csdn.net/cc1949/article/details/78906044

    每天学习一点点:


    概率论中的六种常用分布,即(0-1)分布、二项分布、泊松分布、均匀分布、指数分布和正态分布。




    展开全文
  • 概率论6大基本分布

    千次阅读 2019-05-30 13:51:51
    看到机器学习中,要求训练集和测试集来自...概率论中的六种常用分布,即(0-1)分布、二项分布、泊松分布、均匀分布、指数分布和正态分布。 引用说明:https://blog.csdn.net/cc1949/article/details/78906044 ...

    看到机器学习中,要求训练集和测试集来自同一分布,然后学习了一下概率论中分布的类型,说明如下:
    概率论中的六种常用分布,即(0-1)分布、二项分布、泊松分布、均匀分布、指数分布和正态分布。
    在这里插入图片描述
    引用说明:https://blog.csdn.net/cc1949/article/details/78906044

    展开全文
  • 数学家会为这些感到兴奋,但在实践中,概率论中比较常用的是概率分布。 概率分布用于许多领域,但我们很少看到相应的解释。通常作者会假定读者已经了解概率分布了。本文将尝试解释什么是概率分布。 什么是概率分布...

    【编者按】数据科学家Jonny Brooks-Bartlett撰写的零基础概率论教程的第六篇,深入浅出地讲解概率分布这一概念。

    在之前的文章中,我介绍了概率论的基本概念基本公理。数学家会为这些感到兴奋,但在实践中,概率论中比较常用的是概率分布。

    概率分布用于许多领域,但我们很少看到相应的解释。通常作者会假定读者已经了解概率分布了。本文将尝试解释什么是概率分布。

    什么是概率分布?

    回忆一下,随机变量是值为一个随机事件的结果的变量(如果不知所云,请温习下本系列的第一篇)。例如,掷骰子的点数或抛硬币的结果是随机变量。

    概率分布是随机变量所有可能结果及其相应概率的列表。

    例如,均匀6面骰的概率分布为:

    更明确地说,这是一个有限支持的离散单元概率分布的例子。这读起来比较拗口,所以让我分解这一表述,逐步理解。

    离散(discrete) 这意味着如果我选择任意两个连续的结果,我无法取得位于两者之间的结果。例如,考虑投掷六面骰的结果1点和2点,我没法得到两者之间的点数(例如,我没法掷出1.5点)。在数学上,我们会说,结果列表是可数的(不过我不会进一步定义可数集和不可数集了,否则就没完没了了)。你大概可以猜想,当我们涉及连续(continuous)概率分布时,这一点会不成立。

    单元(univariate) 这意味着我们只有一个(随机)变量。在这一情形下,我们只有掷骰的结果。相反,如果我们有不止一个变量,那我们称其为多元分布(multivariate distribution)。如果我们有两个变量,那么这一多元分布的特例称为二元分布(bivariate distribution)

    有限支持(finite support) 这意味着结果的数目是有限的。基本上,支持是定义概率分布的结果。所以,在我们的例子中,支持是1、2、3、4、5、6. 由于这些值不是无限的,所以我们说这是有限支持的概率分布。

    函数入门

    我们为何谈论函数?

    在上面的投掷六面骰的例子中,只有六种可能的结果,所以我们可以在一个表格中写下整个概率分布。但在很多场景中,结果的数量可能很大,用表格罗列会很枯燥乏味。更糟的是,可能结果的数目也许是无限的,在那样的情形下,就没法编写表格了。

    为了免去为每个分布编写表格的麻烦,我们可以转而定义一个函数。函数允许我们简洁地定义一个概率分布。

    所以,让我们首先介绍一般意义上的函数,接着再介绍用于概率分布的函数。

    什么是函数?

    从一个非常抽象的层次上说,函数是一个接受输入并返回输出的盒子。在大多数情况下,函数事实上需要对输入进行一些处理,以得到有用的输出。

    让我们自行定义一个函数。比方说,这个函数接受一个数字作为输入,在输入数字上加2,并返回新数字作为输出,如下图所示:

                   

     

    所以,如果输入是5,我们的函数会加上2,并返回输出5 + 2 = 7

    函数记法

    给我们想要创建的所有函数画示意图是件枯燥乏味的工作。我们转而使用符号/字母,以便更简洁地表示函数。我们用“x”替换单词“input”(输入),用“f”替换单词“function”(函数),用“f(x)”替换单词“输出”。所以,上面的示意图现在变成这样了:

                    

     

    这要好一点,不过,需要画示意图表示函数做了什么这个问题仍然存在。数学家可不想浪费宝贵的精力画盒子,所以发明了更好的表示函数的方式,什么也不用画。在数学上,我们的函数可以定义为:

                                      

     

    这和上面的示意图是等价的,因为我们可以明确看到函数的输入是x,我们的函数称为f,并且我们知道函数在输入上加2,并返回x + 2作为输出。

    值得注意的是,函数名和输入的字母选择是任意的。我可以说输入是“a”,将函数称为“add_two”(加二):

                                              

     

    这和之前的函数定义完全等价。

    这里关键的一点是,有了函数定义,我们可以看到如何转换任何输入。给定函数f(x) = x + 2,我们会知道如果输入是10做什么,或者如果输入是10000做什么。所以我们不用像之前那样列出一个表格。

    这里需要指出的是,我们即将使用的函数的输入和输出都是数字。然而,函数可以接受任何你喜欢的东西作为输入,并输出任何你喜欢的东西(甚至什么都不输出)。例如,我们可以在编程语言中编写一个函数,接受一个文本字符串作为输入,并输出字符串的第一个字母。下面是用Python编程语言写的一个例子:

    def get_first_letter(my_string):
        return my_string[0]
    
    get_first_letter('Hello World')  # 结果为 'H'
    

    译者注:这里仅为示例,实际定义函数的时候还需要考虑输入字符串为空的情况,需要捕获IndexError异常或先行判断字符串是否为空。

    用图像表示函数

    函数的主要优势之一是让我们知道如何转换任何输入,所以我们可以利用这一知识可视化函数。回到之前的例子f(x) = x + 2. 它的图像是这样的:

                  

     

    底下的横轴表示输入数字,相应地,左侧的纵轴表示输出值f(x) = x + 2. 例如,我们看到,表示函数的蓝线穿过了x = 1处的(白色)纵线和f(x) = 3处的(白色)横线。这从图像上显示了f(1) = 1 + 2 = 3.

    函数的参数

    函数最重要的特征之一是参数。参数是函数内部不必作为输入传入的数字。在我们的例子f(x) = x + 2中,数字“2”是一个参数,因为我们需要它来定义函数,但没有将它纳入函数的输入。

    参数之所以重要,是因为它们直接决定输出。例如,定义另一个函数h(x) = x + 3. 函数f(x) = x + 2和新定义的函数h(x) = x + 3之间唯一的区别是参数值(新函数的参数是“3”而不是“2”)。这一差异意味着相同输入得到的输出完全不同。让我们看下相应的图像:

                  

     

    参数可以算是概率(分布)函数最重要的特征了,因为它们定义了函数的输出,告诉我们随机过程得到特定结果的似然。在数据科学问题中,我们常常试图估计参数,我之前曾经介绍过两种估计参数的方法:最大似然估计贝叶斯推断

    现在我们可以用函数语言讨论概率分布了。

    概率质量函数:离散概率分布

    当我们使用概率函数描述离散概率分布时,我们将其称为概率质量函数(probability mass function),通常缩写为pmf.

    还记得我们在这个系列的第一篇提到的随机变量概率的记法吗?我们将随机变量记为大写的X,而将变量的值记为小写的x,随机变量概率则记为P(X=x). 因此,如果我们的随机变量是投掷骰子的点数,我们可以将掷出3点的概率记为P(X=3) = 1/6.

    概率质量函数(记为“f”)返回结果的概率:

                                                

     

    我知道这里开始有点吓人,但请多容忍一点数学。上面的公式不过是表明,概率质量函数“f”返回结果x的概率。

    所以让我们回到均匀6面骰的例子(你大概已经厌烦这个例子了吧?)。概率质量函数f不过是返回结果的概率。因此掷出三点的概率是f(3) = 1/6.

    由于概率质量函数返回概率,所以它必须遵循我在前一篇描述的概率法则(公理)。也就是说,概率质量函数输出0到1之间的值(含),而所有结果的概率质量函数输出之和等于1. 在数学上,我们可以将这两个条件表达为:

                             

     

     

    所以说,我们可以用表格和函数表示离散概率分布。我们也可以用图形表示投掷骰子这个例子:

                

     

    离散概率分布示例:伯努利分布

    有些概率分布出现得非常频繁,人们对它们进行了全面的研究,并命名了这些概率分布。伯努利分布(Bernoulli distribution)就是一个例子。它是描述有两种可能结果的过程的概率分布,比如抛硬币。

    伯努利分布的概率质量函数为:

                                                     

     

    这里,x表示结果,值为1或0. 所以我们可以说正面 = 1,反面 = 0. p是表示结果为1的概率的参数。所以在扔均匀硬币问题中,扔出正面或反面的概率是0.5,因此我们令p = 0.5.

    我们经常想要明确标出概率质量函数中包含的参数,所以伯努利分布的概率质量函数可以表示为:

                                                              

     

    注意,这里我们使用分号隔开输入变量和参数。

    概率密度函数:连续概率分布

    有时我们关心具有连续结果的随机变量的概率。例如,从某个族群中随机抽取的成人的身高,出租车司机等待下一个乘客的时间。在这些例子中,用连续概率分布描述随机变量更合适。

    当我们使用概率函数描述连续概率分布时,我们称其为概率密度函数(probability density function),通常缩写为pdf.

    概率密度函数的概念比概率质量函数要稍微复杂一点,不过别担心,我们能够理解。我觉得先讲一个连续概率分布的例子,再讨论连续概率分布的性质,比较容易理解。

    连续概率分布示例:正态分布

    正态分布大概是所有概率和统计学问题中最常见的分布了。它如此常见的原因之一是中央极限定理。本文不会深入介绍这个定理,不过你可以参考Carson Forter写的博客文章The Only Theorem Data Scientists Need To Know,其中解释了这个定理是什么,还有它和正态分布的关系。

    正态分布的概率密度函数定义为:

                           

     

    其中,参数(分号后的符号)μ表示均值(分布的中心点),σ表示标准差(分布的散布程度)。

    如果我们将均值设为零(μ=0),标准差设为1(σ=1),那么我们将得到如下图所示的分布:

                

     

    正态分布是一个无限支持的连续单元概率分布。无限支持意味着我们可以为负无穷大到正无穷大之前的所有结果计算概率密度函数值。在数学上,我们有时称其支持整条实直线(vhole real line)

    连续概率分布性质

    首先需要注意的是纵轴从0开始向上延伸。这是概率密度函数需要遵守的规则。概率密度函数的任何输出值大于等于零,或者说,输出非负:

                                                                            

     

    然而,和概率质量函数不同,概率密度函数的输出不是概率值。这是一个极为重要的差别。

    要从概率密度函数求得概率,我们需要找到曲线下的面积。例如,假设我们的样本分布均值 = 3,标准差 = 1,我们在下图中画出结果位于0到1之间的概率:

                          

     

    数学上表达为:

                                    

     

    上式的意思是,概率密度函数0到1之间的积分(等式左边)等于随机变量的结果位于0到1之间的概率(等式右边)。

    原谅我没有明确地介绍积分是什么,积分是如何工作的(我在本系列的边缘化一文中简短地介绍了积分的概念,但没有涉及如何计算积分)。如果你不了解积分,那么目前而言你需要知道的是积分是一种求曲线下面积的方法,在这里给我们提供结果的概率。也许我需要撰写一个简短的系列,初步介绍微积分。

    现在我们看到了概率密度函数的另一个性质。也就是两个结果之间的概率,是概率密度函数在这两点间的积分(等价于求出概率密度函数在两点之间的曲线下的面积)。数学上,这可以表示为:

                                                    

     

    别忘了我们仍然需要遵循概率分布的规则,也就是所有可能结果之和等于1. 如果我们将范围设定为“负无穷大”到“正无穷大”,那么就可以覆盖所有可能的情形。因此,对概率密度函数而言:

                                                                        

     

    也就是说,负无穷大到正无穷大之间的曲线下面积等于1.

    连续概率分布重要的一个性质(可能看起来很怪异)是随机变量取得特定结果的概率为0. 例如,如果我们尝试求解结果等于数字2的概率,我们将得到:

                                    

     

    这个概念可能看起来很诡异,但如果你理解微积分,就比较容易理解这点。本文不会介绍微积分。相反,我想从中总结出一点,我们只讨论两个值之间的概率,或者讨论出现大于或小于特定值的结果的概率。我们讨论结果等于特定值的概率。

    眼尖的读者可能注意到我用了“小于号(<)”和“大于号(>)”,而不是“大于等于号(≤)”和“小于等于号(≥)”。就连续概率分布而言,这实际上并没有关系,两者是一样的。

                              

     

    所以随机变量取a和b之间的值的概率等于取a和b之间(含)的概率。

    参数的重要性

    我们之前提到,参数可以改变函数的输出值,在概率分布上也是一样。

                       

     

    上图是两个正态分布的概率密度函数的图像。蓝色分布的参数值为μ=0、σ=1,而红色分布的参数值为μ=2、σ=0.5.

    很明显,使用错误的参数值会得到离你的期望相差很远的结果。

    总结

    哇!这篇文章比我预想的要长很多。让我们总结一下要点:

    • 概率分布是结果及相应概率的列表。
    • 我们可以用表格罗列小分布的结果和概率,但大分布用函数概括更方便。
    • 离散概率分布的表示函数称为概率质量函数
    • 连续概率分布的表示函数称为概率密度函数
    • 表示概率分布的函数同样遵循概率法则
    • 概率质量函数的输出是概率概率密度函数曲线下面积表示概率
    • 概率函数的参数在定义随机变量结果概率上起关键作用。

    我原本打算在这篇文章中介绍多元分布的,但是因为本文已经很长了,所以会在之后的文章中介绍。

    现在你已经初步理解了什么是概率分布,请阅读Sean OwenCommon Probability Distributions: The Data Scientist’s Crib Sheet。如果想要了解更多概率分布,可以查看维基百科上的列表(相当长的一个列表)。

    展开全文
  • 在UA MATH564 概率论IV 次序统计量,我们介绍了均匀分布U(0,1)U(0,1)U(0,1)的多个次序统计量的联合分布就是Dirichlet分布,在Bayesian统计,Dirichlet分布是非常常用的共轭分布族,这一讲介绍Dirichlet分布的...
  • 样本空间为Ω,随机变量X表示样本空间Ω的一个样本点(样本空间和随机变量的关系类似于实数轴上的x轴和自变量x的区别)。如随机抛掷一枚骰子,X就是表示骰子的点数。 分布函数 分布函数定义: F(X)=P(X<=x) ...
  • 正态分布 f(x)=12πδexp⁡(−(x−μ)22δ2)f(x) = \frac{1}{{\sqrt {2\pi } \delta }}\exp \left( { - \frac{{{{\left( {x - \mu } \right)}^2}}}{{2{\delta ^2}}}} \right)f(x)=2π​δ1​exp(−2δ2(x−μ)2​) ...
  • python模拟概率论中偏度和峰度计算

    千次阅读 2018-01-25 19:38:05
    在概率学我们用偏度和峰度去刻画分布的情况:  偏度描述的是分布的对称性程度,如上面,右偏表示在u值的右侧分布占多数,左偏则反向,并且通过阴影的面积去刻画概率。而峰度是描述分布的最高值的情况,在...
  • 概率论中有六大常用的基本分布,大致可分成两类:离散型(0-1分布、二项分布、泊松分布),连续型(均匀分布、指数分布、正态分布)。 补充: 在进入正文之前先讲一下期望和均值的一些区别:  期望和均值都具有...
  • 使用概率论和拉普拉斯变换的定义,可以在经典风险模型获得有限时间范围内生存概率的表达式。 然后,通过双重Laplace变换的反演找到显式解; 使用代数,拉普拉斯复数反演公式和Matlab进行指数索赔额分布
  • 本文介绍在概率论与数理统计,统计学这两门课,以及平时的作业常用的两种需要加以应用的六种概率。按照数据的类型可以分为两类,一类是针对连续型变量(均匀分布、指数分布、正态分布),另一类则针对离散型...
  • 一、多维随机变量及其分布 1.二维随机变量 根据随机变量的定义我们知道它其实是...在机器学习常用多维随机变量描述一个事物的多重属性,然后用统计学知识(如朴素贝叶斯、贝叶斯网络)解决实际问题(如将事物进...
  • 机器学习笔记(一)概率论基础

    千次阅读 2017-01-12 14:14:00
    机器学习基础之概率论相关内容,介绍了概率论中常用的一些概,各种机器学习常用分布,以及概率的运算。
  • 常用概率分布简介

    2018-05-02 22:04:00
    在统计分析,经常会有假设参数服从某种分布,所以在此文,参考《概率论与数理统计》(茆诗松著),简单罗列一下经常碰到的分布,做下简单介绍,并且结合 Python Scipy.stats 模块进行模拟。将要介绍的分布...
  • 在这里自己总结一些概率论中常用的基本概念,方便以后参考。这里强调对概念的理解,不强调精确的定义和理论。 大数定律 Law of Large Number LLN 中心极限定理 Central Limit Theorem CLT 正态分布 Normal ...
  • 一、概率分布 ...概率论中最主要的便是概率分布的研究,下面给出几种常用的概率分布。 1、Bernoulli 分布(伯努利分布) 伯努利分布是单个二值随机变量的分布,由参数 \(\phi\in\left[0,1\right]\)...
  • 2. 构造统计量——从样本提取有用的信息来研究总体的分布 3. 常用统计量(样本均值、样本方差、样本标准差、k阶矩、k阶中心矩) 4. 样本均值不等于总体期望(样本均值是一个随机变量,依赖于样本值) ...
  • 1-3、常用概率分布与随机数生成

    千次阅读 2017-09-03 16:03:47
    一、常用概率分布与服从该分布的事件举例。 在实际生活,有一些事情的发生遵循某些概率分布。因此可以用某些概率分布模型来刻画某些事件。本节简单介绍了一些概率论基础里的概率分布,与可用其刻画的一些事件。...
  • 在深度学习概率论的基础知识占据了重要的地位,我在这里主要介绍了常用的极大似然估计的原理和应用,将极大似然估计的误差的高斯分布与线性回归模型的最小二乘法的联系。
  • 概率论随机变量专题

    2020-05-03 00:09:47
    其时这篇博客本来想先传到我的个人博客上的,结果发现公式在vscode的pdf预览的时候完全ok,但是一传到hexo搭建的博客上的时候就出现了乱码的情况,好像是数学公式缺少渲染的插件,我说呢,唉,明天要是弄好了,再...
  • 泊松分布

    千次阅读 2014-07-05 23:41:19
    泊松分布概率论中常用的一种离散
  • 目录 ... 常用统计分布 前面已指出,当取得总体X{X}X的...为了实现推断的目的必须进一步确定相应的统计量所服从的分布,这样就有必要补充一些在概率论部分未曾提及但在统计学经常用到的分布主要为三种分布:χ2{\chi ^
  • 在本讲座中,我们将以动手和渐进的方式介绍概率论的理论基础以及诸如工业和学术界实际应用中常用的马尔可夫链,贝叶斯分析和A / B测试等最新应用。 时间表 基本定义和直觉 了解什么是概率 计算不同结果的可能性 ...
  • 概率论在机器学习占有一定的份量,单纯的概率论是比较枯燥的,这节我们先从一个有趣的例子着手,引入生活概率的应用,然后回顾经典的常用的概率公式、概率分布,由基本的概率分布引入机器学习常用的指数族分布。...
  • ##常用的统计量 样本均值 样本方差 k阶样本原点矩 k阶样本中心矩 顺序统计量 描述性统计 ##数据集中趋势的度量 平均数:容易受极端值影响 位数:不受极端值影响 众数:不受极端值影响;当数据具有明显的集中趋势时...
  • 文章目录概率论之随机变量的数字特征一、数学期望1.1、定义1.2、常用分布数学期望及方差1.3、一维随机变量函数的数学期望1.4、数学期望的性质二、位数三、方差3.1、定义3.2、方差的计算3.3、方差的性质四、矩、...
  • 概率论_十 统计量一

    2021-03-02 15:55:58
    2: 统计量和常用统计量 3: X^2分布 4: t 分布和 F分布 一 总体和样本 例: 要研究某校5000个学生的身高 目的: 用部分的数据推断出总体未知参数 总体: 研究的对象全体,5000个学生 个体: ...
  • 概率论--第二章

    2016-01-10 17:42:24
    2.1 随机变量及其分布函数 一、随机变量 二、分布函数 例1 抛一枚硬币,观察正面1,反面2出 现的情况: ...有了随机变量,随机试验的各种事件,就可以通过随机变量的关系式表达出来. 二、分布函数
  • 机器学习预备知识之概率论(下)

    千次阅读 2014-11-30 11:12:23
    推导了机器学习中常用的概率知识:期望、方差、伯努利分布、泊松分布和高斯分布

空空如也

空空如也

1 2 3 4 5 ... 8
收藏数 149
精华内容 59
关键字:

概率论中常用分布