精华内容
下载资源
问答
  • CDA数据分析师 出品摘要本文作为学习概率论的前导知识,主要是为了帮助大家了解以下知识点:什么是随机事件和随机变量?什么是频率和概率?事件之间有哪些基本关系?事件之间有哪些基本运算?随机现象概率论是研究...
    2b4ba9fb89f349d1b081b07c55fde3af

    CDA数据分析师 出品

    摘要

    本文作为学习概率论的前导知识,主要是为了帮助大家了解以下知识点:

    1. 什么是随机事件和随机变量?
    2. 什么是频率和概率?
    3. 事件之间有哪些基本关系?
    4. 事件之间有哪些基本运算?
    1a957713d33c4ca387fa75a0d2046115

    随机现象

    概率论是研究随机现象的数量规律的数学分支,那么什么是随机现象呢?

    首先,我们需要知道的是在自然界和人类社会中,存在着两种现象,一种是确定性现象,在一定条件下只有一种结果。比如,每天早晨太阳都是从东方升起。第二种是随机现象,在一定条件下可能由多种结果。比如,抛一枚硬币可能出现正反两面。

    35bea5b27ca94127ab42149a4ff8656a

    因此,随机现象满足两个特点:

    1. 结果不止一个;
    2. 会出现哪一个结果,人们事先并不知道。

    随机现象的存在,使得我们生活中充满了不确定性的问题,因此,概率论和统计学就是帮我们解决不确定性问题的数学工具。

    在上面中,我们了解到了随机现象可能出现的结果不止一个,这些结果我们就称之为随机事件,因此,可以进一步理解概率论研究的问题:概率论是用数学的方法估算随机现象中各随机事件发生的概率

    那么什么是概率呢?我们用什么来估算概率呢?下面我们来介绍一些频率的稳定性。

    频率的稳定性

    事物的偶然性必然受其背后的必然性规律所支配,因此,随机现象产生的结果也必定有着某种客观规律。而对于某些可以重复试验的随机现象,我们就可以利用不断的重复试验来观察其中的规律,比如概率论中的经典问题:抛一枚硬币,出现正面的概率是多少。为了估算正面出现的概率,我们可以通过在一定条件下重复试验,统计正面和反面出现的次数,计算出现正面出现的频率(正面出现的频率 = 正面出现的次数/总次数),然后用这个频率去估计概率

    因此,通过以上描述,我们可以总结出以下几点:

    1. 大量试验可以得到随机现象的随机事件发生的频率;
    2. 随机现象在大量重复试验后会呈现出明显的规律性,这个规律性就是频率的稳定性,即频率稳定于概率。
    3. 频率是可以通过重复试验计算出来的,而概率是客观存在的,是一个理论值,只能通过频率估计出来。

    ( 作者注:这种用频率估计概率的估计思维,将贯穿概率论与统计学的整个学习过程,是整个学科的思想精髓,希望读者在之后的学习中慢慢体会它的妙处。)

    78cc768e944b444590cf6e52604b496e

    随机变量

    数学是对客观事物的抽象认知,概率论也不例外,因此,为了研究随机现象的规律,我们得将问题抽象成数学符号来进行研究。

    通常,我们用大写字母$A$、$B$、$C$...来表示随机事件

    在上文中,我们了解到了随机现象的结果(即随机事件)可能有很多种,因此,用来表示随机现象结果的变量我们就称之为随机变量,常用大写字母$X$、$Y$、$Z$ 表示。

    下面,我们举一个例子,来学会如何将现实中的问题抽象成数学的表达方式。比如,我们要研究抛一枚骰子数字1出现的概率。

    那么,在上面这个问题中,随机现象是抛一枚骰子;随机事件是抛一枚骰子出现数字1。用数学进行抽象表达就是:

    设随机事件(可简称事件)$A$ = 抛一枚骰子出现数字1,随机变量$X$ 为抛一枚骰子得到的数字,研究事件A发生的概率,即$X = 1$的概率。

    易知,随机变量$X$ 的取值只有6种,分别是:$1,2,3,4,5,6$。$X$ 的所有取值就构成了样本空间,我们用集合来表示就是:样本空间 $Omega$ = { $1, 2, 3, 4,5, 6 $ }。样本空间中的基本元素就叫做样本点,如该样本空间中就有6个样本点。

    最后,留一个思考题给大家,如果想要研究:将一枚骰子抛两次,两次都大于3的概率。

    在上述问题中,随机现象、随机事件、随机变量、样本空间、样本点分别是什么,如何将他们抽象成数学的表达方式?

    事件间的关系和运算

    833382a237ea43f6b3f13eca310011ff

    在一个样本空间中显然可以定义不止一个事件,概率论的重要研究课题之一是希望从简单事件的概率推算出复杂事件的概率。

    事件间的关系,我们用以下概率论语言来表示:

    1. 包含关系:事件$A$包含事件$B$ $=> Bsubset A$
    2. 相等关系:事件$A$与事件$B$等价 $=> Bsubset A$ 且 $Asubset B$
    3. 互补相容:事件$A$与$B$不可能同时发生 $=> AB = emptyset $

    事件间的运算,我们用以下概率论语言来表示:

    1. 事件$A$与$B$的并:事件$A、B$至少发生一个 $=> Abigcup B$
    2. 事件$A$与$B$的交:事件$A$、$B$同时发生 $=> Abigcap B$ 或 $AB$
    3. 事件$A$与$B$的差:事件$A$发生,但$B$不发生$=> A-B$
    4. A的对立事件(逆事件):$A$不发生 $=> overline{A}$

    学会用概率论的语言表示事件是我们学习概率计算的第一步,若$A,B,C$ 是某个随机现象的三个事件,大家可以尝试用概率论的语言表示以下事件:

    • $A$ 与$B$ 发生,$C$ 不发生
    • $A,B,C$ 中至少有一个发生
    • $A,B,C$ 中至少有两个发生
    • $A,B,C$ 中恰好有两个发生
    • $A,B,C$ 同时发生
    • $A,B,C$ 都不发生
    • $A,B,C$ 不全发生

    更多行业干货持续不断分享给大家,可以一直关注我们哟!

    43bd3411cc9c4306b7ebd20d0320f54b

    获取更多优质内容,点击左下方【了解更多】进入:

    05b536bdddfe4bc2bebd1c39f9d3a4df
    展开全文
  • 概率论与数理统计 第一章:随机事件及其计算 自然现象:确定性现象 随机现象:事先不能准确预知其结果的现象。 1.1、单位名称 样本点(ω):实验中可能出现的基本结果 样本空间(Ω): 全部样本点构成的集合 随机...

    概率论与数理统计

    第一章:随机事件及其计算

    自然现象:确定性现象

    随机现象:事先不能准确预知其结果的现象。

    1.1、单位名称

    样本点(ω):实验中可能出现的基本结果

    样本空间(Ω): 全部样本点构成的集合

    随机时间(A):由一个或多个样本点构成的集合

    必然事件(Ω):必然发生的事件

    不可能事件(∅):不可能发生的事件

    事件发生是指在事件当中某一个样本点发生了,通常指事情出现了

    注:

    样本空间和必然事件都用一样的符号表示,是因为样本空间的符号是Ω,在样本空间里面讨论一个个事情,它们是必然会发生的,那么这个必然发生的事情就是一个样本点,而样本点就是构成样本空间的基本元素。

    1.1.1、数字符号对比:

    数学符号概率论集合论
    Ω样本空间、必然事件全集
    ω样本点元集
    A,B,C……随机事件子集
    不可能事件空集

    1.1.2、习题

    1、抛掷一枚均匀的筛子,观察出现的点数

    Ω1={1,2,3,4,5,6}  #列举法
    

    2、某超市一天内来到的顾客数:

    Ω2={0,1,2,3,4……}  #按自然数排列,整数
    

    3、在一批灯泡中任取一只,测试他的寿命

    Ω3={t:t>=0}  #描述法,整体的区间
    

    集合的表示方法:

    1. 描述法
    2. 列举法
    3. 列表

    1.1.3、符号的读法

    符号读法
    Ωo_mi_ga
    ωo_mi_ga

    1.2、事件的关系和运算

    1.2.1、事件的包含与相等

    概念: 若事件A发生必然导致事件B发生,则称事件B包含事件A ,记作,B⊃A 或 A⊂B .

    A小B大。

    解释: 事件A发生,那么事件B一定发生,可以理解为:只要A发生,B也会发生 。那么,A就是B的一部分,B包含着A。

    例如:某KTV招男服务员要求:只要身高符合,样貌合格,就可以招聘。

    A:身高符合

    B:样貌合格

    C:可以招聘

    在这个例子中我们可以把三个事件命名为:事件A 、事件B、事件C ,当事件C发生时,那么事件A和事件B就一定会发生,所以可以表示: C ⊃ A ,C ⊃ B 。

    注: 若事件A包含事件B,事件B也包含事件A ,则称A=B。

    1.2.2、事件的和(并)

    概念: 事件A和事件B至少发生其一的事件称为事件A与B的和事件(或并事件),记作A∪B或者 B∪A 。

    解释: 在某一个样本空间Ω中,有两个事件,这两个事件只要有一个发生了,那么就称事件A并事件B。

    也可理解为:一个事件 C 的必然结果是由其他两个事件A和B中任意一个发生后而产生的,就称C=A∪B。

    例如:某娱乐场所的游玩标准是:体重合格、身高合格

    A:体重不合格

    B:身高不合格

    C:谢绝游玩

    上例中,事件A或者事件B任意一个发生,那么事件C就不会发生了,所以记作:C=A∪B 。

    1.2.3、事件的积

    概念: 事件A和事件B同时发生的事件称为事件A与B的积事件,记作 AB 或A∩B

    解释: 一个事件C的必然结果是由其他两个事件A和B共同发生后而产生的,就称 C=A∩B

    例如:小美要男朋友,还要又帅有有钱的。

    A:长得帅气

    B:非常有钱

    C:成为小美的男朋友

    上例中,事件C如果想要发生,那么事件A与事件B必须同时发生,所以记作:C=A∩B 。

    1.2.4、事件的互斥

    概念: 若事件A和事件B不可能同时发生,即AB=∅,则称事件A与B互为互斥事件,或互不相容事件。

    理解: 事件A与事件B不能同时发生。

    那么在样本空间Ω中,事件A与事件B不能同时存在。

    例如:小明掉了一头羊在河里,这时有位老神仙飘了出来问他:“年轻的小伙子呀,你说你是要这头金色的羊还是要这头银色的羊,还是要这头普通的羊呢?”

    A:选择金色的羊

    B:选择银色的羊

    C:选择普通的羊

    D:扶我上岸

    上例中,事件A 与事件B不能同时发生,只能选择其一,所以记作:A∩B= ∅ 或 AB= ∅。

    1.2.5、事件的互逆(对立)

    概念 : 若A∪B=Ω, 则称事件A与B为互逆事件,或对立事件,把A的对立事件记作 “A拔” .

    理解:是指一个样本空间里,只有唯一的一个事件在样本空间Ω里发生,并且这些唯一能发生的事件共同组成了样本空间Ω,每次考虑样本点都应把所有的事件都考虑到里面。

    例如:小白的老婆和老妈同时掉河里了,小白必须救一个。

    A:救老婆

    B:救老妈

    上例中,事件A与事件B共同组成了一个样本空间,并且这个空间只能从其中选取一件事来做,所以记作:A∪B= Ω 。

    :对立一定互斥,互斥不一定对立。

    • 解释:对立的事件共同组成了一个样本空间,里面的事件只能发生一个;而互斥的事件可以有其他的与研究的样本点无关的事件,所以 互斥的事件不一定是对立的。

    1.2.6、事件的差

    概念:事件A发生而事件B不发生的事件称为A与B的差事件,记作A-B。

    理解 :A与B相交,A除去相交的部分,就是A-B,也可以写成A-AB,同时也可以写成 A − A B ‾ A-A\overline{B} AAB,再者还可以看做;再如,A中包含B,那么A-B就是A与B的差。

    推广 A ‾ = Ω − A \overline{A}=Ω-A A=ΩA , 假设在样本空间Ω里有事件A, A ‾ \overline{A} A就是整个样本空间减去事件A。

    1.2.7、事件的运算律

    • 交换律

      A ⋃ B = B ⋃ A A ⋂ B = B ⋂ A A\bigcup{B}=B\bigcup{A}\\A\bigcap{B=B\bigcap{A}} AB=BAAB=BA

    • 结合律

      A ⋃ ( B ⋃ C ) = ( A ⋃ B ) ⋃ C A ⋂ ( B ⋂ C ) = ( A ⋂ B ) ⋂ C A\bigcup(B\bigcup{C})=(A\bigcup{B})\bigcup{C}\\A\bigcap{(B\bigcap{C})}=(A\bigcap{B})\bigcap{C} A(BC)=(AB)CA(BC)=(AB)C

    • 分配率

      A ⋂ ( B ⋃ C ) = ( A ⋂ B ) ⋃ ( A ⋂ C ) A ⋃ ( B ⋂ C ) = ( A ⋃ B ) ⋂ ( A ⋃ C ) A\bigcap(B\bigcup{C})=(A\bigcap{B})\bigcup(A\bigcap{C})\\A\bigcup(B\bigcap{C})=(A\bigcup{B})\bigcap{(A\bigcup{C})} A(BC)=(AB)(AC)A(BC)=(AB)(AC)

    • 对偶率

      A ⋂ B ‾ = A ‾ ⋃ B ‾ \overline{A\bigcap{B}}=\overline{A}\bigcup{\overline{B}} AB=AB

      ⋃ i = 1 n A i ‾ = ⋂ i − 1 n A i ‾ \overline{\bigcup\limits_{i=1}^n A_i}=\bigcap\limits_{i-1}^n\overline{A_i} i=1nAi=i1nAi

      ⋂ i = 1 n ‾ A i = ⋃ i = 1 n A i ‾ \overline{\bigcap\limits_{i=1}^n}A_i=\bigcup\limits_{i=1}^n\overline{A_i} i=1nAi=i=1nAi

    1.3、随机事件的概率及性质

    1.3.1、统计定义

    频率公式 ω ( Ω ) = m n \omega(\Omega)=\frac{m}{n} ω(Ω)=nm ,m为随机事件 ,n为实验次数。

    概率的定义:概率是描述事件发生的可能性大小的数值,是客观存在的值

    概率的统计定义:当实验次数n增大时, ω ( A ) \omega(A) ω(A)稳定与p , P(A)=p,当n很大是用时频率值表示概率值。 P ( A ) ≈ ω ( A ) P(A)\approx\omega(A) P(A)ω(A)

    频率的性质:

    1. 对于任意事件A, 0 ≤ ω ( A ) ≤ 1 0\leq\omega(A)\leq 1 0ω(A)1
    2. 必然发生事件 : ω ( Ω ) = 1 \omega(\Omega)=1 ω(Ω)=1 偶然凡是的事件: ω ( ∅ ) = 0 \omega(\varnothing)=0 ω()=0
    3. A 1 , A 2 , ⋯   , A k A_1,A_2,\cdots,A_k A1,A2,,Ak是两两互斥的事件,则 ω ( A 1 + A 2 + ⋯ + A k ) = ω ( A 1 ) + ω ( A 2 ) + ⋯ + ω ( A k ) \omega(A_1+A_2+\cdots+A_k)=\omega(A_1)+\omega(A_2)+\cdots+\omega(A_k) ω(A1+A2++Ak)=ω(A1)+ω(A2)++ω(Ak)

    概率的性质:

    当实验次数n很大时频率就趋近于概率

    1. 对于任意事件A, 0 ≤ P ( A ) ≤ 1 0\leq P(A)\leq 1 0P(A)1
    2. 必然发生事件 : P ( Ω ) = 1 P(\Omega)=1 P(Ω)=1 偶然凡是的事件: P ( ∅ ) = 0 P(\varnothing)=0 P()=0
    3. A 1 , A 2 , ⋯   , A k A_1,A_2,\cdots,A_k A1,A2,,Ak是两两互斥的事件,则 P ( A 1 + A 2 + ⋯ + A k ) = P ( A 1 ) + P ( A 2 ) + ⋯ + P ( A k ) P(A_1+A_2+\cdots+A_k)=P(A_1)+P(A_2)+\cdots+P(A_k) P(A1+A2++Ak)=P(A1)+P(A2)++P(Ak)

    统计定义的缺点 :需要做大量重复的实验,不便于实际应用。不够严密精确,不便理论应用。

    统计定义的优点 :直观易懂,适用于未知的情况。

    1.3.2、古典定义

    古典概型

    概率论研究史:

    最先研究:

    • 有限性:样本空间所含基本事件数目有限

    • 等可能性:每个基本事件发生的可能性相同

      例如:抛硬币、掷骰子

    因最先研究的是这类的概率问题,所以称为 “古典概型”。

    古典定义:

    定义:设随机实验E是含有n个基本事件的古典概型,事件A包含m个基本事件,那么:
    P ( A ) = m n = A 中 所 包 含 的 事 件 的 个 数 Ω 中 所 包 含 的 事 件 的 个 数 P(A)=\frac{m}{n}=\frac{A中所包含的事件的个数}{\Omega中所包含的事件的个数} P(A)=nm=ΩA
    是事件A发生的概率。

    使用方法:

    1. 判断事件是否是古典定义事件

      • 有限性

      • 等可能性

        判断它的选择均衡性、几何对称性

    2. 判断出来属于古典概型后,求出m,n即可。

      样本点小的话,直接列举出来,样本点大的话运用排列组合的方法。

    例题分析:

    例一把一枚均匀的硬币连续抛掷两次,事件A表示出现两个正面,事件B表示出现两个相同的面,求P(A)和P(B)。

    解: Ω = { ( 正 、 正 ) ( 正 、 反 ) ( 反 、 反 ) ( 反 、 正 ) } \Omega =\lbrace(正、正)(正、反)(反、反)(反、正)\rbrace Ω={()}

    A = { ( 正 、 正 ) } A=\lbrace (正、正)\rbrace A={()}

    B = { ( 正 、 正 ) ( 反 、 反 ) } B=\lbrace(正、正)(反、反)\rbrace B={}

    n = 4 , m a = 1 , m 2 = 2 n=4,m_a=1,m_2=2 n=4,ma=1,m2=2

    P ( A ) = m a n = 1 4 P(A)=\frac{m_a}{n}=\frac{1}{4} P(A)=nma=41

    P ( B ) = m b n = 2 4 P(B)=\frac{m_b}{n}=\frac{2}{4} P(B)=nmb=42

    例二: 一批产品共10件,其中6件正品,4件次品,求下列事件的概率。

    1. A 1 A_1 A1={从中任取5件,恰有2件次品}
    2. A 2 A_2 A2={从中依次取5件,恰有2件次品}
    3. A 3 A_3 A3={从中有放回地取5件,恰有2件次品}

    解:

    1. 满足有限性和等可能性,所以是古典概型,因为是从10件产品中任取5件,所以它的全部组合为 C 10 5 C^5_{10} C105 ,而“从中任取5件,恰有2件次品”的言外之意是“取了2件次品和3件正品”,它们的全部排列组合是 C 4 2 C 6 3 C^2_4 C^3_6 C42C63

      所以我们得到 : P ( A 1 ) = C 4 2 C 6 3 C 10 5 = 10 21 = 0.4762 P(A_1)=\frac{C^2_4 C^3_6}{C^5_{10}}=\frac{10}{21}=0.4762 P(A1)=C105C42C63=2110=0.4762

      注: A m n = m ! ( m − n ) ! A^n_m=\frac{m!}{(m-n)!} Amn=(mn)!m! , C n m = A n m m ! C^m_n=\frac{A^m_n}{m!} Cnm=m!Anm

    2. 分析:

      1. 从10件产品中依次取出5件,是有顺序的取出,所以用到了排列 A ,有 A 6 5 A^5_6 A65种取出方法。
      2. ,4件次品中有顺序的取2件所以是 A 4 2 A^2_4 A42 ,6件正品中有顺序的取3件是 A 6 3 A^3_6 A63 ,次品和正品的内部做了排列,它们之间还要组合一下,乘以 C 5 2 C^2_5 C52或者 C 5 3 C^3_5 C53 .

      所以: P ( A 2 ) = A 4 2 A 6 3 C 5 2 A 10 5 = 12 × 120 × 10 10 × 9 × 8 × ⋯ × 1 = 10 21 P(A_2)=\frac{A^2_4A^3_6C^2_5}{A^5_{10}}=\frac{12\times120\times10}{10\times 9\times 8\times\cdots\times1}=\frac{10}{21} P(A2)=A105A42A63C52=10×9×8××112×120×10=2110

    3. 分析:

      1. 10件产品有放回的取5件,5次抽取每次都面临10种选择,所以是 1 0 5 10^5 105 .
      2. 4件次品又放回的取2件,是 4 2 4^2 42 ;6件正品有放回的取3件是 6 3 6^3 63
      3. 有放回的排列,也要考虑组合,所以它们还有乘以 C 5 3 C^3_5 C53或$$C^2_5

      所以: P ( A 3 ) = 4 2 6 3 1 0 5 = 16 × 216 100000 = 0.3456 P(A_3)=\frac{4^26^3}{10^5}=\frac{16\times216}{100000}=0.3456 P(A3)=1054263=10000016×216=0.3456

    1.3.3、几何定义

    问题引入

    李大爷和李大妈夫妻一直喜欢在上午9点到10点去上街,公交车1路和2路到达他家的门口时间分别是9:00和9:03,公交车没10分钟发车一次。

    问:

    1. 乘坐1路车的概率是?
    2. 乘坐2路车的概率是?

    分析:

    9点到10点共60分钟,1路到的次数是7次,2路到的次数是6次,它们每次相差3分钟,在60分钟这条时间段上,3分钟时间是乘坐2路车的概率,10-3=7分钟时间是乘坐1路车的概率

    所以,乘坐1路程概率为70% ,2路车的概率是30%

    推广:

    • 当样本空间为区间线段的时候,概率值是区间长度之比
    • 当样本空间为平面区域时,概率值是区域面积之比
    • 当样本空间为空间区域时,概率值是区域体积之比

    几何定义

    几何概型定义:

    • 可度量性:样本空间是几何空间的一个可度量区域
    • 等可能性:任意一点罗子昂度量相同的子区域内时等可能的。

    定义:设随机实验E是几何概型, Ω \Omega Ω为样本空间,事件A是可度量的,并且 A ⊂ Ω A\subset\Omega AΩ ,则定义:
    P ( A ) = A 的 度 量 ( 长 度 、 面 积 、 体 积 ) Ω 的 度 量 ( 长 度 、 面 积 、 体 积 ) P(A)=\frac{A的度量(长度、面积、体积)}{\Omega的度量(长度、面积、体积)} P(A)=ΩA
    为事件A发生的概率。

    例题分析

    例题:

    小王和小李一个在基地正北边10公里的地方,一个在基地正东边8公里的地方,它们都向基地行驶,对讲机的通话范围是7公里,求他们能用对讲机交流的概率。

    分析:

    1. 可以看做正东为8 ,正北为10 ,当不设范围圆的时候他们相交的概率不好算。
    2. 设基地为圆心,通讯距离7为半径,10和8位矩形范围,那么他们的通讯概率就是四分之一的圆除以矩形面积

    所以:

    设小王距离基地为x公里,小李距离基地为y公里,那么:

    Ω = { ( x , y ) ∣ 0 ≤ x ≤ 10 , 0 ≤ y ≤ 8 } \Omega=\lbrace(x,y)|0\le x \le 10,0\le y \le 8\rbrace Ω={(x,y)0x10,0y8}

    A = { ( x , y ) ∣ x 2 + y 2 ≤ 7 , x ≥ 0 , y ≥ 0 } A=\lbrace(x,y)|\sqrt{x^2+y^2}\le7,x\ge0,y\ge0\rbrace A={(x,y)x2+y2 7,x0,y0}

    P ( A ) = S A S Ω = 1 4 × π × 7 2 10 × 8 P(A)=\frac{S_A}{S_\Omega}=\frac{\frac{1}{4}\times\pi\times7^2}{10\times8} P(A)=SΩSA=10×841×π×72=48.1%

    展开全文
  • 1.随机变量:X。随机变量的产生具有概率性,且具有多种可能产生的情况。可以看成一个事物的特征、属性。 2.CDF 累积分布函数:F(x);PDF积分;CDF的反函数可以得到服从CDF分布的随机变量;F(b)-F(a)=P(a<...

    1.随机变量:X。随机变量的产生具有概率性,且具有多种可能产生的情况。可以看成一个事物的特征、属性。

    2.CDF 累积分布函数:F(x);PDF积分;CDF的反函数可以得到服从CDF分布的随机变量;F(b)-F(a)=P(a<X<b),表示发生在情况a和b之间的概率值大小;用于计算区间的概率分布,无法描述特定情况a或者b发生的概率;

    3.PDF概率密度函数:f(x);主要描述连续的随机变量;它的积分才是概率;曲线形状的峰值为随机变量的期望;胖瘦对应对X的方差;整体曲线下面积值为1;

    4.PMF概率质量函数:主要描述离散的随机变量;它的值是特定情况a或者b发生的概率。p(a)=P(X=a);

    CDF、PDF、PMF这些函数可以描述随机变量。我们大多数关注随机变量发生的概率,以及在某区间内发生的概率。我们实际获得的都是离散类的数据,在机器学习中,数据可以进行分类,那么同一类别的数据可以看成服从同一种概率分布,用函数分类很困难,用常量数字特征分类很轻松。因此,对于服从一种特定PDF曲线形状的随机变量,具有特定的数字特征,这些数字特征也可以代替函数来描述随机变量,例如期望、方差、协方差等。

    5.期望E:变量;随机变量可能取值的加权平均,权重就是该取值的概率p(x);当各个随机情况概率相等的时候,期望大小等于平均值;;大多数情况下我们不能计算出期望,因为我们不知道数据发生的概率以及它的PDF。

    6.大数定理(主要适用于信号处理,图像处理):很大数量的样本,会出现一个规律,期望值并不是变量了,它等于常量均值;因此我们会经常看到信号处理,图像处理中,求数据的期望,直接求的是平均值(若是小样本会有偏差);因为我们总不能得到无限的大量的样本数据,只能得到小样本数据,因此在计算样本方差的时候用N-1。用小样本来估计整体,具体原理可以看无偏估计,极大似然估计。

    7.方差;每一个样本与期望的偏离程度;

    8.样本方差:知道期望值可以求出方差,但是一般情况下,只能得到固定的样本数据,不能准确得到这些数据发生的概率,不能计算期望,只能计算均值,因此我们大多数计算的都是样本方差!!!!!!;样本方差与均值有关;用均值估计期望,用样本方差估计方差;

    9.中央极限定理:大量的相互独立(各自产生不受到别人的影响)随机变量的均值经标准化后收敛于正态分布;表明了若有独立同分布的随机变量,不管各自的分布如何,只要n足够大,随机变量之和服从于正态分布;我们常用高斯噪声,因为它的概率密度函数服从正态分布,一般在信号噪声分析,图像噪声处理等,都假定为高斯噪声,知道期望方差,就可以计算。然而期望往往计算为平均值,更加简单;这个定理会让我们在数据处理中考虑用高斯函数表示数据分布,这会假定数据是独立同分布的,假定数据是高斯分布的,不同类别的数据指的是具有不同的方差和期望;

    10.协方差(标准协方差=相关系数):不同的PDF具有不同的随机变量。我们知道相同PDF的随机变量的方差,那么不同的随机变量的总体误差称为协方差。当cov(x,y)>0,x>E(x),y>E(y)的时候x,y正相关,cov(x,y)<0,x<E(x),y>E(x)x,y负相关,cov(x,y)=0,x=E(x),y=E(y),x,y不相关;;当我们无法求出数据的期望的时候,就用均值代替。

    11.协方差矩阵:方差是对应于一维数据的,一维数据用通俗的话讲,就是单个属性,多个样本,每一个样本只有一个属性,我们可以计算这个属性的均值与方差来描述它,当一个随机变量具有多个维度,即一个样本具有多种属性,我们可以计算单个属性的方差,也可以计算不同属性之间的方差判断这些属性之间是否有一定的联系,因此需要协方差矩阵,协方差矩阵中每一个元素是对应两两属性的样本方差;协方差矩阵怎么求?首先:在计算协方差矩阵的时候,一定要判断每一个样本占一行还是占一列。若每一个样本占一行,那么不同列就是不同属性,协方差计算的是不同列之间,即不同属性的关系。下面的计算,每一行代表一个样本。

    从上面式子可以得出,协方差对角线是计算每一个属性的样本方差。cov(c2,c1)=cov(c1,c2)

    得到协方差矩阵的具体步骤:首先计算c1,c2,…cn的均值。之后将X 的每一列减去对应的均值。

    然后

    12.联合概率分布函数:也称为多维分布函数,随机向量的分布函数,(x,y)表示坐标,那么F(x,y)的值就是随机点(x,y)落在以点(x,y)为顶点且位于该点左下方无穷矩形区域内的概率;这两个变量中存在线性关系,可以互相表达;

    13.概率分布模型:一个随机实验结果,可以根据他的性质来确定模型,比如投硬币正反面,婴儿性别用伯努利,出厂钢钉的误差可以用正态分布等,下面主要介绍几种常见的分布模型,以及含义。

    14.伯努利分布:离散;用于只有两个可能的结果1或0;1的概率为p,0的概率为(1-p)第k次成功的伯努利概率质量函数PMF为:,期望:p,方差:p(1-p)

    15.二项分布:离散;n次实验的伯努利分布,当n=1的时候,就是伯努利分布,期望np,方差np(1-p);

    16几何分布:离散;独立重复实验,成功概率为p,进行n次成功,前n-1次失败,那么PMF,期望为1/p,方差为

    17泊松分布:离散;单位时间内发生的次数可以用泊松分布刻画,例如某段高速公路一年内的交通事故数,办公室一天接到电话的次数,PMF,表示单位时间内随机事件的平均发生率。

    18.指数分布:连续;元器件随着时间寿命减短,类似这种不断衰减的事件,采用指数分布。概率密度函数PDF:,期望:,方差:概率分布函数CDF:

    19.正态分布:连续;误差产生主要集中在一定的区间,例如信道噪声,工艺钉子误差,经常描述误差;

    20.均匀分布:在一定区间内,随机变量落在次区间内的概率相同。

    21无偏估计:估计量的数学期望等于被估计参数的真实值;假如X1,X2,…Xn样本是来自正态分布总体是均值,则有

    22.蒙特卡罗采样:当解决的问题可以转化求解随机分布特征数:概率,期望等,采用蒙特卡罗采用;主要思想,已知一个CDF,求出它的反函数,获取随机变量值,采样后的随机变量的分布接近CDF函数;

     

     

     

    展开全文
  • 【概率统计】统计学符号大全

    万次阅读 2018-07-31 17:15:00
    符号  名称  符号  名称  检验水准,显著性水准;第一类错误的概率  1-  可信度,置信度  第二类错误的概率;总体回归系数  1-  检验效能,把握度  ν() 自由度...

     

     

    希腊字母
    符号 名称 符号 名称 
    \alpha检验水准,显著性水准;第一类错误的概率 1-\alpha 可信度,置信度 
    \beta第二类错误的概率;总体回归系数 1-\beta 检验效能,把握度 
    ν({n}')自由度 \pi总体率 
    \mu总体均数 \rho总体相关系数 
    \Sigma求和的符号 \sigma总体标准差 
    \sigma ^{2} 总体方差 X^{2}X^{2}检验的统计量 

     

     

    拉丁字母
    符号 名称 符号 名称 
    A X2检验中的实际频数 A,b,c,d 四格表中的实际频 
    a 样本回归直线在Y轴上的截距 b 样本回归系数 
    C 校正数;常量;x2检验中的列(栏)数 CI 可信区间 
    CL可信限 CV 变异系数 
    d 两数之差值 d 差值的均数 
    f(X) 连续型分布密度函数,密度 f 观察频数,实际频数 
    G 几何均数;对数似然比检验的统计量 H 调和均数;H检验的统计量 
    Hg 检验假设,无效假设 H1 备择假设 
    i 组距;行次 L 下限 
    M 中位数 N 有限总体含量;各样本含量的总和 
    n 样本含量;各样本含量的总和 P 概率 
    P(1)单侧检验的概率 P(2)双侧检验的概率 
    Px 第x百分位数 P 样本率 
    R 极差;样本复相关系数;x2检验中的行数 r样本相关系数 
    RR 相对危险度 s 样本标准差 
    S2 样本方差 sb 样本回归系数的标准误 
    S02 合并样本方差 sd (样本)差值的标准差 
    s - d(样本)差值均数的标准误 sp 样本率的标准误 
    Sp1-p2两个样本率差的标准误 sX 样本均数的标准误  
    SD 标准差 SE 标准误 
    T X2检验的理论频数;Wilcoxon秩和检验的统计量 t t检验的统计量 
    u 标准正态变量;标准正态(离)差;u检验的统计量 X 变量;变量值,观察值;回归中的自变量 
    x X变换后的变量或变量值 X_{i}变量X的第i个观察值;第i个变量

     

     

     

    展开全文
  • 概率分布基本概念,符号表示法 (概统2.符号) 前面一章,我们计算某事件某结果的概率,会用P(A), P(B),或者P(A1),P(B1)来表达 对于条件概率,我们会用P(A|Bj)" role="presentation" style="position: relative;">P...
  • 机器学习(二)概率密度分布之预备知识和所用符号 2018/2/19 by ChenjingDing 机器学习(二)所用到的符号如下: 符号 含义 L(θ)L(θ)L(\theta) θ的可能性,参考机器学习(一)条件概率 E(θ)E...
  • 概率论的回顾。机器学习中用到的概率论
  • 特殊符号+运算优先级

    千次阅读 2017-10-08 17:46:44
    几何符号 ⊥ ∥ ∠ ⌒ ⊙ ≡ ≌ △ 代数符号 ∝ ∧ ∨ ~ ∫ ≠ ≤ ≥ ≈ ∞ ∶ 运算符号 × ÷ √ ± 集合符号 ∪ ∩ ∈ 特殊符号 ∑ π(圆周率) 推理符号 |a| ⊥ ∽ △ ∠ ∩ ∪ ≠ ≡ ± ≥ ≤ ∈ ← ↑ →
  • LaTeX数学符号和各种含义【转载】

    千次阅读 2020-02-20 17:06:41
    数学符号Latex表示: https://blog.csdn.net/anscor/article/details/80878285 数学符号含义介绍: https://blog.csdn.net/hjq376247328/article/details/73771431
  • 概率相关符号意思

    2013-09-20 21:48:00
    D(X) 方差,指的是数据偏离平均值的程度,反映数据波动大小E(X) (数学)期望,指的是平均值b(1, p)二项分布,值为1的概率为p参数估计:点估计:设总体X的分布函数的形式已知,但它的一个活多个参数未知,借助总体...
  • 概率论基础知识

    2020-04-08 15:36:44
    文章目录概率论中的那些符号联合概率条件概率全概率公式贝叶斯公式先验概率、后验概率、似然(likelihood)贝叶斯多个数据修正推理 概率论中的那些符号 联合概率 p(x,y) = x和y同时发生的概率。 当x与y是两个没有...
  • 序号 大写 小写 英文注音 国际音标注音 中文注音 1 Α α alpha a:lf 阿尔法 2 Β β beta bet 贝塔 3 Γ γ gamma ga:m 伽马 4 Δ δ delta delt 德尔塔 5 Ε ε epsilon epsilon 伊普西龙 6 Ζ ζ zeta zat 截塔 7...
  • 文章目录概率论基础——概率论公理1 样本空间和事件1.1定义1.2 相关定义2 概率论公理2.1 相对频率2.2 概率论公理2.3 由公理得到的命题3 等可能结果的样本空间4 概率是确信程度的度量 概率论基础——概率论公理  ...
  • 从n个不同元素种取出m(m≤n)个元素的所有不同排列的个数,叫做从n个不同元素种取出m个元素的排列数,用符号Amn表示。 排列数公式:   Amn=n(n−1)(n−2)⋯(n−m+1)=n!(n−m)!,n,m∈N∗,并且m≤n (规定...
  • 由于不知道: P(AB)等价于P(A,B)导致自己一直和困惑带 “逗号” 的条件概率公式的推广,特此记录。 联合概率:表示两个事件共同发生的概率。...所以逗号的优先级要高于“|”(条件概率符号)。 ...
  • 概率论基础:第二版 作者: 严士健 著 ; 王隽骧 著 ; 刘秀芳 著 出版社: 科学出版社 出版时间: 2009-08 版次: 2 ISBN: 9787030251558 定价: 66.00 ...符号索引 内容索引 《现代数学基础丛书》已出版书目
  • 内容摘要:1. 符号测度的定义 2. Hahn分解和Jordan分解 3. Radon-Nikodym定理 4. Lebesgue分解
  • 这是一则摘要
  • 最近看论文很多概率公式涉及大量罗马字母和希腊字母,搞清楚他们的读法和大小写关系很重要,在网上找了些罗马字母及希腊字母的读法知识,收录于此,方便随时查阅。 ...4 Δ δ delta
  • 概率论的测度论表述

    2019-02-07 15:24:29
    全书共分六章,内容包括:可测空间和可测函数、测度空间、积分、符号测度、乘积空间、独立随机变量序列等。本书选材少而精,叙述由浅入深,通俗易懂,难点分散,论证严谨。为了满足非数学专业出身而又必须学习公理化...
  • 概率论自用笔记

    千次阅读 2020-04-28 10:56:39
    服从分布的符号 (非离散型变量)服从均匀分布: X~U(a,b)X~U(a,b)X~U(a,b) (非离散型变量)服从指数分布: X~Exp(λ)X~Exp(\lambda)X~Exp(λ) 服从正态分布: X~N(μ,σ2)X~N( \mu , \sigma^2)X~N(μ,σ2...
  • 深入挖掘一下,你会发现,线性代数、微积分和概率论等都和机器学习背后的算法息息相关。 机器学习算法背后的数学知识你了解吗?在构建模型的过程中,如果想超越其基准性能,那么熟悉基本细节可能会大有帮助,尤其是...
  • Lingo_ 运算符及其优先级和函数总览

    千次阅读 2018-08-18 21:23:05
    在 LINGO 中建立优化模型时可以引用 大量的内部函数,这些函数以”@”符号打头。 2.1 常用的数学函数 @ABS(X) 返回变量 X 的绝对值。 @COS(X) 返回变量 X 的余弦值(X 的单位是弧度)。 @EXP(X) 返回 e X ...
  • 概率论基础

    2019-08-14 14:16:11
    概率论由赌博发展而来,所以用开桌赌钱作例子来讲会比较直观。 1、Ω 主要讨论的是用什么赌具,也就是赌桌上最根本的随机性来自于什么。如果用骰子的话Ω 就是骰子的六面,如果用扑克牌的话那就是52张牌,用手的话...
  • [机器学习篇]机器学习知识总结篇

    万次阅读 热门讨论 2017-03-08 22:36:48
    1、机器学习的数学基础1 - 数学分析 机器学习的一般方法和横向比较 数学是有用的:以SVD为例 机器学习的角度看数学 复习数学分析 直观解释常数e 导数/梯度 随机梯度下降 ... 概率论基础
  • bayes公式 a,b,c是不同的随机变量
  • 德摩根定律:长线变短线,符号变 古典概型 有限个样本点 等可能性 几何概型 难题:朝指定的两条平行线投针,针与平行线相交的概率 相交要距离——垂直距离和角度肯定需要标记,而用中点表示垂直距离就可以用到...
  • 概率论知识点整理

    万次阅读 多人点赞 2018-03-25 17:31:14
    概率论 (《概率论与数理统计》 主编 金大勇 徐永) 1.2.3 概率的性质 加法定理 A,B是任意两个事件,则P(AUB)=P(A)+P(B)-P(AB) A,B是任意两个事件,则P(A-B)=P(A非B)=P(A)-P(AB) 1.3 ...
  • 概率论与数理统计思维导图

    万次阅读 多人点赞 2020-05-16 16:16:14
    这学期学习了概率论与数理统计,在家里也是无聊,所以想做每一章的思维导图,也是为了方便自己记住知识点,图是利用幕布应用程序写的,符号就是搜狗符号大全和百度出来的,但是积分符号,还有求和符号的上下限有些打...
  • 概率论常见分布极其公式

    千次阅读 2020-04-11 15:18:39
    正态分布 拉普拉斯分布 伯努利分布 二项分布 泊松分布 指数分布

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 6,739
精华内容 2,695
关键字:

概率论符号