精华内容
下载资源
问答
  • 概率统计讲义

    2018-11-12 21:41:39
    数理概率统计讲义概率统计是研究自然界中随机现象统计规律的数学方法,叫做概率统计,又称数理统计方法。概率统计主要研究对象为随机事件、随机变量以及随机过程。概率统计是应用概率的理论来研究大量随机现象的规律...
  • 2019年张宇强化班概率统计讲义,可用于2019年考研复习使用
  • 2019张宇概率统计讲义下载,2019张宇强化数学讲义下载
  • 汤家凤考研数学视频讲义,2019汤家凤数学强化班下载概率统计
  • 适合于刚开始学习概率统计的同学
  • 是大二学概率统计是用到的讲义 感觉蛮好用的 分享下
  • 新东方在线考研数学基础班-概率统计讲义
  • 新东方考研数学基础班-概率统计讲义word版。
  • 机器学习深度学习必备的数学知识。此辅导书内容清晰移动。适合补习概率论和统计学的知识。
  • 新东方在线考研数学基础班-概率统计讲义
  • 概率统计讲义(北京大学2009) 2009 于江生最新
  • 概率统计建模方法 讲义
  • 数学建模 概率统计模型 讲义 事例 详解
  • 基于《概率论与数理统计讲义》(天津大学出版社),包括概率、分布、数字特征、大数定律、数理统计、参数估计、假设检验的概念、公式与例题。 获取导图原文件 https://mm.edrawsoft.cn/homepage.html?visited=953346
  • 讲义包含贝叶斯公式和全概率,离散随机变量两部分,里面含有详细例题。
  • 概率统计学习记录011. 随机事件1.1 基本概念释义1.2 概率1.2.1 定义1.2.2 主要性质1.3 古典概型1.4 条件概率1.5 全概率公式和贝叶斯公式1.5.1 全概率公式1.5.2 贝叶斯公式个人理解2. 随机变量2.1. 随机变量及其分布...

    今天开始跟着Datawhale在学习一遍概率统计的基础知识,希望自己可以坚持下来
    有些内容涉及概念性的东西,所以就和讲义统一了

    1. 随机事件

    个人感觉该部分内容都是比较偏概念性的,但是却是需要深入理解的基础知识

    1.1 基本概念释义

    首先介绍基本概念,之后按照自己的理解进行举例:

    • 随机现象:现实生活中的一个动作或一个事情在一定的条件下,所得到的结果不能预先完全确定,可能是多种结果中的一种,这样的现象叫做随机现象
    • 随机试验:使得随机现象得以实现以及观察的全过程成为随机试验,记为EE
    • 样本空间:随机试验的所有可能结果组成的集合为样本空间,记为Ω\Omega
    • 样本点:试验的每一个可能的结果都是一个样本点,用大写字母A,B,CA,B,C表示
    • 必然事件:一定会发生的事件,称为Ω\Omega
    • 不可能事件:一定不会发生的事件,记作空集ϕ\phi

    举个例子:袋子里面有1-3编号六个球,有放回地随机摸两个球出来,那么:

    • 该案例符合随机试验的定义,摸球的过程是一个随机现象
    • 样本空间 / 必然事件:
      Ω={(1,2),(1,3),(2,3),(1,1),(2,2),(3,3),(2,1),(3,1),(3,2)} \Omega=\{(1,2),(1,3),(2,3),(1,1),(2,2),(3,3),(2,1),(3,1),(3,2)\}
    • 摸两次都为偶数可以看作是一个随机事件A={(2,2)}A=\{(2,2)\}
    • 空集ϕ\phi:摸两次得结果都大于5

    1.2 概率

    1.2.1 定义

    随机试验EE的样本空间为Ω\Omega,对于每个事件AA,定义一个实数P(A)P(A)与之对应,若函数P(.)P(.)满足条件:

    1. 对每个事件AA,均有0<P(A)<=10<P(A)<=1;
    2. P(Ω)=1P(\Omega)=1;
    3. 若事件A1,A2,A3,...A_1,A_2,A_3,...两两互斥,即对于ij=1,2,...ij,AiAj=ϕi,j=1,2,...,i \neq j ,A_i \cap A_j = \phi,均有
      P(A1A2...)=P(A1)+P(A2)+...P(A_1 \cup A_2 \cup ...)=P(A_1) +P(A_2) +...
      则称P(A)P(A)为事件AA的概率。

    1.2.2 主要性质

    • 对于任一事件AA,均有P(A)=1P(A)P(\overline{A})=1-P(A).

    • 对于两个事件AABB,若ABA \subset B,则有
      P(BA)=P(B)P(A),P(B)>P(A) P(B-A) = P(B) - P(A), P(B) >P(A)

    • 对于任意两个事件AABB,有
      P(AB)=P(A)+P(B)P(AB) P(A \cup B) = P(A) + P(B) - P(A\cap B)

    下面这张图基本可以对以上内容进行概括:

    一些特殊符号

    1.3 古典概型

    总结古典概型的三个要素:

    1. 样本空间中有有限个样本
    2. 每个样本点的出现是等可能的
    3. 每次试验有且只有一个样本点发生

    例题:40个同学中至少有两个同一天过生日的概率

    def factorial(n):
        if n == 0:
            return 1
        else:
            return (n * factorial(n - 1))
    
    l = 365
    k = 40
    p = factorial(l)/(factorial(l - k) * l**k)
    
    print('40个同学中至少有两个人同一天过生日的概率为%.3f' % (1-p))
    

    1.4 条件概率

    定义:设 AABB 是两个事件,且P(B)>0P(B)>0,称 P(AB)=P(AB)P(B)P(A|B) = \frac {P(AB)} {P(B)} 为在事件 BB 发生的条件下,事件 AA 发生的概率。

    1.5 全概率公式和贝叶斯公式

    1.5.1 全概率公式

    B1,B2,...B_1,B_2,...是样本空间 Ω\Omega 的一个划分,AA 为任一事件,则

    P(A)=i=1P(Bi)P(ABi)P(A) = \sum_{i=1}^{\infty} {P(B_i)}P(A|B_i)

    称为全概率公式。

    1.5.2 贝叶斯公式

    B1,B2,...B_1,B_2,...是样本空间 Ω\Omega 的一个划分,则对任一事件 A(P(A)>0)A(P(A)>0) ,有
    P(BiA)=P(BiA)P(A)=P(ABi)P(Bi)j=1P(Bj)P(ABj),i=1,2,... ​ P(B_i|A) =\frac {P(B_i A)} {P(A)} = \frac {P(A|B_i )P(B_i)} {\sum_{j=1}^{\infty }P( B_j)P(A|B_j)} ,i=1,2,...

    称上式为贝叶斯公式,称P(Bi)(i=1,2,...)P(B_i)(i=1,2,...) 为先验概率,P(BiA)i=1,2,...P(B_i|A)(i=1,2,...)为后验概率。

    个人理解

    目前还没有学习过机器学习,但是学习过信号理论中的贝叶斯均衡解
    就像讲义里面说的那样,我们现在已知的条件是,BiB_i的概率,可以看作是实验结果AA发生的原因,因此显然我们可以通过试验了解到BiB_i的前提条件下,实验结果发生的概率,我们就可以通过这些数值倒退出在实验结果下原因发生的概率,这是很有实际意义的。

    换句话说,我们通过试验结果缩小了对原因判定的范围,使得我们的判断可以被应用在更多场合下
    Alt

    2. 随机变量

    2.1. 随机变量及其分布

    • 随机变量定义:

      EE 是随机试验,Ω\Omega 是样本空间,如果对于每一个 ωΩ\omega \in \Omega 。都有一个确定的实数 X(ω)X(\omega) 与之对应,若对于任意实 xRx \in R , 有 {ωX(ω)<x}F\{\omega :X(\omega) < x \} \in F ,则称 Ω\Omega 上的单值实函数 X(ω)X(\omega) 为一个随机变量。

    ​ 从定义可知随机变量是定义在样本空间 Ω\Omega 上,取值在实数域上的函数。由于它的自变量是随机试验的结果,而随机试验结果的出现具有随机性,因此,随机变量的取值也具有一定的随机性。这是随机变量与普通函数的不同之处。

    • 随机变量的分布函数定义:
      XX 是一个随机变量,对任意的实数 xx ,令
      F(x)=P{X<=x},x(,+) F(x) = P \{ X<=x\} ,x \in (- \infty ,+ \infty)
      ​ 则称 F(x)F(x) 为随机变量 xx 的分布函数,也称为概率累积函数

    直观上看,分布函数 F(x)F(x) 是一个定义在 (,+)(- \infty, + \infty) 上的实值函数, F(x)F(x)在点 xx 处取值为随机变量 XX 落在区间 (,+x](- \infty, + x]上的概率 。分布函数(概率累积函数)很好理解,就是在一个区间范围内概率函数的累加。这个区间就是负无穷到当前节点。
    如果随机变量 XX 的全部可能取值只有有限多个或可列无穷多个,则称 XX 为离散型随机变量。掷骰子的结果就是离散型随机变量。

    ​ 对于离散型随机变量 XX 可能取值为 xkx_k的概率为:
    P{X=xk}=pk,k=1,2,... P \{ X =x_k \} =p_k,k=1,2,...
    则称上式为离散型随机变量 XX 的分布律。
    离散型随机变量的分布函数为:
    F(x)=P{X<=x}=xk<=xP{X=xk}=xk<=xPk F (x) = P \{ X<=x \} =\sum_{x_k<=x}{ P \{ X=x_k \} } = \sum_{x_k <=x}{ P_k}

    2.3 伯努利试验/二项分布

    • 分布函数:

    若随机变量 XX 的分布律为:
    P{X=k}=Cnkpk(1p)nk,k=0,1,2,...n. P \{ X =k \} =C^k_np^k(1-p)^{n-k},k=0,1,2,...n.
    其分布函数为:
    Fx=k=0[x]Cnkpk(1p)nk,k=0,1,2,...n. F(x) = \sum_{k=0}^{[x]} {C^k_np^k(1-p)^{n-k}},k=0,1,2,...n.
    其中, [x][x] 表示下取整,即不超过 xx 的最大整数。

    2.4 随机变量的数字特征

    2.4.1 数学期望

    • 离散型:设离散型随机变量 XX 的分布律为 P{X=xi}=pi,i=12...P \{ X=x_i\} = p_i ,i =1,2,..., 若级数 ixipi\sum_{i} {|x_i|p_i} 收敛,

      (收敛指会聚于一点,向某一值靠近,相对于发散)。则称级数ixipi\sum_{i} {x_ip_i} 的和为随机变量 XX 的数学期望。记为 E(X)E(X) ,即:

    E(X)=ixipi E(X) = \sum_{i} {x_ip_i}

    • 设连续型随机变量 XX 的概率密度函数为 f(x)f(x) ,若积分 +xfxdx\int_{- \infty}^{+ \infty}{|x|f(x)}dx 收敛, 称积分 +xfxdx\int_{- \infty}^{+ \infty}{xf(x)}dx 的值为随机变量 XX 的数学期望,记为 E(X)E(X) ,即:
      E(X)=+xfxdx E(X)= \int_{- \infty}^{+ \infty}{xf(x)}dx
      E(X)E(X) 又称为均值。

    数学期望代表了随机变量取值的平均值,是一个重要的数字特征。数学期望具有如下性质:

    1. cc 是常数,则 E(c)=cE(c) =c ;
    2. E(aX+bY)=aE(X)+bE(Y)E(aX+bY) = aE(X) +bE(Y) , 其中a, b为任意常数;
    3. X,YX, Y 相互独立,则E(XY)=E(X)E(Y)E(XY) = E(X)E(Y) ; (相互独立就是没有关系,不相互影响,这也可以作为协方差的判断依据)。

    2.4.2 方差

    • XX 为随机变量,如果 E{[XE(X)]2}E\{ [X-E(X)]^2\} 存在,则称 E{[XE(X)]2}E\{ [X-E(X)]^2\}XX 的方差。记为 Var(X)Var(X) , 即:

    VarX=E{[XE(X)]2} Var (X) =E\{ [X-E(X)]^2\}

    ​ 并且称 Var(X)\sqrt{Var(X)}XX 的标准差或均方差。

    方差是用来描述随机变量取值相对于均值的离散程度的一个量,也是非常重要的数字特征。方差有如下性质:

    1. cc 是常数,则 Var(c)=0Var(c) =0 ;
    2. Var(aX+b)=a2E(X)Var(aX+b) = a^2E(X) , 其中a, b为任意常数;
    3. X,YX, Y 相互独立,则Var(X+Y)=Var(X)+Var(Y)Var(X+Y) = Var(X) +Var(Y)

    2.4.3 协方差以及相关系数

    协方差和相关系数都是描述随机变量 XX 与随机变量 YY 之间的线性联系程度的数字量。

    • X,YX, Y 为两个随机变量,称 E{[XE(X)][YE(Y)]}E \{ [X-E(X)] [Y-E(Y)]\}XXYY 的协方差,记为 Cov(X,Y)Cov(X, Y),即:
      Cov(X,Y)=E{[XE(X)][YE(Y)]} Cov(X, Y) = E\{ [X-E(X)] [Y-E(Y)]\}
      协方差有如下性质:

      1. Cov(X,Y)=Cov(Y,X)Cov(X, Y) = Cov(Y, X) ;

      2. Cov(aX+bcY+d)=acCov(XY)Cov(aX+b,cY+d) =ac Cov( X,Y) ,其中, a,b,c,da,b,c,d 为任意常数;

      3. Cov(X1+X2Y)=Cov(X1Y)+Cov(X2Y)Cov(X_1+X_2,Y) =Cov( X_1,Y) +Cov( X_2,Y) ;

      4. Cov(XY)=E(XY)E(X)E(Y)Cov(X,Y) =E( XY) -E(X)E(Y) ; 当 X,YX,Y 相互独立时,有 Cov(XY)=0Cov(X,Y) = 0;

      5. Cov(XY)=Var(X)Var(Y)|Cov(X,Y)| = \sqrt {Var(X)} \sqrt {Var(Y)} ;

      6. Cov(XX)=Var(X)Cov(X,X) =Var( X) ;

    • Var(X)>0Var(Y)>0\sqrt {Var(X)} >0 ,\sqrt {Var(Y)} >0 时,称
      ρX,Y=Cov(XY)Var(X)Var(Y) \rho(X,Y) = \frac{Cov(X,Y)}{\sqrt {Var(X)} \sqrt {Var(Y)}}
      X,YX,Y 的相关系数,它是无纲量的量(也就是说没有单位,只是个代数值)。

    • 基本上我们都会用相关系数来衡量两个变量之间的相关程度。相关系数在-1到1之间,小于零表示负相关,大于零表示正相关。绝对值 ρX,Y|\rho(X,Y)| 表示相关度的大小。越接近1,相关度越大。

    展开全文
  • 随机数学的讲义 内容覆盖了概率论的主要内容 需要复习概率论的时候 可以拿来做参考 这本是清晰版本的 扫描版的没法儿看 以后尽量不上传扫描版的了
  • 该存储库存储有关统计和计量经济学的讲义。 此外,它试图在Python中存储统计信息和应用程序的理论摘要。 1.集合论 2.索引号 3.机率 4.随机变量 5.概率分布 6.联合概率分布 7.统计推断 8.表格 9. Python实现
  • 概率论讲义

    2019-01-03 01:43:04
    近两年给文科类专业上概率讲义,仅需要极少的数学准备。另有统计部分。
  • 1.数据的录入、保存和调用 2.基本统计量 3.常见概率分布的函数 4.频 数 直 方 图 的 描 绘 5.参数估计 6.假设检验 7.综合实例
  • 2019张宇强化班概率统计讲义.pdf 19张宇线性代数强化班 01.第一讲行列式01.mp4 02.第一讲行列式02.mp4 03.第二讲矩阵01.mp4 04.第二讲矩阵02.mp4 05.第二讲矩阵03.mp4 06.第三讲向量组与方程组01.mp4 07....
  • 隐马尔可夫模型(hidden Markov model,HMM) 是可用于标注问题的统计学习模型,描述由隐藏的马尔可夫链随机生成观测序列的过程,属于生成模型.本章首先介绍隐马尔可夫模型的基本概念,然后分别叙述隐马尔可夫模型的...

           隐马尔可夫模型(hidden Markov model,HMM) 是可用于标注问题的统计学习模型,描述由隐藏的马尔可夫链随机生成观测序列的过程,属于生成模型.本章首先介绍隐马尔可夫模型的基本概念,然后分别叙述隐马尔可夫模型的概率计隐马尔可夫模型在语音识别、自然语言处理、算算法、学习算法以及预测算法.生物信息、模式识别等领域有着广泛的应用

     

     

    隐马尔科夫模型Python实战: https://github.com/itmorn/Machine-Learning/tree/master/HiddenMarkovModels

    官方最新hmmlearn文档地址: http://hmmlearn.readthedocs.io/en/latest

    ——黎明传数

    转载于:https://www.cnblogs.com/itmorn/p/7822747.html

    展开全文
  • 对于给定的训练数据集,首先基于特征条件独立假设学习输入/输出的联合概率分布;然后基于此模型,对给定的输入x,利用贝叶斯定理求出后验概率最大的输出y。朴素贝叶斯法实现简单,学习与预测的效率都很高,是一种...

          朴素贝叶斯(naive Bayes) 法是基于贝叶斯定理与特征条件独立假设的分类方法。对于给定的训练数据集,首先基于特征条件独立假设学习输入/输出的联合概率分布;然后基于此模型,对给定的输入x,利用贝叶斯定理求出后验概率最大的输出y。朴素贝叶斯法实现简单,学习与预测的效率都很高,是一种常用的方法。

          本章叙述朴素贝叶斯法,包括朴素贝叶斯法的学习与分类、朴素贝叶斯法的参数估计算法。

    ——黎明传数

    转载于:https://www.cnblogs.com/itmorn/p/7616864.html

    展开全文
  • 它可以认为是if-then规则的集合,也可以认为是定义在特征空间与类空间上的条件概率分布。其主要优点是模型具有可读性,分类速度快。学习时,利用训练数据,根据损失函数最小化的原则建立决策树模型。预测时,对新的...

          决策树(decision tree) 是一种基本的分类与回归方法。本章主要讨论用于分类的决策树。决策树模型呈树形结构,在分类问题中,表示基于特征对实例进行分类的过程。它可以认为是if-then规则的集合,也可以认为是定义在特征空间与类空间上的条件概率分布。其主要优点是模型具有可读性,分类速度快。学习时,利用训练数据,根据损失函数最小化的原则建立决策树模型。预测时,对新的数据,利用决策树模型进行分类。决策树学习通常包括3 个步骤:特征选择、决策树的生成和决策树的修剪。这些决策树学习的思想主要来源于由Quinlan在1986年提出的ID3算法和1993年提出的C4.5算法,以及由Breiman等人在1984年提出的CART算法。

          本章首先介绍决策树的基本概念,然后通过ID3和C4.5介绍特征的选择、决策树的生成以及决策树的修剪,最后介绍CART 算法。

     

    ——黎明传数

    转载于:https://www.cnblogs.com/itmorn/p/7635451.html

    展开全文
  • 中心极限定理以下内容摘抄于七月算法(julyedu.com)4 月机器学习算法班课堂讲义概率统计概率统计与机器学习的关系统计量期望 概念 性质 方差与协方差方差 协方差 协方差与独立/不相关 协方差的意义 重要定理和...
  • 清华大学数模讲义(姜启源).rar 第一章 建立数学模型 第二章 初等模型 第三章 简单的优化模型 第四章 数学规划模型 第五章 微分方程模型 第六章 稳定性模型 第七章 差分方程模型 第八章 离散模型 第九章 概率模型 ...
  • 统计工具箱部包括概率分布、假设检验、方差分析、回归分析、非参数检验、判别分析、聚类分析、主成分分析、试验设计、统计过程控制、常用统计图形、多元方差分析、决策树、因子分析、隐马尔可夫模型和多维尺度分析等...
  • 来源:机器之心本文约1000字,建议阅读5分钟。这门课聚焦生成建模技术的理论和数学基础,探讨多种生成模型技术。在概率统计理论中,生成模型是指能够随机生成观测数据的模型,尤其是在给定某些隐含...

空空如也

空空如也

1 2 3 4
收藏数 61
精华内容 24
关键字:

概率统计讲义