-
2020-09-28 14:00:47
矩估计和极大似然估计
矩估计基于辛钦大数定律:
当样本的容量足够大时,样本k阶距(A_k)收敛域总体k阶距(a_k)
样本的平均值去估计总体的均值(期望)
期望和均值
数学期望常称为“均值”,即“随机变量取值的平均值”之意,这个平均是以概率为权的平均,不是通常意义上的(总数)/(个数),数学期望由随机变量的分布完全决定。
X ˉ = 1 n ∑ i = 1 n x i \bar{X}=\frac{1}{n}\sum_{i=1}^nx_i Xˉ=n1i=1∑nxi
(1)式,其实是平均值(期望是均值),对其求期望其实就是一个加权的过程,所以无论是哪种分布,都是E(x)=μ,而非X平均值=μ方差:衡量一组数据离散程度的度量
S 2 = 1 n ∑ i = 1 n ( X − μ ) 2 S^2=\frac{1}{n}\sum_{i=1}^n(X-\mu)^2 S2=n1i=1∑n(X−μ)2
误差分析:- 因为X取得是样本,所以X的取值存在误差
- 因为我们事先是不知道是什么分布的,所以μ是不知道的,使用均值替代的话,也会出现误差
方差和修正方差的来源及其证明
S 2 = 1 n ∑ i = 1 n ( x i − X ˉ ) 2 S 2 = 1 n ∑ i = 1 n [ ( x i − μ ) − ( X ˉ − μ ) ] 2 S 2 = 1 n ∑ i = 1 n [ ( x i − μ ) 2 − 2 ( x i − μ ) ( X ˉ − μ ) + ( X ˉ − μ ) 2 ] S 2 = 1 n ∑ i = 1 n ( x i − μ ) 2 − 2 n ∑ i = 1 n ( x i − μ ) ( X ˉ − μ ) + ( X ˉ − μ ) 2 S 2 = 1 n ∑ i = 1 n ( x i − μ ) 2 − ( X ˉ − μ ) 2 E ( S 2 ) = E ( 1 n ∑ i = 1 n ( x i − μ ) 2 − ( X ˉ − μ ) 2 ) = σ 2 − E ( ( X ˉ − μ ) 2 ) E ( ( X ˉ − μ ) 2 ) = E ( X ˉ 2 − 2 μ X ˉ + μ 2 ) = E ( X ˉ 2 ) − E ( X ˉ ) 2 = D ( X ) = σ 2 n E ( S 2 ) = σ 2 − σ 2 n = n − 1 n σ 2 S^2=\frac{1}{n}\sum_{i=1}^n(x_i-\bar{X})^2\\ S^2=\frac{1}{n}\sum_{i=1}^n[(x_i-\mu)-(\bar{X}-\mu)]^2\\ S^2=\frac{1}{n}\sum_{i=1}^n[(x_i-\mu)^2-2(x_i-\mu)(\bar{X}-\mu)+(\bar{X}-\mu)^2]\\ S^2=\frac{1}{n}\sum_{i=1}^n(x_i-\mu)^2-\frac{2}{n}\sum_{i=1}^{n}(x_i-\mu)(\bar{X}-\mu)+(\bar{X}-\mu)^2\\ S^2=\frac{1}{n}\sum_{i=1}^n(x_i-\mu)^2-(\bar{X}-\mu)^2\\ E(S^2)=E(\frac{1}{n}\sum_{i=1}^n(x_i-\mu)^2-(\bar{X}-\mu)^2)=\sigma^2-E((\bar{X}-\mu)^2)\\ E((\bar{X}-\mu)^2)=E(\bar{X}^2-2\mu\bar{X}+\mu^2)=E(\bar{X}^2)-E(\bar{X})^2=D(X)=\frac{\sigma^2}{n}\\ E(S^2)=\sigma^2-\frac{\sigma^2}{n}=\frac{n-1}{n}\sigma^2\\ S2=n1i=1∑n(xi−Xˉ)2S2=n1i=1∑n[(xi−μ)−(Xˉ−μ)]2S2=n1i=1∑n[(xi−μ)2−2(xi−μ)(Xˉ−μ)+(Xˉ−μ)2]S2=n1i=1∑n(xi−μ)2−n2i=1∑n(xi−μ)(Xˉ−μ)+(Xˉ−μ)2S2=n1i=1∑n(xi−μ)2−(Xˉ−μ)2E(S2)=E(n1i=1∑n(xi−μ)2−(Xˉ−μ)2)=σ2−E((Xˉ−μ)2)E((Xˉ−μ)2)=E(Xˉ2−2μXˉ+μ2)=E(Xˉ2)−E(Xˉ)2=D(X)=nσ2E(S2)=σ2−nσ2=nn−1σ2
由上可知S^2
和σ^2
是有微小差距的,所以对此做修正,得到的方差就是修正方差
E ( n n − 1 S 2 ) = n n − 1 n − 1 n σ 2 = σ 2 n n − 1 S 2 = n n − 1 1 n ∑ i = 1 n ( x i − X ˉ ) 2 = 1 n − 1 ∑ i = 1 n ( x i − X ˉ ) 2 ( S ∗ ) 2 = 1 n − 1 ∑ i = 1 n ( x i − X ˉ ) 2 E(\frac{n}{n-1}S^2)=\frac{n}{n-1}\frac{n-1}{n}\sigma^2=\sigma^2\\ \frac{n}{n-1}S^2=\frac{n}{n-1}\frac{1}{n}\sum_{i=1}^n(x_i-\bar{X})^2=\frac{1}{n-1}\sum_{i=1}^n(x_i-\bar{X})^2\\ (S^*)^2=\frac{1}{n-1}\sum_{i=1}^n(x_i-\bar{X})^2 E(n−1nS2)=n−1nnn−1σ2=σ2n−1nS2=n−1nn1i=1∑n(xi−Xˉ)2=n−11i=1∑n(xi−Xˉ)2(S∗)2=n−11i=1∑n(xi−Xˉ)2
本质:使用样本原点距去估计总体原点距的一种方法(用样本量估计总体量)
估计均值
E ( X ˉ ) = E ( 1 n ∑ i = 1 n x i ) = 1 n ∑ i = 1 n E ( x i ) = 1 n n μ = μ E(\bar X)=E(\frac{1}{n}\sum_{i=1}^nx_i)=\frac{1}{n}\sum_{i=1}^nE(x_i)=\frac{1}{n}n\mu=\mu E(Xˉ)=E(n1i=1∑nxi)=n1i=1∑nE(xi)=n1nμ=μu ^ = X ˉ = 1 n ∑ i = 1 n x i \hat{u}=\bar{X}=\frac{1}{n}\sum_{i=1}^nx_i u^=Xˉ=n1i=1∑nxi
估计方差
σ 2 = a 2 − a 1 2 = 1 n ∑ i = 1 n x i 2 − X ˉ 2 = 1 n ∑ i = 1 n ( x i − X ˉ ) 2 = S 2 \sigma^2=a_2-a_1^2=\frac{1}{n}\sum_{i=1}^nx_i^2-\bar{X}^2=\frac{1}{n}\sum_{i=1}^{n}(x_i-\bar{X})^2=S^2 σ2=a2−a12=n1i=1∑nxi2−Xˉ2=n1i=1∑n(xi−Xˉ)2=S2σ ^ 2 = S 2 \hat{\sigma}^2=S^2 σ^2=S2
0-1分布:
只有一个未知参数,所以也只能估P的值
X 0 1 P 1-p p p ( x = x i ) = ( 1 − p ) 1 − x i p x i p(x=x_i)=(1-p)^{1-x_i}p^{x_i} p(x=xi)=(1−p)1−xipxi
矩估计:
E ( X ˉ ) = E ( 1 n ∑ i = 1 n x i ) = 1 n ∑ i = 1 n E ( x i ) = 1 n n p = p E(\bar{X})=E(\frac{1}{n}\sum_{i=1}^nx_i)=\frac{1}{n}\sum_{i=1}^nE(x_i)=\frac{1}{n}np=p E(Xˉ)=E(n1i=1∑nxi)=n1i=1∑nE(xi)=n1np=pp ^ = X ˉ = 1 n ∑ i = 1 n x i \hat{p}=\bar{X}=\frac{1}{n}\sum_{i=1}^{n}x_i p^=Xˉ=n1i=1∑nxi
最大似然估计
L ( p ) = ( 1 − p ) ∑ x i = 1 n ( 1 − x i ) p ∑ x i = 1 n x i L(p)=(1-p)^{\sum_{x_i=1}^n(1-x_i)}p^{\sum_{x_i=1}^n{x_i}} L(p)=(1−p)∑xi=1n(1−xi)p∑xi=1nxil n L ( p ) = ∑ x i = 1 n ( 1 − x i ) l n ( 1 − p ) + ∑ x i = 1 n x i l n p lnL(p)=\sum_{x_i=1}^n(1-x_i)ln(1-p)+\sum_{x_i=1}^n{x_i}lnp lnL(p)=xi=1∑n(1−xi)ln(1−p)+xi=1∑nxilnp
令 : ∂ l n L ( p ) ∂ p = − ∑ x i = 1 n ( 1 − x i ) 1 − p + ∑ x i = 1 n x i p = 0 令:\frac{\partial{lnL(p)}}{\partial{p}}=-\frac{\sum_{x_i=1}^n(1-x_i)}{1-p}+\frac{\sum_{x_i=1}^n{x_i}}{p}=0 令:∂p∂lnL(p)=−1−p∑xi=1n(1−xi)+p∑xi=1nxi=0
p ^ = X ˉ = 1 n ∑ i = 1 n x i \hat{p}=\bar{X}=\frac{1}{n}\sum_{i=1}^{n}x_i p^=Xˉ=n1i=1∑nxi
注:估计的P,其实表示的就是在n次试验下,出现1的次数的概率
泊松分布
P ( x = x i ) = λ x i e − λ x i ! P(x=x_i)=\frac{\lambda^{x_i}e^{-\lambda}}{x_i!} P(x=xi)=xi!λxie−λ
矩估计
E ( X ˉ ) = E ( 1 n ∑ i = 1 n x i ) = 1 n ∑ i = 1 n E ( x i ) = 1 n n λ = λ E(\bar{X})=E(\frac{1}{n}\sum_{i=1}^{n}x_i)=\frac{1}{n}\sum_{i=1}^{n}E(x_i)=\frac{1}{n}n\lambda=\lambda E(Xˉ)=E(n1i=1∑nxi)=n1i=1∑nE(xi)=n1nλ=λλ ^ = X ˉ = 1 n ∑ i = 1 n x i \hat{\lambda}=\bar{X}=\frac{1}{n}\sum_{i=1}^{n}x_i λ^=Xˉ=n1i=1∑nxi
注:E(x_i)=入的证明过程,其中使用到了泰勒公式进行变换
E ( X ) = ∑ i = 1 ∞ x i P ( x = x i ) = ∑ i = 1 ∞ x i λ x i e − λ x i ! = λ e − λ ∑ i = 1 ∞ λ x i − 1 ( x i − 1 ) ! = λ e − λ e λ = λ E(X)=\sum_{i=1}^\infty x_iP(x=x_i)=\sum_{i=1}^\infty x_i\frac{\lambda^{x_i}e^{-\lambda}}{x_i!}=\lambda e^{-\lambda}\sum_{i=1}^\infty \frac{\lambda ^{x_i-1}}{(x_i-1)!}=\lambda e^{-\lambda}e^{\lambda}=\lambda E(X)=i=1∑∞xiP(x=xi)=i=1∑∞xixi!λxie−λ=λe−λi=1∑∞(xi−1)!λxi−1=λe−λeλ=λ
最大似然估计
L ( λ ) = λ ∑ i = 1 n x i e − n λ ∏ i = 1 n x i ! L(\lambda)=\frac{\lambda^{\sum_{i=1}^{n}x_i}e^{-n\lambda}}{\prod_{i=1}^{n}x_i!} L(λ)=∏i=1nxi!λ∑i=1nxie−nλl n L ( λ ) = ∑ i = 1 n x i l n ( λ ) − n λ − l n ( ∏ i = 1 n x i ! ) lnL(\lambda)=\sum_{i=1}^{n}x_iln(\lambda)-n\lambda-ln(\prod_{i=1}^nx_i!) lnL(λ)=i=1∑nxiln(λ)−nλ−ln(i=1∏nxi!)
令 : ∂ l n L ( λ ) ∂ λ = ∑ i = 1 n x i λ − n = 0 令: \frac{\partial{lnL(\lambda)}}{\partial\lambda}=\frac{\sum_{i=1}^{n}x_i}{\lambda}-n=0 令:∂λ∂lnL(λ)=λ∑i=1nxi−n=0
可 得 : λ ^ = X ˉ = 1 n ∑ i = 1 n x i 可得:\hat{\lambda}=\bar{X}=\frac{1}{n}\sum_{i=1}^{n}x_i 可得:λ^=Xˉ=n1i=1∑nxi
均匀分布
f ( x ) = { 1 b − a a < x < b 0 其 他 f(x)=\begin{cases}\frac{1}{b-a}\quad a<x<b\\0\quad\quad其他\end{cases} f(x)={b−a1a<x<b0其他注:这里有两个参数,分别是a和b,故需要至少列两个参数才能得到解
矩估计
E ( X ) = ∫ a b x f ( x ) d x = ∫ a b x b − a d x = 1 2 ( b + a ) = X ˉ σ 2 = 1 n ∑ i = 1 n ( x i − X ˉ ) 2 = S 2 ( 下 式 原 理 ) 1 b − a ∫ a b ( x − X ˉ ) 2 d x = 1 b − a ∫ a b ( x − 1 2 ( b + a ) ) 2 d x = 1 12 ( b − a ) 2 = S 2 解 得 : { b ^ = X ˉ + 3 S a ^ = X ˉ − 3 S E(X)=\int_{a}^{b}xf(x)dx=\int_{a}^{b}\frac{x}{b-a}dx=\frac{1}{2}(b+a)=\bar{X}\\ \sigma^2=\frac{1}{n}\sum_{i=1}^{n}(x_i-\bar{X})^2=S^2(下式原理)\\ \frac{1}{b-a}\int_{a}^{b}(x-\bar{X})^2dx=\frac{1}{b-a}\int_{a}^{b}(x-\frac{1}{2}(b+a))^2dx=\frac{1}{12}(b-a)^2=S^2\\ 解得:\begin{cases}^{\hat{a}=\bar{X}-\sqrt{3}S}_{\hat{b}=\bar{X}+\sqrt{3}S}\end{cases} E(X)=∫abxf(x)dx=∫abb−axdx=21(b+a)=Xˉσ2=n1i=1∑n(xi−Xˉ)2=S2(下式原理)b−a1∫ab(x−Xˉ)2dx=b−a1∫ab(x−21(b+a))2dx=121(b−a)2=S2解得:{b^=Xˉ+3Sa^=Xˉ−3S
最大似然估计常规的,列最大似然函数,然后求导令为零是求不出估计值。
指数分布
特点:无记忆性,可以用于描述机器寿命。
f ( x ) = { 0 其 他 λ e − λ x x > 0 f(x)=\begin{cases}^{\lambda e^{-\lambda x}\quad x>0}_{0\quad\quad 其他}\end{cases} f(x)={0其他λe−λxx>0
矩估计:
E ( X ) = ∫ 0 + ∞ λ x e − λ x d x = 1 λ = X ˉ λ ^ = 1 X ˉ E(X)=\int_0^{+\infty}\lambda xe^{-\lambda x}dx=\frac{1}{\lambda}=\bar{X}\\ \hat{\lambda}=\frac{1}{\bar{X}} E(X)=∫0+∞λxe−λxdx=λ1=Xˉλ^=Xˉ1
极大似然估计
L ( λ ) = λ n e − λ ∑ i = 1 n x i l n L ( λ ) = n l n λ − λ ∑ i = 1 n x i 令 : ∂ ( l n L ( λ ) ) ∂ λ = n λ − ∑ i = 1 n x i = 0 λ ^ = n ∑ i = 1 n 1 x i = 1 X ˉ L(\lambda)=\lambda^ne^{-\lambda \sum_{i=1}^nx_i}\\ lnL(\lambda)=nln\lambda-\lambda\sum_{i=1}^nx_i\\ 令:\frac{\partial({lnL(\lambda)})}{\partial\lambda}=\frac{n}{\lambda}-\sum_{i=1}^{n}x_i=0\\ \hat{\lambda}=n\sum_{i=1}^n\frac{1}{x_i}=\frac{1}{\bar{X}} L(λ)=λne−λ∑i=1nxilnL(λ)=nlnλ−λi=1∑nxi令:∂λ∂(lnL(λ))=λn−i=1∑nxi=0λ^=ni=1∑nxi1=Xˉ1
正态分布
f ( x ) = 1 2 π σ e − ( x − μ ) 2 2 σ 2 f(x)=\frac{1}{\sqrt{2\pi}\sigma}e^{-\frac{(x-\mu)^2}{2\sigma^2}} f(x)=2πσ1e−2σ2(x−μ)2
X~N(μ,σ^2)
:
{ σ ^ = S μ ^ = X ˉ \begin{cases}^{\hat{\mu}=\bar{X}}_{\hat{\sigma}=S}\end{cases} {σ^=Sμ^=Xˉ
写笔记难免有错误,烦请指正!如有疑问可加QQ:1372931501
更多相关内容 -
概率论 随机变量及常用6大分布整理
2021-06-03 10:42:23分布函数 分布函数定义: F(X)=P(X<=x) 离散型随机变量的分布函数: 连续性随机变量的分布函数: 分布函数的性质: 1.非降性 F(x)是一个非递减函数 2.归一性 在x趋向于+∞时,F(x)趋向于1 3右连续性 因为 F(x...随机变量
随机变量定义:
样本空间为Ω,随机变量X表示样本空间Ω中的一个样本点(样本空间和随机变量的关系类似于实数轴上的x轴和自变量x的区别)。如随机抛掷一枚骰子,X就是表示骰子的点数。分布函数
分布函数定义:
F(X)=P(X<=x)
离散型随机变量的分布函数:
连续性随机变量的分布函数:
分布函数的性质:
1.非降性
F(x)是一个非递减函数
2.归一性
在x趋向于+∞时,F(x)趋向于1
3右连续性
因为 F(x)是单调有界非减函数,所以其任一点x0的右极限F(x0+0)必存在。数学期望
在概率论和统计学中,数学期望(或均值,亦简称期望)是试验中每次可能结果的概率乘以其结果的总和,是最基本的数学特征之一。它反映随机变量平均取值的大小。
离散型随机变量的期望:
连续型随机变量的期望:
性质:
1.E©=C
2.E(CX)=CE(X)
3.E(X+Y)=E(X)+E(Y)
4.当X和Y相互独立时,E(XY)=E(x)E(y)方差
方差是在概率论和统计方差衡量随机变量或一组数据时离散程度的度量。概率论中方差用来度量随机变量和其数学期望(即均值)之间的偏离程度。
D(x)=E ( ( X-E( X ) )2)离散型变量的方差:
随机型变量的方差:
展开上式可得:
性质L:
D©=0
D(CX)=C2D(X)
D(X±Y)=D(X)+D(Y)±2E( (X-E(X))*(Y-E(Y)) )
若X,Y相互独立,则D(X±Y)=D(X)+D(Y)离散型随机变量三大常见分布:
1.两点分布(伯努利分布)
定义:
一个非常简单只有两个可能结果的试验,比如正面或反面,成功或失败,有缺陷或没有缺陷,病人康复或未康复。记为X~(0,1)分布律:
X 0 1 P (1-p) p 性质:
期望E(X)=p
方差D(X)=p(1-p)2.二项分布
定义:
在n次独立重复的伯努利试验中,设每次试验中事件A发生的概率为p。用X表示n重伯努利试验中事件A发生的次数,则X的可能取值为0,1,…,n,且对每一个k(0≤k≤n),事件{X=k}即为“n次试验中事件A恰好发生k次”,随机变量X的离散概率分布即为二项分布。
可以简单理解为多次抛硬币事件的概率分布。
记做X~b(n,p)分布律:
X 0 1 。。。 k P C0p0(1-p)(n) C1p1(1-p)(n-1) 。。。 Ckpk(1-p)(n-k) 性质:
期望E(X)=np
方差D(X)=np(1-p)
就是在两点分布的基础上乘以一个n泊松分布:
定义:
二项分布的近似解,当n非常大,p非常小,计算十分复杂时,可以用泊松公式求近似解。(n>200,p<0.05) 记做X~P(λ)概率函数:
λ表示数学期望,即np
k表示事件发生的次数
性质:
期望E(X)=λ=np
方差D(X)=λ均匀分布
定义:
均匀分布也叫矩形分布,它是对称概率分布,在相同长度间隔的分布概率是等可能的。 均匀分布由两个参数a和b定义,它们是数轴上的最小值和最大值,通常缩写为X~U(a,b)。概率密度函数:
a表示区间上界,b表示区间下界
性质:
期望E(X)=(a+b)/2
方差D(X)=(b-a)2/12指数分布:
定义:
指数分布(也称为负指数分布)是描述泊松过程中的事件之间的时间的概率分布,即事件以恒定平均速率连续且独立地发生的过程。 这是伽马分布的一个特殊情况。 它是几何分布的连续模拟,它具有无记忆的关键性质。 除了用于分析泊松过程外,还可以在其他各种环境中找到。记做X~ E(λ)概率密度函数:
λ表示期望的倒数
性质
期望E(X)=1/λ
方差D(X)=1/λ2正态分布(高斯分布)
定义:
若随机变量X服从一个数学期望为μ、方差为σ2的正态分布,记为X~N(μ,σ2)。其概率密度函数为正态分布的期望值μ决定了其位置,其标准差σ决定了分布的幅度。当μ = 0,σ = 1时的正态分布是标准正态分布。概率密度函数:
标准化:将Y化为x的形式,转换为标准正态分布,方便查表计算。也可以用来算μ和σ。
F((96-0.5)/σ)=0.05,查表的到(96-0.5)/σ=2,可以求得σ。
性质
期望E(X)=μ
方差D(X)=σ2到这里概率论的基础就完结了,开始上数理统计部分了。概率论对深度学习帮助挺大的,主要是帮助理解概念,方便搭建更优化的神经网络。
-
常见分布的特征函数
2020-08-17 18:44:56六、指数分布 注意到 所以原式可化为 七、特征函数的性质 特征函数以指数的形式存在,因此可以化随机变量的加减为乘除 1、,则 2、,因此其模恒小于等于 1 3、 这个性质在求原点矩时经常用 ...特征函数的定义非常简单,随机变量 X 的特征函数
,其中 i 为虚数单位
一、伯努利分布
二、泊松分布
注意到,
所以原式可化为
三、几何分布
四、均匀分布
五、标准正态分布
六、指数分布
注意到
所以原式可化为
七、特征函数的性质
特征函数以指数的形式存在,因此可以化随机变量的加减为乘除
1、
,则
2、
,因此其模恒小于等于 1
3、
这个性质在求原点矩时经常用
-
常见概率分布的特征函数推导
2018-09-07 17:24:24单点分布的分布列为。 其特征函数计算方法如下: 2.二项分布 二项分布的分布列为。 其特征函数的计算方法如下: 3.泊松分布 泊松分布的分布列为。 其特征函数的计算方法如下: 4.几何分布 几何分布的... -
概率论与数理统计:六大基本分布及其期望和方差
2019-01-20 21:26:54概率论中有六大常用的基本分布,大致可分成两类:离散型(0-1分布、二项分布、泊松分布),连续型(均匀分布、指数分布、正态分布)。 补充: 在进入正文之前先讲一下期望和均值的一些区别: 期望和均值都具有... -
概率论常见分布极其公式
2020-04-11 15:18:39正态分布 拉普拉斯分布 伯努利分布 二项分布 泊松分布 指数分布 -
常见分布的数学期望和方差
2021-12-25 14:39:25常见分布的数学期望和方差 -
数据科学家应知必会的6种常见概率分布
2018-11-05 20:14:24版权声明:本文为博主原创文章,未经博主允许不得转载。 ... 前言 一常见数据类型 离散型数据 连续型数据 二分布类型 伯努利分布Bernoull... -
概率密度函数、概率分布函数、常见概率分布
2020-10-27 09:30:58概率密度函数是概率论中的核心概念之一,用于描述连续型随机变量所服从的概率分布。 从随机事件说起 回忆我们在学习概率论时的经历,随机事件是第一个核心的概念,它定义为可能发生也可能不发生的事件,因此是否发生... -
【概率论】几种常见的概率分布表
2021-11-14 20:00:16几种常见的概率密度、数学期望、方差 -
概率论中的六种常用分布
2018-09-29 17:54:38版权声明:本文为博主原创文章,欢迎转载,请标明出处。... 每天学习一点点: ...概率论中的六种常用分布,即(0-1)分布、二项分布、泊松分布、均匀分布、指数分布和正态分布。 ... -
概率论6大基本分布
2017-12-26 20:16:09每天学习一点点: 概率论中的六种常用分布,即(0-1)分布、二项分布、泊松分布、均匀分布、指数分布和正态分布。 -
常见分布律、分布函数、概率密度表,伯努利分布、二项分布、泊松分布、几何分布、超几何分布、均匀分布、...
2021-04-09 17:12:59# 离散型随机变量及分布律 | 分布名称 $\qquad\qquad\qquad$ | 记法 $\qquad\qquad\qquad\qquad$ | 分布律 $\qquad\qquad\qquad\qquad\qquad\qquad\qquad\qquad\qquad\qquad\qquad\qquad\qquad\qquad$ | 均值$E(X)$ ... -
六大常见聚类方法
2018-12-06 17:03:54使用高斯混合模型(GMM)做聚类首先假设数据点是呈高斯分布的,相对应K-Means假设数据点是圆形的,高斯分布(椭圆形)给出了更多的可能性。我们有两个参数来描述簇的形状:均值和标准差。所以这些簇可以采取任何形状... -
概率论中常见分布的数学期望、方差及特征函数推导 (一)离散型随机变量
2020-04-02 11:56:20概率论中常见分布的数学期望、方差与特征函数推导 (一)离散型分布 #1.单点分布 #2.两点分布 #3.二项分布 #4.泊松分布 #5.超几何分布 #6.几何分布 #7.负二项分布 1.单点分布 随机变量的取值,X=a(常数) 分布律:P(X... -
概率论笔记(三)几种常见的概率分布
2020-11-08 21:37:50文章目录一:伯努利分布/0-1分布二:二项分布三:泊松分布 一:伯努利分布/0-1分布 如果随机试验仅有两个可能的结果,那么这两个结果可以用0和1表示,此时随机变量X将是一个0/1的变量,其分布是单个二值随机变量的... -
几个常见分布的英文 哈哈 原创的第一篇
2015-12-10 19:15:15 B二项分布 binomial distribution P泊松分布 poisson's distribution U均匀分布 uniform distribution E指数分布 exponential distribution N正态分布 normal distribution -
常见的六大聚类算法
2019-09-24 15:22:35使用高斯混合模型(GMM)做聚类首先假设数据点是呈高斯分布的,相对应K-Means假设数据点是圆形的,高斯分布(椭圆形)给出了更多的可能性。我们有两个参数来描述簇的形状:均值和标准差。所以这些簇可以采取任何形状... -
常见的概率分布并生成随机数
2020-10-27 15:00:21一、均匀分布(uniform distribution) 在相同长度间隔的分布概率是等可能的。 1.概率密度函数: 2.分布函数: 3.期望和方差: 4.生成随机数 import numpy as np np.random.rand(10)#生成十个均匀分布... -
统计基础(六)卡方分布
2021-01-18 15:05:38卡方分布经常用于我们常见的卡方检验中。卡方检验一方面可以用来衡量观测分布和理论分布之间的拟合程度,另一方面也可以测量定性数据两个分类标准间的独立性。事实上,卡方检验还有很多其它的作用。 卡方分布是独立... -
数据科学中的常见的6种概率分布(Python实现)
2020-03-19 13:35:10我们日常生活中发生的许多常见现象都遵循正态分布,例如:经济中的收入分布,学生的平均报告数量,平均身高等。此外,中心极限定理说明,在适当的条件下,大量相互独立随机变量的均值经适当标准化后依分布收敛于... -
六种常见聚类算法
2022-03-31 02:35:10通过极大似然估计方法来使样本出现的概率p(X)最大从而得到分布函数参数,这样我们可以得到代价函数 由于连乘可能会导致下溢,所以需要取对数。对数函数是一个严格递增的函数,取对数后不会改变数据的相对关系,即... -
数据分布的六种策略
2018-03-06 20:44:081.1. 解决数据架构难点数据分布的六种策略from:PYY 数据分布的六种策略1) 独立Schema(Separate-schema)2) 集中(Centralized)3) 分区(Partitioned)4) 复制(Replicated)5) 子集(Subset)6) 重组(Recorganized)... -
机械学习07: 常用统计分布:正态分布、T分布、卡方分布、F分布
2019-09-05 11:50:34正态分布(Normal distribution)又名高斯分布(Gaussian distribution),是一个在数学、物理及工程等领域都非常重要的概率分布,在统计学的许多方面有着重大的影响力。 若随机变量X服从一个数学期望为μ、标... -
概率论与数理统计 | (11) 抽样分布和矩估计
2019-11-10 20:00:551. 单个正态总体的抽样分布 2. 两个正态总体的抽样分布 3. 矩估计 1. 单个正态总体的抽样分布 定理一 (2)的证明比较麻烦,略过,可以直接使用。 例题 当未知时,可用S来代替,此时有: 定理2 例题... -
直方图的常见类型
2021-11-27 09:55:351. 介绍 直方图也叫柱状图,它以坐标轴上波形图的形式显示照片的曝光精度,其横轴表示亮度等级,从左侧0(暗色调)到右侧255(亮色调),将照片...2. 直方图常见类型 2.1 右坡型直方图,照片偏亮 请添加图片描述 从.