精华内容
下载资源
问答
  • 积分的总结

    2020-08-09 11:15:02
    定义:不定积分是求导运算和微分运算不完全的逆运算。也是一种非构造的运算。 为什么是它是它的逆运算? 为什么说是不完全的逆运算? 为什么说它是非构造的运算? F′(x)=f(x)dF(x)=f(x)dx∫f(x)dx=F(x)+C F'...

    再学微积分

    初入微积分:不定积分

    定义:不定积分是求导运算和微分运算不完全的逆运算。也是一种非构造的运算。

    1. 为什么是它是它的逆运算?
    2. 为什么说是不完全的逆运算?
    3. 为什么说它是非构造的运算?

    F(x)=f(x)dF(x)=f(x)dxf(x)dx=F(x)+C F'(x)=f(x)\\ dF(x)=f(x)dx\\ \int f(x)dx=F(x)+C
    所以,称它是它的逆运算。

    :f(x)F(x)+C?证明:为什么f(x)的原函数是且仅是F(x)+C?
    f(x),F(x)假设f(x)的原函数不止一个,设F(x)是其中的特定的某一个。
    G(x),,:G(x)代表其中的任意一个。则,根据原函数的定义,有:
    F(x)=f(x),G(x)=f(x),:h(x)=G(x)F(x)=0F'(x)=f(x),且G'(x)=f(x),则有:h(x)=G'(x)-F'(x)=0。
    ,F(x)f(x),:所以,只要F(x)是f(x)的一个原函数,任意的一个原函数都可以被表示为:
    F(x)+C,f(x)F(x)+CF(x)+C,所以f(x)的原函数是且仅是F(x)+C

    假设不定积分和求导,微分在两个空间之间建立起了联系,那么,假设运算从求导,微分开始:
    解空间C1C1对应的解空间C2C2所对应的解空间不是C1C1。实际上C2C2C1C1的父集。
    故称它们是一对不完全的逆运算。

    任何一个特定的不定积分的求解空间Y2Y2是所有不定积分的求解空间的合空间Y1Y1的一个很小的子集。
    所以说它是非构造的运算。

    基本的不定积分公式

    0dx=C1dx=dx=x+Cxadx=1a+1xa+1+C(a1)x1dx=lnx+Caxdx=axlna+Cexdx=ex+Ccosxdx=sinx+Csinxdx=cosx+Csec2xdx=tanx+Ccsc2dx=cotx+Csecxtanxdx=secx+Ccscxcotxdx=cscx+C11+x2dx=arctanx+C=arccotx+C111x2dx=arcsinx+C=arccosx+C1 \int 0dx=C\\ \int 1dx=\int d x=x+C \\ \int x^adx=\frac{1}{a+1}x^{a+1}+C (a\not =-1)\\ \int x^{-1}dx= ln |x|+C\\ \int a^x dx= \frac{a^x}{ln a}+C\\ \int e^xdx= e^x+C\\ \int cos xdx= sin x+C\\ \int sin xdx= -cos x+C\\ \int sec^2xdx= tanx +C\\ \int csc^2dx= -cot x+C\\ \int sec x tan xdx=sec x +C\\ \int csc x cot xdx=-csc x +C\\ \int \frac{1}{1+x^2}dx= arctan x+C=-arccot x+C1\\ \int \frac{1}{\sqrt{1-x^2}}dx=arcsin x +C=-arccos x+C1

    不定积分的四大法宝

    1. 不定积分的线性运算法则

    f(x)dx,g(x)dxα,β():[αf(x)+βg(x)]dx=αf(x)dx+βg(x)dx 若\int f(x)dx,\int g(x)dx均存在\\ {\forall}\alpha,\beta(不同时为零)\\ 则:\int[\alpha f(x)+\beta g(x)]dx=\alpha \int f(x)dx+\beta \int g(x)dx

    例题1

    tan2xdxtan2xdx=(sec2x1)dx=sec2xdxdx 求\int tan^2xdx\\ \int tan^2xdx=\int (sec^2x-1)dx=\int sec^2 xdx-\int dx

    例题2

    1sin2xcos21sin2xcos2=sin2x+cos2sin2xcos2=(sec2x+csc2x)dx 求\int \frac{1}{sin^2xcos^2}\\ \int \frac{1}{sin^2xcos^2}=\int \frac{sin^2x+cos^2}{sin^2xcos^2}=\int (sec^2x+csc^2x)dx

    例题3

    x4x2+1dxx4x2+1dx=x41+1x2+1dx=(x21+1x2+1)dx 求\int \frac{x^4}{x^2+1}dx\\ \int \frac{x^4}{x^2+1}dx=\int \frac{x^4-1+1}{x^2+1}dx=\int (x^2-1+\frac{1}{x^2+1})dx

    2. 不定积分的凑微分(第一换元法)

    定义:在保持被积表达式的值不变时,于内部进行微分运算,以同时改变被积函数和积分变量,在整体上达到被积表达式形式的改变,以使其形式更加便于求解。

    例题1

    tanxdxtanxdx=1cosxdcosx=lncosx+C(cotxdx=lnsinx+C) 求\int tan xdx\\ \int tan xdx=-\int \frac{1}{cos x}dcosx =-ln|cosx|+C\\ (\int cot x dx=ln|sinx|+C)

    记住一些微分关系式

    adx=d(ax+b)2xdx=d(x2±a2)2xdx=d(a2x2)cosxdx=dsinxsinxdx=dcosx1xdx=dlnxexdx=dex a*dx=d(ax+b)\\ 2x*dx=d(x^2 \pm a^2)\\ -2x*dx=d(a^2 - x^2)\\ cos xdx=dsinx\\ sinxdx=-dcosx\\ \frac{1}{x}dx=d|lnx|\\ e^xdx=de^x

    例题2

    1a2+x2dx(a0)1a2+x2dx=1a211+(xa)2dx=1a11+(xa)2d(xa)=1aarctanxa+C 求\int \frac{1}{a^2+x^2}dx(a \not =0)\\ \int \frac{1}{a^2+x^2}dx=\frac{1}{a^2}\int \frac{1}{1+(\frac{x}{a})^2}dx=\frac{1}{a}\int \frac{1}{1+(\frac{x}{a})^2}d(\frac{x}{a})\\ =\frac{1}{a}arctan \frac{x}{a}+C

    例题3

    1a2x2dx(a>0)1a2x2dx=1a11(xa)2dx=11(xa)2d(xa)=arcsinxa+C 求\int \frac{1}{\sqrt{a^2-x^2}}dx(a>0)\\ \int \frac{1}{\sqrt{a^2-x^2}}dx=\frac{1}{a}\int \frac{1}{\sqrt{1-(\frac{x}{a})^2}}dx=\int \frac{1}{\sqrt{1-(\frac{x}{a})^2}}d(\frac{x}{a})\\ =arcsin \frac{x}{a}+C

    例题4

    1a2x2dx(a0)1a2x2dx(a0)=1(ax)(a+x)dx=12a(1ax1a+x)dx=12a(1ax1a+x)dx=12a[1axdx1a+xdx]=12alna+xax+C 求\int \frac{1}{a^2-x^2}dx(a \not =0)\\ \int \frac{1}{a^2-x^2}dx(a \not =0)=\int \frac{1}{(a-x)(a+x)}dx=\frac{1}{2a}\int (\frac{1}{a-x}-\frac{1}{a+x})dx\\=\frac{1}{2a}\int (\frac{1}{a-x}-\frac{1}{a+x})dx=\frac{1}{2a}[\int \frac{1}{a-x}dx- \int \frac{1}{a+x}dx] \\ =\frac{1}{2a}ln|\frac{a+x}{a-x}| +C

    例题5

    secxdxsecxdx=11sinx2dsinx=lnsecx+tanx+C(cscxdx=lncscxcotx+C) 求\int secxdx\\ \int secx dx=\int \frac{1}{1-sinx^2}dsinx\\ =ln|secx+tanx|+C\\ (\int csc x dx=ln|cscx-cotx|+C)

    另解:

    secxdxsecxdx=secx(secx+tanx)secx+tanxdx=1secx+tanxd(secx+tanx)=lnsecx+tanx+C 求\int secxdx\\ \int secxdx=\int \frac{secx(secx+tanx)}{secx+tanx}dx=\int \frac{1}{secx+tanx}d(secx+tanx)\\ =ln|secx+tanx|+C

    例题6

    eaxeax=1aeaxd(ax)=1aeax+C(cosaxdx=1asinax+C)(sinaxdx=1acosax+C) 求\int e^{ax}\\ \int e^{ax}=\frac{1}{a}\int e^{ax}d(ax)\\ =\frac{1}{a}e^{ax}+C\\ (\int cosaxdx=\frac{1}{a}sinax+C)\\ (\int sinaxdx=-\frac{1}{a}cosax+C)

    3. 不定积分的变量代换(第二换元法)

    定义:创建一个新的变元,并使其与x建立函数关系(这个函数被要求是可导并且严格单调的),而代替入被积表达式之中,以此使得被积表达式的形式发生变化,以使其形式更加便于求解

    记忆一些常用的代换

    1. a2x2,x=asint,t[π2,π2] \sqrt{a^2-x^2} ,令x=asint,t \in [-\frac{\pi}{2},\frac{\pi}{2}]
    2. a2+x2,x=atant,t[π2,π2] \sqrt{a^2+x^2} ,令x=atant,t \in [-\frac{\pi}{2},\frac{\pi}{2}]
    3. x2a2,x=asect,t[0,π2][π2,π] \sqrt{x^2-a^2} ,令x=asect,t \in [0,\frac{\pi}{2}]\cup [\frac{\pi}{2},\pi]
    4. ax+bcx+dn,ax+bcx+dn=t \sqrt[n]{\frac{ax+b}{cx+d}} ,令\sqrt[n]{\frac{ax+b}{cx+d}}=t
    5. ax+bn,ax+bn=t \sqrt[n]{ax+b} ,令\sqrt[n]{ax+b}=t

    例题1

    a2x2dxx=asinta2x2=a2a2sin2tacostdt=a2costcostdt=a2cos2tdt=a22(1+cos2t)tdt=a22t+a24sin2t+C=a22arcsinxa+a22sintcost+C 求\int \sqrt{a^2-x^2}dx\\ 令x=asint\\ \int \sqrt{a^2-x^2}=\int \sqrt{a^2-a^2sin^2t} acost dt=a^2\int |cost|costdt \\ =a^2\int cos^2tdt=\frac{a^2}{2}\int (1+cos2t)tdt=\frac{a^2}{2}t+\frac{a^2}{4}sin2t+C\\ =\frac{a^2}{2}arcsin \frac{x}{a}+ \frac{a^2}{2}sintcost+C

    2020-3-13-13-35-44.png

    ,=a22arcsinxa+a22xaa2x2a+C=a2212xa2x2+C 再根据上面的三角形法则,\\ =\frac{a^2}{2}arcsin \frac{x}{a}+ \frac{a^2}{2}* \frac{x}{a} \frac{\sqrt{a^2-x^2}}{a}+C=\frac{a^2}{2}* \frac{1}{2}x\sqrt{a^2-x^2}+C

    例题2

    1x2+a2dx(a>0)x=atant1x2+a2dx=asec2a2tan2t+a2dt=sectdt=lnsect+tant+C=lnx+x2+a2+C(:1x2a2dx=lnx+x2a2+C)() 求\int \frac{1}{\sqrt{x^2+a^2}}dx(a>0)\\ 令x=atant\\ \int \frac{1}{\sqrt{x^2+a^2}}dx=\int \frac{asec^2}{a^2tan^2t+a^2}dt\\ =\int sectdt=ln|sect+tant|+C\\ 再次运用三角形法则。此处省略。\\ =ln|x+ \sqrt{x^2+a^2}|+C\\ (同理:\int \frac{1}{\sqrt{x^2-a^2}}dx=ln|x+ \sqrt{x^2-a^2}|+C)(涉及到绝对值问题)

    例题3

    1x+x3dxx6=t1x+x3dx=6t5t3+t2dt=6t3+11t+1dt=6(t2t+1+1t+1)dx=6(13t312t2ln(1+t))+C=... 求\int \frac{1}{\sqrt{x}+\sqrt[3]{x}}dx\\ 令 \sqrt[6]{x}=t\\ \int \frac{1}{\sqrt{x}+\sqrt[3]{x}}dx=\int \frac{6t^5}{t^3+t^2}dt=6 \int \frac{t^3+1-1}{t+1}dt\\ =6 \int (t^2-t+1+ \frac{1}{t+1})dx=6(\frac{1}{3}t^3-\frac{1}{2}t^2-ln(1+t))+C=...

    例题4

    x2(2x+1)10dx(2x+1)=tx2(2x+1)10dx=18t22t+1t10=... 求\int \frac{x^2}{(2x+1)^{10}}dx\\ 令(2x+1)=t\\ \int \frac{x^2}{(2x+1)^{10}}dx=\frac{1}{8}\int \frac{t^2-2t+1}{t^10}=...

    3. 分部积分

    定义:将被积函数分为相乘的两个部分,C1(x)C1(x)C2(x)C2(x)。对其中容易求导的一个求导,容易求原函数的求原函数,设其分别为L1(x)L1(x)L2(x)L2(x)。将被积函数化为g(x)=L1(x)×L2(x)dxg(x)=L1(x)\times L2(x)dx,有f(x)dx+g(x)dx=C1(x)×L2(x)dx\int f(x)dx+\int g(x)dx=C1(x)\times L2(x)dx,编成一句口诀就是:“求原的真的求原了,求导的并不是真的求导”。

    :udv=uvvdu 原理:\int udv=uv-\int vdu

    证明:
    (uv)=uv+uv(uv)dx=uvdx+uvdxuv=vdu+udv(使) (uv)'=u'v+uv'\\ \int (uv)'dx=\int u'vdx+\int uv'dx\\ uv=\int vdu+\int udv\\ (也可以使用微分证明)

    例题1

    xexdxxexdx+exdx=xexxexdx=xexex+C 求\int xe^xdx\\ \int xe^xdx+\int e^xdx=xe^x\\ \int xe^xdx=xe^x-e^x+C

    记忆一些常见的分步积分情况

    1. L1(x)=Pk(x),L2(x)=eax(k)L1(x)=P_k(x),L2(x)=e^{ax}(需要k次不定积分)
    2. L1(x)=Pk(x),L2(x)=cosax(k)L1(x)=P_k(x),L2(x)=cosax(需要k次不定积分)
    3. L1(x)=Pk(x),L2(x)=sinax(k)L1(x)=P_k(x),L2(x)=sinax(需要k次不定积分)
    4. L1(x)=h(arc...x),L2(x)=P(x)(darc...x)L1(x)=h(arc...x),L2(x)=P(x)(能凑出darc...x则先凑)
    5. L1(x)=h(lnx),L2(x)=P(x)(dlnx)L1(x)=h(lnx),L2(x)=P(x)(能凑出dlnx则先凑)

    例题2

    (1+x2)cos2xdx(1+x2)cos2xdx+(2x)(sin2x2)=(1+x2)(sin2x2)xsinx+1(cosx)=x(cosx) 求\int (1+x^2)cos2xdx\\ \int (1+x^2)cos2xdx+\int (2x)( \frac{sin2x}{2})=(1+x^2)( \frac{sin2x}{2})\\ \int xsinx+\int1*(-cosx)=x(-cosx)\\

    例题3

    arctanx1+x2dxarctanx1+x2dx=arctanxdarctanx=12(arctanx)2+C 求\int \frac{arctanx}{1+x^2}dx\\ \int \frac{arctanx}{1+x^2}dx=\int arctanxdarctanx\\ =\frac{1}{2}(arctanx)^2+C

    例题4

    arctanxdxarctanxdx+x(11+x2)=xarctanxarctanxdx=xarctanx12ln(1+x2)+C 求\int arctan xdx\\ \int arctan xdx+\int x(\frac{1}{1+x^2})=xarctanx\\ \int arctan xdx=xarctanx-\frac{1}{2}ln(1+x^2)+C

    例题

    arctanxx2(1+x2)dxarctanxx2(1+x2)dx=(1x211+x2)arctanxdx=(1x2)arctanxdxarctanx1+x2dx{(1x2)arctanxdx+(1x)(11+x2)=(1x)arctanxarctanx1+x2dx=arctanxdarctanx:(1x)(11+x2)dx=(1xx1+x2)dxarctanxx2(1+x2)dx=... 求\int \frac{arctanx}{x^2(1+x^2)}dx\\ \int \frac{arctanx}{x^2(1+x^2)dx}=\int (\frac{1}{x^2}-\frac{1}{1+x^2})arctanxdx\\ =\int (\frac{1}{x^2})arctanxdx-\int \frac{arctanx}{1+x^2}dx\\ \begin{cases} \int (\frac{1}{x^2})arctanxdx+\int (-\frac{1}{x})(\frac{1}{1+x^2})=(-\frac{1}{x})arctanx \\ \int \frac{arctanx}{1+x^2}dx=\int arctanxdarctanx \end{cases}\\ 且又有:\int (\frac{1}{x})(\frac{1}{1+x^2})dx=\int (\frac{1}{x}-\frac{x}{1+x^2})dx\\ \int \frac{arctanx}{x^2(1+x^2)}dx=...

    展开全文
  • 无穷小是什么?

    千次阅读 2017-12-11 01:03:51
    300多年前,牛顿与莱布尼兹利用无穷小概念创立了微积分学,一直沿用了200多年。 但是,在数学中,无法严格地处理无穷小,因为,看起来无穷小概念会导致“矛盾”。In mathematics, infinitesimals (无穷小)are ...

    关注网址"www.wqxwjf.com” 
    在远古时代,人类在日常生活中就形成了无穷小的观念。到了现代,孩子们也懂得这一概念。300多年前,牛顿与莱布尼兹利用无穷小概念创立了微积分学,一直沿用了200多年。


    但是,在数学中,无法严格地处理无穷小,因为,初看起来无穷小概念会导致“矛盾”。In mathematics, infinitesimals (无穷小)are things(事物) so small(如此之小)that(使得) there is no way to measure them.(没有办法去度量它们)。


    直到上世纪69年代,鲁宾逊在逻辑上严谨地引入了无穷小的数学概念。1976年,J.Keisler在其基础上,撰写了一部“无穷小微积分”大学教科书。1978年,中科院计算所张锦文(已故)与袁萌把无穷小微积分引入中国。至今,无穷小微积分的专业网站与微信公众号均已开通,用百度,搜索关键词“无穷小微积分”便可。


    沧桑岁月,数百年过去了。现在,无穷小放飞互联网已经不是新鲜事,只是感叹知音者太少。


    袁萌,人已经老了。老人无用,是个“拖累”。看见娜娜牵着孩子的小手走路,孩子迈开大步跟在后面跑步走,我的眼珠也跟着转动,看不够。


    请关注微信公众号“无穷小微积分”!


    袁萌  12月11日

    展开全文
  • 本文面向对象心理和教育等社科统计的入门者。广义线性潜变量模型(Generalized Linear Latent Variable Models,在心理学和教育学常用的连接函数为probit或logit的项目反应模型或因子分析模型)和广义线性混合...

    本文面向对象是心理和教育等社科统计的初入门者。

    广义线性潜变量模型(Generalized Linear Latent Variable Models,在心理学和教育学常用的是连接函数为probit或logit的项目反应模型或因子分析模型)和广义线性混合模型(Generalized linear mixed model, GLMM,在心理和教育领域又称之为多层线性模型)是心理和教育统计的基础入门模型。

    初学的人应该明白,这两个模型在参数估计的过程中会遇到难以处理的积分(intractable integral)。例如广义线性潜变量模型,EM算法的Q函数为

    equation?tex=Q+%3D%7B%5Cint+L%28u%2C+a%2C+b%2C+%5Ctheta%29%7Dg%28%5Ctheta%7Cu%2C+a%2Cb%29d%5Ctheta

    其中

    equation?tex=u 是观察变量,

    equation?tex=a 是斜率,

    equation?tex=b 是截距,

    equation?tex=%5Ctheta 是潜变量,

    equation?tex=L 是似然函数,

    equation?tex=g 是条件概率密度函数。

    潜变量或维度较低的时候,传统的高斯厄米特积分(Gauss Hermite quadrature)足以胜任,在《Item Response Theory: Parameter Estimation Techniques》和《Generalized, Linear, and Mixed Models》这两本书中,也是推荐的高斯厄米特积分(在全息项目因子分析(多维项目反应理论):参数估计算法这篇文章中,用的也是高斯厄米特积分),但在高维情况下,高斯厄米特积分的设计矩阵会疯狂增长,以至于我们单机内存会不够用(如果我们用5个积分点估计10个维度的高维积分,我们的设计矩阵大小为

    equation?tex=9765625%5Ctimes10 ,这个矩阵元素数量为9700万,10个积分点估计10个维度,设计矩阵的元素数量将会是1000亿),如果在生产环境部署高斯厄米特积分代码处理高维积分,无异于是拿系统稳定性开玩笑(就算是分布式系统也不要尝试),所以在生产环境中,不仅需要我们用C++、cuda、并行处理或分布式计算加速我们的计算,还需要我们寻找一种高效的处理高维积分的方法。

    而处理GLLVM和GLMM模型的高维积分方法,主要有下面几种:

    马尔科夫链蒙特卡洛算法(MCMC)。MCMC算法是实现起来最简单的算法,堪称无脑式方法,给初中生培训两三天估计就能上手,优点是实现简单并且对初值不敏感参数估计结果稳定,缺点是速度慢且占内存;

    蒙特卡洛期望极大算法(MCEM)。MCEM方法是把EM算法中的难以处理的E步积分,用蒙特卡洛方法求解,优点与mcmc一样实现简单,运行速度比mcmc快很多倍,缺点是某些情况下容易梯度爆炸并且难以判断是否收敛;

    拉普拉斯近似(Laplace Approximation, LA)和自适应高斯厄米特积分(Adaptive Gauss Hermite quadrature, AGQ)。拉普拉近似和自适应高斯厄米特积分这两个方法本质上一个方法,拉普拉斯近似其实是一个积分点的自适应高斯厄米特积分,这两个方法也约可以看做是加了重要性抽样并且固定了样本值的MCEM方法,这两个方法其实都用了极大似然估计中点估计服从协方差矩阵为信息矩阵逆矩阵的渐进正态分布的性质或正交因子模型中因子协方差矩阵的性质,优点均是计算简单;

    变分近似(variational approximation, VA)算法。变分近似基于最大化ELOB,原理是找一个容易计算的普通函数近似难以处理的积分函数;

    期望传播(expectation propagation)算法。期望传播算法基于最小化KL距离,期望传播和变分近似在数学形式上很像,区别是期望传播走的是直接最小化KL距离的路线,并且期望传播算法看上去更像是矩估计;

    其他方法。还有一些非主流的方法,例如EM算法的变体MHRM算法,这是一种基于类似于随机梯度下降和MH采样的算法。

    这些方法已经广泛应用各个统计软件,例如R语言的package中,mirt采用了MCEM和MHRM,lme4之前的版本采用了LA和AGQ,最近版本好像只有AGQ,mcmcpack包含有处理高维irt的模块,还有一些小众的包采用了MCEM和VA。

    上面这张方法,无论是MCMC还是MCEM,还是AGQ,LA,VA,抑或是MHRM,你都可以看成是一种坐标下降法(coordinate descent),第一个步骤总是求隐变量,第二个步骤求实体参数。

    这一章主要聊MCEM。关于MCEM,推荐阅读《The EM Algorithm and Extensions》后面关于MCEM的章节。下面先以项目因子分析模型为例(连接函数为probit或logit的广义潜变量模型,另一种名称是多维项目反应理论)。

    最无脑的方法

    最无脑的做法是直接套用Bock和Aitkin的解法,Bock和Aitkin的解法是对带有积分的Q函数求梯度,然后将问题简化为求潜变量的后验条件概率密度。

    E步

    对带有积分形式的Q函数直接求score函数(偏导数),并经过一系列的计算和转换(详细请看《Item Response Theory: Parameter Estimation Techniques》),问题简化为求下式,即

    equation?tex=%5Ctheta_i 的后验条件概率密度

    equation?tex=P%28%5Ctheta_i%7Cu%2C+a%2C+b%29+%3D+%5Cfrac%7BL%28u%2C+a%2C+b%2C+%5Ctheta_i%29g%28%5Ctheta_i%29%7D%7B%5Cint+L%28u%2C+a%2C+b%2C+%5Ctheta_i%29g%28%5Ctheta_i%29d%5Ctheta%7D

    上式中

    equation?tex=g

    equation?tex=%5Ctheta_i 的先验概率密度函数,

    equation?tex=%5Ctheta_i 的先验信息默认为

    equation?tex=%5Ctheta_i%5Csim+N%280%2C+I%29

    equation?tex=L 是似然函数,当我们使用高斯厄米特积分的时候,

    equation?tex=%5Ctheta_i 的取值是高斯厄米特的节点(node),同时概率密度

    equation?tex=g 也相应的是高斯厄米特积分的权重(weight)。

    注意到

    equation?tex=%5Cint+L%28u%2C+a%2C+b%2C+%5Ctheta_i%29g%28%5Ctheta_i%29d%5Ctheta+%3D+E%28L%28u%2C+a%2C+b%2C+%5Ctheta_i%29%29 ,而先验信息

    equation?tex=%5Ctheta%5Csim+N%280%2C+I%29 ,所以我们可以随机的从标准多元正态分布中采集

    equation?tex=K

    equation?tex=%5Ctheta 的样本,所以

    equation?tex=%5Cint+L%28u%2C+a%2C+b%2C+%5Ctheta_i%29g%28%5Ctheta_i%29d%5Ctheta+%5Capprox+%5Csum_%7Bk%3D1%7D%5E%7BK%7D%7BL%28u%2C+a%2C+b%2C+%5Ctheta_i%29%29%5Cfrac%7B1%7D%7Bk%7D%7D

    所以

    equation?tex=g 的概率密度值为

    equation?tex=%5Cfrac%7B1%7D%7Bk%7D ,所以

    equation?tex=P%28%5Ctheta_k%29+%3D+%5Cfrac%7B%5Cfrac%7B1%7D%7BK%7DL%28u%2C+a%2C+b%2C+%5Ctheta_k%29%7D%7B%5Cfrac%7B1%7D%7BK%7D%5Csum_%7Bk%3D1%7D%5E%7BK%7DL%28u%2C+a%2C+b%2C+%5Ctheta_k%29%7D%3D+%5Cfrac%7BL%28u%2C+a%2C+b%2C+%5Ctheta_k%29%7D%7B%5Csum_%7Bk%3D1%7D%5E%7BK%7DL%28u%2C+a%2C+b%2C+%5Ctheta_k%29%7D

    M步

    M步的形式和高斯厄米特积分的M步一致,可以用irls或牛顿迭代或BFGS等求解。

    著名的R包mirt的MCEM方法用的就是上述的形式。这种形式的参数估计问题是很不稳定,非常容易出现类似梯度爆炸的问题,另外难以判断收敛(下图比较了LSAT数据集下的MCEM的收敛性和GQ(高斯厄米特积分)的收敛性)。优势是代码实现简单,非常容易推广到其他的IRT模型。MCEM的收敛不平稳GQ的收敛很平稳

    最无脑方式的对数似然值趋势

    最弱智的方法

    另一种方法是利用极大似然估计值渐进多元正态分布的性质。即

    equation?tex=%5Ctheta_i+%5Csim+N%28%5Chat%7B%5Ctheta_i%7D%2C+%5Chat%7B%5CSigma_i%7D%5E%7B-1%7D%29

    equation?tex=%5Chat%7B%5Ctheta_i%7D

    equation?tex=%5Ctheta_i 的估计,

    equation?tex=%5CSigma_i是信息矩阵,利用这个分布抽取

    equation?tex=K

    equation?tex=%5Ctheta_i 样本,然后求极大

    equation?tex=Q+%3D+%7B%5Cfrac%7B1%7D%7BK%7D%5Csum_%7Bk%3D1%7D%5E%7BK%7D%5Csum_%7Bj%3D1%7D%5E%7BJ%7D%5Csum_%7Bi%3D1%7D%5E%7BN%7DlogP%28u_%7Bij%7D%2C+a_%7Bj%7D%2C+b_%7Bj%7D%2C+%5Ctheta_%7Bij%7D%29%7D

    对于二分类模型

    equation?tex=P%28u_%7Bij%7D%2C+a_%7Bj%7D%2C+b_%7Bj%7D%2C+%5Ctheta_%7Bik%7D%29+%3DP%28a_j%2C+b_j%2C+%5Ctheta_%7Bik%7D%29%5E%7Bu_%7Bij%7D%7D%281+-+P%28a_j%2C+b_j%2C+%5Ctheta_%7Bik%7D%29%29%5E%7B1+-+u_%7Bij%7D%7D

    这种方法是最弱智的方法。通常不会有人使用这种方法进行mcem计算,已经计算了

    equation?tex=%5Chat%5Ctheta

    equation?tex=%5Chat%5CSigma ,为什么不直接使用LA和AGQ方法。另外,这种方法其实就是数据增强的坐标下降法(也即联合极大似然法),聊胜于无。

    最有趣的方法

    最有趣的采样方法是Stephen Schilling提出的,Schilling参考的是1991年的一篇讲MCEM贝叶斯二分类probit估计的文章,Schilling原文有些公式没有给出推导,可能会误导初学者,我在下面给出一些详细的推导。

    对于二分类probit回归(binary probit progression),我们有下面的公式

    equation?tex=P%28u_%7Bij%7D+%3D1+%7C+%5Ctheta_i%2C+a_j%2C+b_j%29+%3D+P%28x_%7Bij%7D+%3E+0%7C%5Ctheta_i%2C+a_j%2C+b_j%29 =

    equation?tex=%5CPhi%28%5Ctheta_i%5ETa_j+%2B+b_j%29

    所以依据广义线性模型对方差量纲的限制(设定为1),

    equation?tex=x_%7Bij%7D 服从截断正态分布

    equation?tex=x_%7Bij%7D+%5Csim+N%28%5Ctheta_i%5ETa_j+%2B+b_j%2C+1%29 ,如果

    equation?tex=u_%7Bij%7D+%3D+1

    equation?tex=x_%7Bij%7D+%5Cgeq+0 ,如果

    equation?tex=u_%7Bij%7D+%3D+0

    equation?tex=x_%7Bij%7D+%3C+0

    又带有均值结构的因子分析模型为

    equation?tex=X_i+%3D+B+%2B+%5Ctheta_i%5ETA+%2B+E

    其中

    equation?tex=X_i

    equation?tex=%5Ctheta_i 都是潜变量,

    equation?tex=A 是因子载荷,

    equation?tex=E 是误差,由于probit回归设定了误差方差为单位矩阵

    equation?tex=I ,所以

    equation?tex=E+%5Csim+N%280%2C+I%29 ,在因子分析中,通常采用tetrachoric相关矩阵计算因子载荷

    equation?tex=A 和 均值

    equation?tex=B ,由于残差方差固定为了单位矩阵

    equation?tex=I ,这种计算方法在著名的潜变量计算软件mplus中又叫delta法。

    注意到先验信息

    equation?tex=%5Ctheta_i+%5Csim+N%280%2C+I%29 ,所以该因子模型为正交因子模型,因子方差协方差矩阵除对角线外其他元素为0,对角线元素为1,所以

    equation?tex=E%28X_i%29+%3D+B+%2B+AE%28%5Ctheta_i%29+%2B+E%28E%29+%3D+B

    equation?tex=VAR%28X%29+%3DE%28%28X+-+B%29%28X+-+B%29%5E%7BT%7D%29+%3D+E%28%28%5Ctheta_i%5ETA+%2B+E%29%28%5Ctheta_i%5ETA+%2B+E%29%5E%7BT%7D%29%3DE%28A%5ET%5Ctheta_i%5Ctheta%5ETA+%2B+A%5ET%5Ctheta_i+E%5ET+%2B+E%5Ctheta_i%5ETA+%2B+EE%5ET%29

    注意到

    equation?tex=E%28%5Ctheta+%5Ctheta%5ET%29+%3D+VAR%28%5Ctheta%29%3DI

    equation?tex=E%28E%29+%3D+E%28E%5ET%29+%3D+0

    equation?tex=E%28EE%5ET%29+%3D+VAR%28E%29+%3D+I ,所以

    equation?tex=VAR%28X%29+%3D+A%5ETA+%2B+I

    由于probit回归中潜变量

    equation?tex=X_i 服从正态分布,所以

    equation?tex=X%5Csim+N%28B%2C+A%5ETA%2BI%29

    若把

    equation?tex=%5Ctheta_i 当做变量

    equation?tex=A%5ETE%28%5Ctheta_i%29+%3D+X_i+-+B

    equation?tex=AA%5ETE%28%5Ctheta_i%29%3DA%28X_i+-+b%29 ,所以

    equation?tex=E%28%5Ctheta_i%29+%3D+%28AA%5ET%29%5E%7B-1%7DA%28X_i+-+B%29

    上面公式严格来说应该通过最小二乘法或极大似然法导出,注意到

    equation?tex=%5Ctheta_i拥有先验信息

    equation?tex=%5Ctheta_i+%5Csim+N%280%2C+I%29 ,这相当于为我们之前因子公式的最小二乘形式加了一个

    equation?tex=L_2 正则项,所以我们需要把上面的公式改写成岭回归的形式(或者MAP估计的形式),即

    equation?tex=E%28%5Ctheta_i%29+%3D+%28AA%5ET+%2B+I%29%5E%7B-1%7DA%28X_i+-+B%29

    同样由岭回归最小二乘法参数估计的性质,我们可以得到

    equation?tex=VAR%28%5Ctheta_i%29+%3D+%28AA%5ET+%2B+I%29%5E%7B-1%7D

    所以

    equation?tex=%5Ctheta_i+%5Csim+N%28%28AA%5ET+%2B+I%29%5E%7B-1%7DA%28X_i+-+B%29%2C+%28AA%5ET+%2B+I%29%5E%7B-1%7D%29

    于是我们找到了

    equation?tex=X_i(注意到

    equation?tex=X_%7Bij%7D 服从截断分布,所以

    equation?tex=X_i 也服从截断分布) 和

    equation?tex=%5Ctheta_i 的分布

    equation?tex=X_i%5Csim+N%28B%2C+AA%5ET%2BI%29 ,如果

    equation?tex=u_%7Bij%7D+%3D+1

    equation?tex=x_%7Bij%7D+%5Cgeq+0 ,如果

    equation?tex=u_%7Bij%7D+%3D+0

    equation?tex=x_%7Bij%7D+%3C+0

    equation?tex=%5Ctheta_i+%5Csim+N%28%28AA%5ET+%2B+I%29%5E%7B-1%7DA%28X_i+-+B%29%2C+%28AA%5ET+%2B+I%29%5E%7B-1%7D%29

    由于

    equation?tex=X_i 的分布不依赖于

    equation?tex=%5Ctheta_i ,我们不需要通过像吉布斯采样那样的算法即可简单方便的采集

    equation?tex=%28X_i%2C+%5Ctheta_i%29 联合分布的样本。但是

    equation?tex=X_i 的分布是一个截断多元正态分布,技术实现较为困难,自论文发表20多年以来,工业界和学术界均没有一个快速的解决截断多元正态分布采样的方法。所以我们需要借助IRT局部独立性这个假设,把截断多元正态分布变成多个截断正态分布,即

    equation?tex=x_%7Bij%7D+%5Csim+N%28%5Ctheta_i%5ETa_j+%2B+b_j%2C+1%29 ,如果

    equation?tex=u_%7Bij%7D+%3D+1

    equation?tex=x_%7Bij%7D+%5Cgeq+0 ,如果

    equation?tex=u_%7Bij%7D+%3D+0

    equation?tex=x_%7Bij%7D+%3C+0

    由于

    equation?tex=x_%7Bij%7D 的分布依赖于

    equation?tex=%5Ctheta_i ,所以我们可以采用吉布斯算法采集

    equation?tex=%28X_i%2C+%5Ctheta_i%29 联合分布的样本,如果对吉布斯算法不了解,可以参考《Monte Carlo Statistical Methods》这本入门书,最简单的理解就是把吉布斯算法想象成坐标下降法(貌似万事万物都可以理解成坐标下降法)。

    所以我们采样算法最终如下

    依据先验信息

    equation?tex=%5Ctheta_i+%5Csim+N%280%2C+I%29 采集样本

    equation?tex=%5Ctheta_i

    步骤一:依据多个截断正态分布采集

    equation?tex=X_i

    步骤二:依据岭回归计算

    equation?tex=%5Ctheta_i 的均值和方差,在多元正态分布下采集

    equation?tex=%5Ctheta_i

    重复步骤一和步骤二直到合适时候的结束。Schilling论文表示处理LSAT数据集,需要燃烧前10次迭代,然后每隔5次迭代采样一个样本,总共采集25个样本即可。

    吉布斯抽样的Python代码

    from numpy.dual import svd

    from scipy.stats import truncnorm

    import numpy as np

    def multivariate_normal(mean, cov):

    x = np.random.normal(0, 1, mean.shape)

    u, s, v = svd(cov)

    x = np.dot(x, np.sqrt(s)[:, None] * v)

    x += mean

    return x

    def gibbs(scores, slop, threshold, point_size, burn, thin, collect_only_theta=True):

    person_size = scores.shape[0]

    dim = slop.shape[0]

    if collect_only_theta:

    theta_ar = np.zeros((point_size, dim, person_size))

    else:

    # 线性模型求解的充分统计量

    t_z = t_x = z_t_z = z_t_x = 0

    theta = np.random.normal(size=(dim, person_size))

    # theta方差

    v = np.linalg.inv(np.dot(slop, slop.T) + np.eye(dim))

    for i in range(point_size * thin + burn):

    z_val = np.dot(theta.T, slop) + threshold

    lower = np.zeros_like(scores, dtype=np.float)

    lower[scores == 0] = -np.inf

    lower[scores == 1] = -z_val[scores == 1]

    upper = np.zeros_like(scores, dtype=np.float)

    upper[scores == 1] = np.inf

    upper[scores == 0] = -z_val[scores == 0]

    # 采样x

    x = truncnorm.rvs(lower, upper, loc=z_val)

    # theta均值

    loc = np.dot(np.dot(v, slop), (x - threshold).T)

    # 采样theta

    theta = multivariate_normal(loc.T, v).T

    if i >= burn and (i - burn) % thin == 0:

    if collect_only_theta:

    theta_ar[int((i - burn) / thin)] = theta

    else:

    t_z += np.sum(theta, keepdims=True)

    t_x += np.sum(x, axis=0, keepdims=True)

    z_t_z += theta.dot(theta.T)

    z_t_x += theta.dot(x)

    if collect_only_theta:

    return theta_ar

    else:

    return t_z / point_size, t_x / point_size, z_t_z / point_size, z_t_x / point_size

    为了能向量化的进行多元正态分布采样,我自己写了一个进行多元正态分布随机数采样的方法,numpy原生方法不支持均值向量化操作。

    采样代码

    # 用logit生成模拟值

    slop = np.random.uniform(0.7, 2, (2, 10))

    threshold = np.random.normal(0, 1, size=(1, 10))

    theta = np.random.normal(0, 1, size=(1000, 2))

    z = np.dot(theta, slop) + threshold

    p = 1 / (1 + np.exp(-z))

    scores = np.random.binomial(1, p)

    # 初值

    slop_start_val = np.ones_like(slop)

    threshold_start_val = np.zeros_like(threshold)

    # 采样

    gibbs(scores, slop_start_val, threshold_start_val, point_size=2000, burn=100, thin=1, collect_only_theta=True)

    我们把采样的结果画成图采样呈现平稳分布

    M步

    M步的两种方法,一是只使用采集的

    equation?tex=%5Ctheta_i 样本集进行Q函数的极大计算,二是使用

    equation?tex=%28X_i%2C+%5Ctheta_i%29 两个变量的联合样本集或只使用

    equation?tex=X_i样本集 ,由于

    equation?tex=x_%7Bij%7D+%5Csim+N%28%5Ctheta_i%5ETa_j+%2B+b_j%2C+1%29 ,我们可以使用非常简单的最小二乘法求解

    equation?tex=a_j

    equation?tex=b_j

    第一种方法,还是对完全数据似然函数求期望

    equation?tex=Q+%3D+%7B%5Cfrac%7B1%7D%7BK%7D%5Csum_%7Bk%3D1%7D%5E%7BK%7DlogL%28a%2C+b%2C+%5Ctheta%29%7D%3D%7B%5Cfrac%7B1%7D%7BK%7D%5Csum_%7Bk%3D1%7D%5E%7BK%7D%5Csum_%7Bj%3D1%7D%5E%7BJ%7D%5Csum_%7Bi%3D1%7D%5E%7BN%7D%28u_%7Bij%7DlogP_%7Bijk%7D+%2B+%281-u_%7Bij%7D%29log%281-+P_%7Bijk%7D%29%7D%29

    其中

    equation?tex=P_%7Bijk%7D+%3D+%5CPhi%28a_j%2C+b_j%2C+%5Ctheta_%7Bik%7D%29

    equation?tex=%5CPhi 是probit函数,

    equation?tex=i 指代person,

    equation?tex=j 指代item,

    equation?tex=k 指代采样的样本,为了节省内存同时加快速度,我们一般不对Q函数直接求极大,而对每一个

    equation?tex=Q_%7Bj%7D 求极大,即对

    equation?tex=Q_j%3D%7B%5Cfrac%7B1%7D%7BK%7D%5Csum_%7Bk%3D1%7D%5E%7BK%7D%5Csum_%7Bi%3D1%7D%5E%7BN%7D%28u_%7Bij%7DlogP_%7Bijk%7D+%2B+%281-u_%7Bij%7D%29log%281-+P_%7Bijk%7D%29%7D%29 求极大,这种方法一看就知道E步起的作用是数据增强,并且这种方法类似于最弱智的MCEM方法。

    第二种方法非常的easy,直接套用最小二乘公式即可求解

    equation?tex=A ,

    equation?tex=B 。对于第二种方法,在我们采样的时候,没必要保存每一个采样的样本值,只需要计算参数估计的充分统计量期望即可,即

    equation?tex=E%28%5Ctheta%5ET%5Ctheta%29 ,

    equation?tex=E%28%5Ctheta%5ETX%29 ,

    equation?tex=E%281%5ET%5Ctheta%29 ,

    equation?tex=E%281%5ETX%29 ,我们可以使用

    equation?tex=%28X_i%2C+%5Ctheta_i%29 或只使用

    equation?tex=X_i 计算充分统计量,然后依据这些充分统计量的期望值,计算

    equation?tex=A ,

    equation?tex=B

    equation?tex=A%3D%5Cfrac%7B%28E%28%5Ctheta%5ET%5Ctheta%29%E2%88%92%5Cfrac%7BE%281%5ET%5Ctheta%29%5ETE%281%5ET%5Ctheta%29%7D%7Bn%7D%29%5E%7B-1%7D%7D%7BE%28%5Ctheta%5ETX%29+%E2%88%92+%5Cfrac%7BE%281%5ET%5Ctheta%29%5ETE%281%5ETX%29%7D%E2%80%8A%7B%E2%80%8An%7D%7D

    equation?tex=B+%3D+%5Cfrac%7BE%281%5ETX%29+%E2%88%92+E%281%5ET%5Ctheta%29A%7D%7Bn%7D

    Schilling方法的优势是很稳定,劣势是吉布斯采样的速度问题,虽然可以用并行采样规避这个问题,收敛准则难以判断(Schilling原文给出了一种判断mcem收敛的方法,有兴趣的可以看看,下图是估计LSAT数据集的斜率变化过程,用的是第一种方法,即求Q函数极大)。LSAT数据集斜率参数估计

    Schilling方法推广到ordinal数据模型的时候,需要进行一些简单的参数化的工作,Schilling方法还能非常容易的推广到动态IRT模型和层级IRT模型等等复杂的IRT的参数估计上,总之Schilling方法是非常棒的一种参数估计方法。

    三种方法的本质

    三种方法的本质都是求潜变量的条件概率密度。其中最弱智方法和最有趣方法的本质也是数据增强,所以这两种方法的条件概率密度都是

    equation?tex=%5Cfrac%7B1%7D%7BK%7D (

    equation?tex=K 是每个样本集上的采样数),这两种方法的参数估计也较为稳定,而最无脑方法采用的是计算后验概率密度,由于每次采样的潜变量值不一样,导致这种方法容易梯度爆炸,所以我也很疑惑为什么R包mirt会采用这种方法。

    随机效应示例

    稍后补上

    代码示例

    稍后补上

    展开全文
  • 再谈无穷小是什么?

    千次阅读 2018-03-04 22:16:41
     袁萌 3月4日附:无穷小是什么?全文如下: 在远古时代,人类在日常生活中就形成了无穷小的观念。到了现代,孩子们也懂得这一概念。 300多年前,牛顿与莱布尼兹利用无穷小概念创立了微积分学,一直沿用了200多年...

    无穷小微积分网址:www.wqxwjf.com
           
    经过5年的努力,今天无穷小已经在互联网上“鹤立鸡群”,独树一帜。

            袁萌 3月4日

    附:无穷小是什么?全文如下:

            在远古时代,人类在日常生活中就形成了无穷小的观念。到了现代,孩子们也懂得这一概念。

            300多年前,牛顿与莱布尼兹利用无穷小概念创立了微积分学,一直沿用了200多年。

            但是,在数学中,无法严格地处理无穷小,因为,初看起来无穷小概念会导致“矛盾”。In mathematics,infinitesimals (无穷小)are things(事物) so small(如此之小)that(使得) there is no wayto measure them.(没有办法去度量它们)。

            直到上世纪60.;鲁宾逊在逻辑上严谨地引入了无穷小的数学概念。1976年,J.Keisler在其基础上,撰写了一部“无穷小微积分”大学教科书。1978年,中科院计算所张锦文(已故)与袁萌把无穷小微积分引入中国。至今,无穷小微积分的专业网站与微信公众号均已开通,用百度,搜索关键词“无穷小微积分”便可。

            沧桑岁月,数百年过去了。现在,无穷小放飞互联网已经不是新鲜事,只是感叹知音者太少。

            袁萌,人已经老了。老人无用,是个“拖累”。看见娜娜牵着孩子的小手走路,孩子迈开大步跟在后面跑步走,我的眼珠也跟着转动,看不够。

        请关注微信公众号“无穷小微积分”!


    袁萌  12月11日
    展开全文
  • 如何获取积分 萌新来CSDN,起先的话想要找一些简单的DEMO下载参考的,但是发现弄不来积分。请问现在0积分的萌新用户除了通过充值还有什么方式能够获取积分呢? ...
  • 会员积分体系设计思路(转)

    千次阅读 2019-03-30 09:38:00
    在公司进行相关产品开发的时候,如果初创型公司或是公司的某个项目刚开始,难免会遇到要开发一个会员积分体系以激励用户的情况,下面我结合我工作中遇到的问题,进行了一些思考和整理。 我认为,作为一个产品经理...
  • 关于微积分教材的合理使用

    千次阅读 2018-06-29 14:48:46
    看起来,这个问题有点儿古怪,什么叫“合理使用”?实际上么这当代版权运动的一个前言问题。    具体来说,J.Keisler撰写的“ElementaryCalculus”微积分教材的合理使用指:使其遵守如下的版权使用协议...
  • 多久没看球了?多久没认真看球了? 还记得和好基友看球是什么时候吗?...(是什么?) 面对挫折,面对平凡,你是否激情依旧? 热血、挥汗、荣耀、呼喊、泪流满面! 这是按部就班的工作
  • 下面详细给大家介绍中级经济师职称是什么,有什么作用,报考条件是什么,以及考试相关规定。一起来看看吧! “经济师” “经济师”是我国职称之一,是国家对各行业从事经济工作人员能力和水平的鉴定。要取得...
  • 数学是美的,正如日月星辰。今天笔者就来带着大家一起来从0...在数学中我们要研究高维问题,最简单的方法就是降维打击,对,假设我们用一个二向箔把一个三维的圆柱体降成二维会是什么图形呢? 对!!!是圆。(我...
  • 多久没看球了?多久没认真看球了?...(是什么?) 面对挫折,面对平凡,你是否激情依旧? 热血、挥汗、荣耀、呼喊、泪流满面! 这是按部就班的工作和生活,不能给你的! (我缺乏激情?我不够...
  • 在我们、高中和大学近10年的学习时间里,数学一直占据着非常大的分量,但是回忆过去可以发现,我们把大量的时间都花在反复解题、不断运算上,计算方法、运算技巧、笔算能力以及数学公式的记忆仿佛成了我们学习数学...
  • 积分的教程中提到过处处连续处处不可微的函数,最典型的例子便维尔斯特拉斯函数。直观地看,除了孤立的点之外,似乎连续的函数都应该可导。古典观念认为,连续函数的不可导的点集合在某种意义上应当很小,比如说...
  • 就加了个穿墙的功能和积分的功能,积分用的htm5新加的window属性localStorage  关于HTML5的web存储,w3c这么说的: HTML5 提供了两种在客户端存储数据的新方法: localStorage - 没有时间限制的数据存储...
  • 这款游戏适合各男女老少,讲求一定的策略并且具有非常高的可玩性,每局游戏时间不长,可以有效利用你的碎片化时间,游戏内的人物基本都熟悉的人物,这点很棒,唯一美中不足的,策划干活太慢啦,什么时候公测!...
  • ACM比赛完了后怎么办

    千次阅读 2017-11-22 14:39:28
     我一个ACM竞赛选手,现在大三,在今年12月的CCPC-FINAL结束后,我也差不多该走出这个ACM圈子了。  对于接下来我该做什么,我真的好想有个方向,我感觉我大学第一次这么没有目标。  说说我自己在考研面前,...
  • JZOJ 3012 购买

    2019-09-30 03:24:15
    看题目,以为定有什么玄机 可是自己并不会打。 这时便想到贪心,先做积分少的(类似于用少的做铺垫) 后来发现这对的,但也好像不能叫贪心,也许就是一道模拟 具体做法: 1.按照积分为关键字进行排序 2.设...
  • 我在ITPUB的日子

    2009-07-23 14:53:34
    到此论坛时,通过搜索资料找到的。当时在技术论坛下了些资料,也发帖子问了些问题,...后来好像PUB搞什么活动,要求积分在50以上才能参加,于是我使劲在技术论坛发贴,却发现积分涨得很慢。闲逛中发现这里有个...
  • 知乎网站胡说八道,误人子弟!

    千次阅读 2017-10-08 13:26:10
    知乎说:微积分的严格的数学基础在20世纪就已经建立完成了。(实际上,我印象中19世纪末,不过记不清楚还是保险起见为好。)逻辑上就是普通的逻辑。没有专门为其搞出什么特别的逻辑或哲学。我记得罗素对这个成就...
  • 作为移动APP的创业者,往往遇到的困扰,人家都开发过的功能了,劳资还得辛辛苦苦开发一遍,比如说什么积分系统啊,什么IM组件啊,什么滤镜啊,而且发一个版本官网就得改一次,做一次微信营销就要开发个H5页面……...
  • 计算机的诞生之初是为了计算一些需要大量人力物力去完成的数值计算,比如说计算弹道,等你人工去计算出来,黄花菜都凉了。 1946年2月14日,由美国军方定制的世界上第一台电子计算机“电子数字积分计算机”(ENIAC ...
  • 2020.12.12数据204王梦雨

    千次阅读 2020-12-12 23:18:24
    不停的聚会,逛街,各种我不愿意参加的活动,为了积分积分,其实我更愿意更多的时间花在学习上,认认真真的去奋斗。 我爱小组的饮水机,爱小组的学长学姐,没有架子,随和,说话自由。而不是你干什么,都要讲究要...
  • 椭圆函数基础介绍

    2020-10-03 16:05:29
    在基础数学中,有三类超越函数,分别指数函数,对数函数,和三角函数(圆函数),在高等数学中又引进了一类函数叫做椭圆函数,为什么在高等数学中引入,因为这类问题的主要解决需要用在积分以及复变函数领域内。...
  • R语言 时间序列ARIMA模型方法

    万次阅读 多人点赞 2017-02-17 14:17:03
     ARIMA:全称为自回归积分滑动平均模型(Autoregressive Integrated Moving Average Model,简记ARIMA),由博克思(Box)和詹金斯(Jenkins)于70年代提出一著名时间序列预测方法 ,所以又称为box-jenkins模型、...
  • 小菜很纠结

    2011-08-23 11:41:30
    进这个IT行业,现在还真是一个菜鸟,俺知道这种专业的网站,一个很好的学习地方。 我也经常在这边学习很多的技术,了解很多的业界行情。 然而,当一名初学者 ,肯定可以想想,我没有什么资源,什么能力能够共享...
  • 两天前,屈臣氏集团宣布在全球推出VIP尊尚会员计划,将在2019年之前推广至24个营运...众所周知,会员在零售行业当中,并不是什么“新产物”,甚至过去各种会员的积分、打折券、兑换券等等,都已经被用滥了。但为什...
  • 线性代数是什么? 在大学数学学科中,线性代数是最为抽象的一门课,从初等数学到线性代数的思维跨度比微积分和概率统计要大得多。很多人学过以后一直停留在知其然不知其所以然的阶段,若干年之后接触图形编程或机器...
  • <!-- @page {margin:2cm} p {margin-bottom:0.21cm} ... 大家知道,互联网与袖珍电子书本世纪的电子产品,而布尔巴基学派的鼎盛时期在上世纪的五十... 实际上,我们将微积分知识体系分解为一系列超小型的“袖
  • 这种iocp读写文件的方法相对一般网上找到的标准读写文件代码会新奇一点,算不上什么精品,但也应该不算垃圾,仅供中级程序员参考交流,切勿抱过大期望。由于本人已经没有多少万恶的下载积分,所以发布出来,仅...

空空如也

空空如也

1 2
收藏数 36
精华内容 14
关键字:

初积分是什么