精华内容
下载资源
问答
  • 冲压展开长度计算公式
  • 钣金展开计算公式,钣金展开计算实列讲解。
  • 它也需要用特殊折弯模具成形,而且要分为两道以上的工序才能成形,压死边折弯的展开长度计算公式为:3.压筋1)倾斜压筋如图12此压筋为一斜面,一般H值较小,其展开的计算式为:L = A+B+C+0.2注:...

    1 90°折弯(一般折弯)

    a667d9eb1b1284bca27f91203c8cc0a0.png

    展开的长度为:L=LL+LS-2t + 系数a

    系数a的经验值如下表

    ba4b3e4b729a2458b6f758bc8d2167fd.png

    压死边

    dcf2ca26d4799a0a209c3f38c2f39206.png

    如图11。压死边是两层重叠在一起的折弯形状,通常用来起加强作用,因此2。0mm以上的板很少见压死边。它也需要用特殊折弯模具成形,而且要分为两道以上的工序才能成形,压死边折弯的展开长度计算公式为:

    563da444ce29b766283ef1f9d792327f.png

    3.压筋

    1)倾斜压筋

    a677b4ae49030c431a448728ed8e7773.png

    如图12此压筋为一斜面,一般H值较小,其展开长的计算式为:

    L = A+B+C+0.2

    注:A、B、C = 内尺寸,0.2=补偿值

    2)直角压筋

    8ffe019c3d295f5c84b53b21772fbd4a.png

    如图13压筋边为直立边,一般其C值较大,展开长的计算式为:

    L = A+B+C-4T+2a+0.5

    注: A、B = 外尺寸

    C = 包括两层板厚的高度

    a = 90°折弯的系数

    0.5 = 补偿值

    3)平行压筋

    294f899b2990f888d313da35ac819898.png

    如图14,压筋最大值仅为H=2t,其展开长度的计算式为:L = A+B+H+0.2

    注:A、B = 内尺寸;

    H = 压筋高度;

    0.2= 补偿值。

    *由于压筋高度主要靠增减压筋模具的调整片来保证,并且操作员各自的经验不尽相同,因此有时会出现折弯后虽然高度达到要求,但整体展开尺寸过大或过小的情况,这时要根据实际的偏差来调整。

    展开全文
  • 泰勒公式展开细节解析

    万次阅读 多人点赞 2017-08-05 08:58:22
    上周写完了《《三体》读后思考-泰勒展开/维度打击/黑暗森林》后收到一些邮件,进一步思考了关于泰勒展开的意义。也许我掌握的那些网络技术比如Linux Netfilter,NAT之类,太过底层太过小众,所以大家几乎都是没有感...

    上周写完了《《三体》读后思考-泰勒展开/维度打击/黑暗森林》后收到一些邮件,进一步思考了关于泰勒展开的意义。也许我掌握的那些网络技术比如Linux Netfilter,NAT之类,太过底层太过小众,所以大家几乎都是没有感兴趣的,倒是这种科普性质的文章和那些吐槽类的文章,会引发一系列的互动,这对我来讲是好事,因为我喜欢跟人交流技术和思想。

    声明

    本来这篇文章应该添加在《三体》读后感后的“补遗”一节呢,后来觉得太长了,有点喧宾夺主的意思,就单独写了一篇文章。
      其实吧,这篇文章已经跟《三体》小说没有太大的关系了,这纯粹是一篇关于数学的文章,但是由于本文要涉及大量关于“趋势的趋势的趋势”,“走势的走势的走势的走势”,“导数的导数的导数的导数的导数…”,为了保持一致性,我将本文的题目写成了“《三体》读后感的读后感…”,可能后面还有,未完待续!

    第一部分.泰勒展开解释

    很多人对我解释的泰勒展开提出了自己的疑问,这些疑问大致都是对下面的问题表示不解:
    为什么可以从一个单独的点不断求导就可以画出整个函数的曲线?即“一点是如何蕴含整个世界”的。
    诚然,这个问题其实在数学上是及其容易证明的,在定量的角度,随便找出一本讲微积分或者数学分析的书都可以得到令人满意的回答,我在文章《《三体》读后思考-泰勒展开/维度打击/黑暗森林》中也给出了一个简易的推导。然而,在满足了逻辑上的自洽后,我们很多人对一件逻辑上合情合理的事情便有了探索其实际意义的欲望,比如我们会问,它的物理意义是什么,它的几何意义是什么,甚至更基本的,它的意义是什么?就这么问着问着,便似乎有了一点哲学探索的味道,在我看来,这便是最精彩的!
       很多人都看过双截棍表演,但现如今很少有人了解鞭术了,其实你可以把鞭子看成是N趋近于无穷大时的N截棍,玩起来更难。其实我也不是很懂,就是为了解释这个泰勒展开才稍微看了一点关于鞭术的东西,具体来讲,执鞭人手执鞭子在原地只是上下左右按照一定的规则甩鞭,一条很长的鞭子就会整体展现成各种漂亮的曲线,他是怎么做到的?
       当然,从物理上讲,这当然是若干列波从执鞭处向鞭子的另一端传播,传播的过程在不同的点产生了定向的效果,然而似乎不是一个很好的足以让人满意的解释,我们的问题是,那个执鞭人的手需要怎么个动作,才能让鞭子整体上看来是那种效果?
      这个问题我是回答不了,因为我不懂鞭术,身边也没有懂的人,但是这个问题似乎和本文一开始的那个问题讲的是同一回事,即从一个点来蕴含整体的行为。

      我的观点是:既然走势可以让人预测曲线上邻接的下一点的大致位置,那么走势的走势便可以相对精确地预测邻接下一点的具体位置,紧接着,走势的走势的走势便可以告诉人们这种趋势可以延续到什么时候,再继续…这似乎超出了人们的想象力…我们还是用简单的数学来表示吧。我们先从1阶导数,2阶导数,3阶导数的几何意义说起。
      先看1阶导数,我们知道,它是经过曲线上某点的切线的斜率:

    这里写图片描述

    我们来看这个1阶导数可以预测到多远处呢?如果我们仅仅知道该点的坐标以及有这么一个该点的1阶导数的值,我们几乎什么都预测不了,除了知道在该点处有沿着切线向上的趋势之外,这没能为我们画出这个曲线带来帮助,似乎下面的曲线都能满足,然而真正正确的只有一个:

    这里写图片描述

    换句话说,1阶导数只能将邻接的下面的点定位到两个范围中的一个:

    这里写图片描述

    so,我们需要进一步的信息,我们继续求2阶导数,看看能挖掘出什么新玩意儿。
      2阶导数是1阶导数的导数,换句话说,它代表了检测点切线的变化趋势,有了这个趋势,我们是不是可以相对精确地预测邻接的点的位置了呢?我们先看2阶导数的几何意义为何。学过数学的都知道,2阶导数表示了曲线的凸凹,对于凸函数,2阶导数是负数,它表示切线的斜率会越来越小,而对于凹函数,2阶导数是正数,它表示切线的斜率越来越大:

    这里写图片描述

    因此,有了2阶导数,我们对接下来的曲线走势定位就更加精确了,我们可以进一步缩小邻接的点的取值范围:

    这里写图片描述

    具体的坐标由2阶导数的具体值来约束。
      到了这一步,进一步将曲线往前延伸似乎是无望的,因为:

    1.首先,我们不知道代表检测点凸凹性的2阶导数的值在将来会不会逆转,即我们不知道曲线会不会由凸变凹或者由凹变凸;
    2.其次,即便假设函数的凸凹性不变,我们也不知道接下来曲线是越来越凸/凹呢?还是反过来呢?

    毕竟,我们只求得了检测点的1阶和2阶导数,注意,它们都只是一个数字,而不是一个带有自变量的新的函数,所以我们通过1阶导数和2阶导数,得到仅仅是2个值,仅此而已,如果我们能得到关于曲线任意一点的2阶导数的函数表达式,那么我们当然可以预测曲线2阶函数的走势,但在本文中,我不会那么做,我就假设,我们没有这个函数表达式,只有一个检测点的2阶导数的值!怎么办?
      我们继续看3阶导数。在此之前,我必须要澄清一个我的观点。
      我在知乎上查过相关资料,另外还特意请教过一些搞数学的老师或者朋友,得到的解答可能都是从哪个地方看到的一致性解答,说3阶,4阶,5阶…导数这些没有几何意义和物理意义,数学只追求逻辑上的完整,自包容,而不是去追求什么几何意义,物理意义。我并不赞成这个说法,以霍金为例,它的虚时间模型虽然只是数学上的技巧,但是最终的目标却是为他的有限无界的宇宙几何模型服务,这说明,完成逻辑完整性证明和寻找其意义同等重要,可能后者还会更重要,我没有看到哪一个伟大的物理学发现背后仅仅是纯粹的思辨性的数学,不管是牛顿的引力场,还是爱因斯坦的引力场,还是霍金的量子引力,在逻辑严谨性支撑的前脸,都有一个漂亮得体的几何模型作为表象。

      3阶导数不难求,继续对2阶导数表达式求导,然后代入检测点的x值即可,然而3阶导数的意义是什么?其实仔细想想,并不难理解,这正如2阶导数主导1阶导数的变化从而把1阶导数自认为正确的“以直代曲”的直线模拟拉成弯曲的或者凸或者凹的曲线一样,3阶导数同样主导2阶导数的变化,它可以表示“曲线是继续凸下去或者继续凹下去,还是会在某一个x值后逆转,由凸变凹或者由凹变凸”。用语言表示比较苍白难以理解,于是我画个图示:

    这里写图片描述

    好了,有了3阶导数,我们似乎进一步将曲线向前推进了,至少是预测出了一种趋势,然而这个趋势是必然的吗?考虑到一种情况,比如当前检测点的2阶导数值为1,表示曲线在检测点是凹的,而同时3阶导数的值为-1,这表示可能接下来邻接点的2阶导数会比1小一点,最终会变成0甚至负数,这意味着曲线会由凹变凸,即经历一个拐点,但这种预测一定会发生吗?
      不一定!But why?
      虽然当前检测点的3阶导数值为-1,但这并不意味着它会一直保持-1,如果它一直保持-1,那么我们的预测正确,但是如果曲线的3阶导数在该检测点是递增的呢?这意味着会发生下面的情况:
    在曲线从检测点 x0 开始,2阶导数变为0甚至负数之前,其3阶导数就已经从-1递增到0以上了,这说明虽然曲线的凹性越来越显得不那么凹,有变平变凸的趋势,但这种趋势的趋势越来越弱,还没等曲线变成凸的,这种作用便消失了,曲线将会继续保持凹型发展下去…
      上面的判断简直可以弥补3阶导数的误差,曲线进一步前进,很帅!那么如何判断3阶导数的走势呢?简单,求4阶导数!
    进一步,以上这样发展会持续多久呢?好吧,求5阶导数吧,可以再推进一步。我们对曲线走势的掌握离开检测点随着越来越高阶导数的求解渐行渐远,6阶导数,7阶,8阶,9阶…我们对曲线走势的预测将越来越接近原先的函数。

      我来画一个实际的例子结束讨论:

    这里写图片描述


    这是不是有点像鞭术大师执鞭表演,力道和甩鞭模式从大师的手掌开始沿着鞭体传播,模式的频率越低,影响的越远。除了鞭术,还有双截棍,如果玩双截棍的时候打到了自己,那么一定是哪个导数没有求好,比如4阶导数搞错了…
      在了解了曲线的走势后,剩下的就是用二项式去拟合了。其实,这种二项式叠加的拟合方式并没有什么特殊的含义,只是因为它是可以做到的而已,你同样可以用傅立叶变换的方式将一个函数在频域上展开,因为那也是一种可能的方式。其实任何两个或者多个带有实际效应的表达式叠加在一起,整体而言都会表现出各个叠加体局部的性质,这里重要的是一个纯数学上的技巧,即如何确定二项式的系数,可以肯定的是系数跟各阶导数是相关的,剩下的问题就是待定系数法求解了,这并不是需要赘述的内容。
      综上,在这个待定系数的角度,二项式拟合任何曲线实属凑出来的,因为凑出来的二项式叠加表达式的各阶导数值恰好等于原函数的各阶导数值。
      然而这并不能让不断寻找意义的人满意,如果非要在纯数学之外去寻找这样做的意义,那么我们可以从中值定理入手去理解。说好了不谈这些诸如中值定理的,但事实上,想彻底理解一个数学概念,这些概念是避不开的,问题是,我们如何更简单地(而不是更复杂地)去理解它们。
      以拉格朗日中值定理为例,它的中值定理是这样的:

    f(x)x0,x,[x0,x],ξ[x0,x]使:f(x)=f(x0)+f(ε)(xx0)

    按照这个思路展开,既然在直观的1阶导数情形下,拉格朗日中值定理拥有的几何意义,那么在2阶导数均拟合的情况下,是不是可以有下面的描述呢:

    f(x)x0,x,[x0,x],ξ[x0,x]使:f(x)=f(x0)+f(x0)(xx0)+f(x0)2!(xx0)2+f(ε)3!(xx0)3

    这个式子可以推广到 N 阶,这是一种很常见的思路,把一个式子一般化后推广,然后小心求证其合理性,待到证明完成,便可以进一步地解释现象,这种思路承接了近代绝大部分的科学技术进步!
      我来给出上式子的一个几何解释,虽然我们想象不到2阶导数依照其几何意义如何画出来,但是我们可以把原始的函数本身升一个维度,然后用积分的思想去理解2阶导数的几何意义。
      理解我在说什么了吗?我的意思简单点说,就是积分式的1阶导数(其实是导函数)就是被积函数,被积函数的1阶导数就是积分式的2阶导数,而我们知道积分式是有几何意义的,它表示面积,而被积函数则表示曲线,再进一步积分式的2阶导数则表示曲线上某点切线的斜率…这样,相当于我们将2阶导数看成了切线斜率,将1阶导数看成了曲线本身,而原始函数看成了曲线与x轴围成的面积:

    Farea=f(x)=x0g(x)dx
    f=g(x)
    f=g=线

    这样我们就可以用拼接图形求总面积的方式来在更高的维度表达类似拉格朗日中值定理的式子了。我们看一个图示:

    这里写图片描述

    我们依照上面的图示,试着求一下 OxDA 的总面积,首先我们将其表示成各个小块的和的形式:

    SOxDA=SOx0P0A+Sx0xCP0+SP0CB+SP0BD

    然后我们依照图示中的几何关系来分别求各个小块的面积,幸运的是,以直代曲的思想在此体现的淋漓尽致,我们要求的只是简单的三角形,矩形的面积,而我们知道这些完全用加减乘除四则混合运算就足够了,是不是很符合二项式叠加的思想呢?殊途同归!首先看 SOx0P0A ,由定义,我们知道它就是 f(x0) ,接下来看 Sx0xCP0 ,它是个矩形,变长分别为 xx0 LP0x0 ,而 LP0x0 按照定义,它就是 g(x0) ,而 g(x0) 又是什么呢?很显然根据上面的微积分关系,他就是 f(x0) ,到此为止我们可以把面积求和算式写成如下的样子了:

    SOxDA=f(x)=f(x0)+f(x0)(xx0)+SP0CB+SP0BD

    还剩下两项,现在来看 SP0CB ,它是个三角形,我们知道它的底边长就是 xx0 ,而高则是 LCB ,同时我们知道切线的斜率就是 f(x0) ,那么 LCB 显然就是 f(x0)(xx0) 咯!我们把它代入到上面的式子:

    SOxDA=f(x)=f(x0)+f(x0)(xx0)+12f(x0)(xx0)+SP0BD

    最后还剩一下一项了,即 SP0BD ,它太小了,并且貌似不是很容易计算,因为它不是三角形,也不是任何用直线围成的,它的上沿是一条曲线…这可怎么办?我们注意到,当 x x0趋于接近的时候,这块小面积就趋近于 0 了,这便是可以忽略不计了,这就是极限的思想,当然这不是本文的主题咯。我在画上面的示意图的时候,特意将x x0 拉开了一定的距离,这是为了直观,在真正的微积分运算中,这段距离就是无穷小,那么图形 SP0BD 的面积也就是无穷小了,暂且记为 O(SP0BD) ,最终的式子为:

    SOxDA=f(x)=f(x0)+f(x0)(xx0)+12f(x0)(xx0)+O(SP0BD)

    这样,当切分的区间越来越细致时, O(SP0BD) 越来越趋向于 0 (这个很容易用积分中值定理从直观上看出来,事实上,O(SP0BD)的值就等于 f(ε)3!(xx0)3 ).
      好了,这就是一个在2阶情况下,中值定理大致的几何印象。循着这个思路推广下去,泰勒公式就在眼前了。
      虽然我们想象不出来 N 阶中值定理的几何意义,但是正像物理学中经常提及超维一样,我们也可以把二维的笛卡尔坐标系拓展成“无限维度空间中的超立方体”。这样的假设下,似乎还不是特别令人满意,但也就只能这样了。
      事实上,我这里可以给出一点提示,利用积分中值定理可以证明泰勒公式在意义层面的合理性,利用分部积分从我上面给出的2阶导数直观几何意义开始,可以逐渐导出完整的泰勒公式!我不会在本文正文中去表达这些内容,因为怕公式太多。当你看线条找不出线条,夹角之间的关系时,试试面积,升个维度试试。
      最后,记住一个结论,N阶导数的几何意义物理意义要比如何用泰勒多项式表达任意表达式更加重要,后者只是说明它“恰好能做到”而已,除了泰勒多项式,傅立叶展开也可以达到同样的效果,另外,还可能有别的。
      在观察二项式拟合任意函数的时候,我们知道“它恰恰可以做到”,现在的问题是如何感性的认识到这一点,即“它为什么就可以做到?”,我们以下面的两个多项式为例,来点感性认识:

    f(x)=x2
    f(x)=x3

    我们把它们画在一个图里:

    这里写图片描述

    可以看得出,2次多项式的曲线表明它是关于 y 轴对称,而3次多项式的曲线表明它是关于O对称的。这个时候,我们试试两个二项式加和的图像时什么,为了保持对比,我把原始的两个二项式留在了图里:

    这里写图片描述

    感觉2次的多项式完全被3次多项式碾压覆盖,表现不出任何它自己的特征,我们可以清晰地看到,在 x 取值小于0的时候,根本表现不出2次曲线的行为,这似乎不是一个好消息,因为直观地看,次数越高的多项式在整体的求和表达式中越占据主导地位,那些次数较低的多项式都只是配角,负责曲线水平或者垂直的移动而已…这似乎打破了“任意次多项式求和表达式”可以拟合任何曲线的神话。
      然而,我们没有考虑缩放。
      直观地看,虽然3次曲线在x变化时,其 y 值的变化剧烈程度要大于2次曲线(从其1阶导数上便能看得出,2次曲线是2x,3次曲线是 3x2 ),如果我们能适当地,恰到好处的把二者的差异通过缩放平滑掉,那么结果如何呢?考虑到我们只能用四则混合运算,非常简单,给3次多项式除以一个大于1的系数,减小它的 y 效应,或者给2次多项式乘以一个大于1的系数,从而增加它的y效应,我们来看看结果如何。先看缩小3次曲线效应的结果:

    这里写图片描述

    再看增加2次曲线效应的结果:

    这里写图片描述

    这基本上达到了我们的预期。
      到这里,我们知道,二项式的加和表达式是“可以”拟合任何曲线的,而泰勒展开式的那些系数则是一组“恰到好处”的系数,它保证了原表达式和展开表达式的各阶导数都是相等的!

      我想,我终于把该表述的都说完了,有人提到说让我用动画去表示曲线的拟合,这个确实要比用图形和文字更加震撼,然而It is beyond my ability,我并不会这些东西,我所用的gnuplot都要折腾好久,我并没有什么更好的简单的工具来帮我做更加直观的东西,所以就只能通过画草图和文字加以赘述,实为能力所限,实在抱歉。
      我们考虑一个形象的表述来结束关于这个话题的讨论,那就是牛顿定律的 公式:

    v=at
    s=f(t)=v0t+12at2

    我们知道, 的1阶导数就是速度,2阶导数就是加速度,在恒力 F0 作用下,2阶导数是一个不随时间变化的定值,那么问题是,时间 t 后的位移由谁决定,仔细想想就会明白,如果我们忽略恒力导致的加速度a,即忽略 的2阶导数,那么时间t后的位移为:

    st=vt0t

    很显然,在恒力的作用下,这与真实的位移结果差很多,距离当前时间越远,结果误差就越大,很显然,在离当前时间 t0 的适当远 t 处,位移/时间的2阶导数便派上了用场,在恒力作用下,它可以精确计算相对于当前时间的位移。
      以上的讨论仅仅是在恒力作用下牛顿第二定律导出的结论,然而如果施加的力不是恒定的,而是一个关于时间t变化的变力 F=f(t) ,那么此时仅仅2阶导数便不足以刻画时间 t 后精确的位移了,此时要想预测时间t后的位移,随着 t 距离当前时间的远去,的3阶导数,4阶导数…便派上了用场,注意,变化率的变化率使得我们能在越来越远的地方预测趋势,这个正是和上文中关于泰勒展开的讨论是一致的。

    值得一提的是,牛顿在当初导出微积分重要结论的时候,就是为了研究物理运动的,特别是天体的运动,因此关于位移/时间在微积分上的结论应该是从《自然哲学的数学原理》中可以看到的第一手结论。

    第二部分.另外一种刻画的方式

    一般而言,我们在画一个函数的图像时,基本就两点:

    1.首先求解各阶导数,判断其增减性,凸凹性,极值,拐点等,并且描出这些点;
    2.其次,拟合若干个可以判断的具体点。

    这样,大致的曲线就画出来了,可以看到,这种画法跟素描的方式非常像,简直就是素描!先画轮廓,然后进一步细化。然而我觉得这不是云天明故事中针眼画师的画法,这也不是我的画法。
      不管怎样,虽然两种不同的画法在操作细节上是截然不一致的,但是结果是,两种方案的结论是完全一致的,函数被刻画了,性质坦然地舒展了,还有什么性质没有暴露呢?嗯,也许在无穷远处的无穷小的误差可能会引发逻辑上的争论。但此事并不经常,也不绝对。
      在正文中我是通过一个单独的点来蕴含整体模式的,然而在数学上,多数的建议却是,采用了素描的方式从粗到细地去刻画。两类的效果是一致的。

    第三部分.关于导数和频率

    我们知道,1阶导数就是函数在 x 变化时,对应到y变化的效应,而2阶导数则是 x 变化时,对应到函数1阶导数的变化效应,以此类推。最后我们发现,整个N阶导数对应是一系列不同频率的变化效应,而整个原始的函数曲线正是这些不同频率的效应的叠加,用这个思路去解释傅立叶展开是非常合理的,然而我们发现它竟然也可以对应地去解释泰勒展开!
      随着求导阶数的增加,效应频率也在不断降低,最终这些不同频率的效应将反馈到函数曲线上的任意一点,而这就完整勾勒出了整条曲线。如果能掌握了这个道理,那么那些执鞭者便可以从单点甩出任意曲线了,我们都知道,频率越高,传播距离越短,频率越低,传播距离越长,当然执鞭者也知道这个道理。这一切在数学上的反映,那就是:
    求导越深,频率越低,影响越远,曲线越拟合。
    爆炸!旋转升降座椅一定会爆炸!赶紧换椅子。

    很多人在看了这些文章后,都给了一些建议,比如说加入一些动画,我起初是不擅长这些的,然而主音吉他手告诉我说gnuplot里做gif超级简单,于是我在周一下班后仔细研究了一下,确实很简单,虽然还没有完全掌握关键的语法,但是比葫芦画瓢还是可以的。
      以下是一个 y=sin(x) 的泰勒展开的gif动画,红色代表原始的 y=sin(x) ,绿色曲线的每一帧表示多了一阶的导数,也就是展开式中多了一项,可以看得出,随着求导的深入,绿色曲线将越来越拟合原始的正弦曲线,能拟合到什么程度呢?答案是“你想到什么程度,就能到什么程度”
    这里写图片描述

    附录

    A. 分部积分法推导泰勒公式

    我们从正文中提到的的中值定理的变形体入手:

    f(x)=f(x0)+f(x0)(xx0)+

    为了简单起见,我忽略掉了余项 O(SP0BD) ,注意,只是在写法上忽略了余项,事实上它是会一直存在的,这个余项会随着推导的进行,一直往后逼,越来越小。
      我们首先希望推倒多米诺骨牌的第一块试试看,升个维度,把导数写成积分的形式,我们有:

    f(x)=f(x0)+xx0f(xr)dr

    请注意, r 是计算积分使用的变量,它和计算整个叠加和所用的x是不同的。以上就是整个多米诺骨牌布景了,现在该推倒第一块了!使用分部积分法则:

    udv=uvvdu

    u=f(xr)
    v=r

    xx0f(xr)dr=(f(xr)r)xx0xx0rdf(xr)

    xx0f(xr)dr=f(x0)(xx0)+xx0f(xr)2dr2

    f(x)=f(x0)+f(x0)(xx0)+xx0f(xr)2dr2

    好了,多米诺骨牌的第一块已然推倒了…接下来就观测吧!给出点提示:注意上面式子的第三部分:

    f(xr)2dr2

    如果我们再次设 u=f(xr) v=r2 呢,继续享受上面的分部积分过程吧
      大致意思就是这样,过程就不详细写了。

    B.泰勒公式失效的场景(这个附录会很长)

    是滋补鸡汤还是慢性毒药,刚刚喝完的时候是无法获知的,然而,当你喝下去这碗汤后3天,如果它是鸡汤,你无法在这么短的时间内体会到它带给你的益处,如果它是毒药,你将死去…
      是时候把物理意义扯出来了。
      在正文中,我强调的那些可以“从一点窥见整个世界”的曲线其实有有条件的,那就是它的定义域必须是全体实数,且处处可导,若不是这样的话,情况就会复杂得多,这些复杂的情况在本附录讨论。在详细讨论前,有个声明。
      由于本文并不是在同一时间写的,中间间隔了一个工作周,在这一周中我学会并喜欢上了Geogebra,所以我放弃了gnuplot,以下的图示全部来自于Geobebra。让我们开始吧!
      首先看一个简单的反比例函数 y=1x ,我们看下它的图像:

    这里写图片描述

    且问曲线如何从A点“按照趋势”延伸到B点?A点和B点之间有一堵墙,该墙不可逾越!因为分母不能是 0 ,所以y轴理所当然就是这堵不可逾越的墙了,换句话说, y 轴左右两边是隔离的两个世界,在数学上,这个x=0的点就叫做奇点
      奇点的意义在于,在该点,曲线是没有定义的,在这种点处,求导什么的都是毫无意义的,这些点真的就是“奇异”的点,任何计算,任何公式,定律都毫无意义(下文中将会赋予奇点以意义!)。
      知道了奇点的概念后,再说一个例子。
      有一天我微信上问温州皮鞋厂老板有没有什么好玩的东西,老板说算 5 比较好玩,然后我便犯了一个低级的错误。我信口开河“把 y=x12 泰勒展开,把 5 代入不就可以了吗”,为了在计算中不引入根号,瞬间想到了在x=1处展开…计算是简便了,然而结果对吗?
      我们先来看一段动画,即在 x=1 处展开 y=x12 的最多 n=50 阶逼近的过程(Geogebra做这个非常帅!简单直接易上手!):

    这里写图片描述

    n=1 n=50 ,把 x=5 代入均得不到正确的结果。可见,结论并不是我们之前预期的那样,在“ x=1 这一个点窥见整条曲线”,显然“能窥见”的曲线范围仅仅局限在大致 (0,2) 这个区间里。到底发生了什么?在进一步阐释物理意义之前,我还有点建议,如果你没有接触过复分析,收敛圆,收敛半径,审敛法这些,那么正好,如果你接触过这些但只是懂概念,能推导,那么建议暂时忘掉,如果你精通这些,那么不建议继续阅读下去。
    ………….
    霍金的宇宙模型中,奇点是所有经典物理定律完全失效的地方,它既是,它同时又是所有!霍金认为,量子理论可以解释奇点里发生的事,毕竟物理学不是哲学,人们显然不能接受纯粹的无或者无穷。奇点蕴含了整个宇宙本身,在创世之初的那一瞬间,奇点就是整个宇宙,它是时间,它是空间,它是上帝本体!
      宇宙的膨胀意味着时间的膨胀和空间的膨胀,既然是膨胀,肯定需要多余的物质和能量,当我们吹气球的时候,气球之所以会膨胀,那是因为有气体不断地注入气球内部,同时气球球壁还有足够的厚度可以展开,总之,整个过程是需要物质(球壁)和能量(吹气)的!宇宙外面是什么并不是我们讨论的范围,霍金认为宇宙就是宇宙,是一个自洽的整体,那么显然没有在宇宙外面吹气的那个人,宇宙也不会有球壁…促使宇宙膨胀的物质和能量来自哪里?
      来自奇点!
      来自奇点!
      来自奇点!
      奇点早就蕴含了一切!
      用霍金宇宙的奇点思想理解数学上的奇点概念,是朴素的。一条连续且光滑的曲线,它由它的奇点蕴含并生成,以 y=1x 为例,它由两条连续且光滑的曲线构成, x=0 是该函数的一个奇点,也是唯一的奇点,那么 x=0 处便蕴含并可生成整个两条曲线了。
      你可以把奇点想象成一个无线维度浓缩在一起的一个点,就像面团一样,可以展开到任何维度,可以擀成饺子皮,可以拉成拉面,可以团成馒头…现在我们用奇点的概念来描述一下函数 y=x12 的曲线的生成过程:

    这里写图片描述

    如果不加干预,整个曲线会一直展开下去,直到遇到定义域的边界,那么在泰勒公式的干预下,事情有所不同,当我们说将原函数在 x=a 处泰勒展开的时候,实际上我们是接管了整个展开过程, x>a 的后面的曲线将不再从奇点拉出,而是由泰勒公式预测出来并展开,此时奇点的物质和能量将停止向外释放,原始函数的曲线生成将停止,此后,泰勒展开的过程将用另外一条曲线去替代原始函数的曲线。需要注意的是,当我们将函数 f(x) x=a 处泰勒展开的时候,并非只针对 x>a 的点有效,而是所有定义域的点都有效,毕竟泰勒展开式和原始函数是完全不同的两个函数!
      由上面的过程性描述可知,如果将 f(x) x=a 处泰勒展开了,那么泰勒公式仅仅能看到的是曲线从其奇点开始到 x=a 结束这个区间的部分,其余的部分它是看不到的。这意味着什么?
      这意味着,泰勒公式仅仅可以利用曲线来自奇点的从奇点到这个展开点之间的小区间的“物质”和“能量”,这些能量有多少决定了泰勒公式能量曲线往后(离开奇点的方向上)延展多远,如果说从奇点到泰勒展开点,能量已经释放了 E ,那么泰勒公式就只能利用大小等于E的能量去展开原函数:

    这里写图片描述

    事实上也确实这样,抛开这些烧脑的东西,在我们日常生活中也经常会碰到类似的情况。
      当一个人讲话的时候,一些喜欢接话头的人就会插嘴说,我知道你想说什么,我来说吧。然而这种出风头的策略并非总是奏效。如果原来讲话的人刚开始说话,那么插话的人往往也预测不了太多的内容,然而如果最开始讲话的人说了很久,那么一些暗中观察的插话者往往能预测很多的内容并接着说下去。回到我们的泰勒展开,也就是说,展开点离开奇点越远,那么泰勒公式拟合的就越远,这背后的思想就是能量守恒,奇点已经将能量积累到了展开点,那么泰勒公式也就仅仅能用这么多能量(事实上所谓的能量就是各阶导数信息)来展开,这么多能量能跑多远呢?积累过程跑了多远,那就还能跑那么远!想想单摆运动吧,就这个道理。
      那么 y=sin(x) y=ex 这些函数的奇点在哪里?这些函数的奇点在无穷远处。这意味着,在任意一个展开点,函数曲线本身都已经积累的无穷的能量(即信息),这说明泰勒公式可以将其完全展开到无穷。
      离奇点越近,各种趋势越不易表现出来,奇点附近刚开始积累趋势,趋势尚未表现,这就是能量和运动的观点,我就是这样避开了那些收敛圆,收敛半径这些概念的。

    C.到底什么是数学

    如果你觉得数学纯思辨性的类似哲学的东西,那么你可以忽略我下面的所述,如果不是,请看完它,哪怕是心里压着邪火,保持着愤怒。
      只有在古希腊数学才是纯思辨哲学的分支,从罗马帝国的地中海世界开始,一直到今天,数学都只是工具,解题工具。当然这里说的解题并非我们考试中的解题,而是实实在在的处理数据时必须要解决的难题。
      不要把炼丹术和占星术看作是迷信这种不可救药的东西,它们和数学的关系源远流长。首先指出,现代数学和古希腊数学完全不是一个概念,甚至几乎没有什么关联,所以在理解现代数学本质的概念的时候,千万不要去想什么毕达哥拉斯学派什么的。炼丹术和占星术是现代化学和天文学的先祖,当它们无法用咒语欺骗国王的时候,它们就必须拿出证据来保住自己的饭碗,这无形中将它们推向了现代科学的“深渊”。千万不要将哥白尼,伽利略,牛顿…他们看成是拥有现代科学品质的明事理的人,在他们的年代,他们无一例外都披着神学的外衣,只是他们在处理一些棘手问题的时候,偶然间发现了一些所谓的真相,要让这些真相在逻辑上变得合理,他们必须处理大量的数据从而期望导出一些隐藏在这些数据背后的关系。在处理数据的时候,他们无一例外地被数据和关系的复杂性困扰,于是乎他们搞出一些处理技巧,这些技巧就是现代数学的前身,因此可以说炼丹术和占星术引导了现代物理,现代物理激发了现代数学,这其中一脉相承的就是神学和哲学的不断渗透和对抗。
      明白了这些之后,你会发现现在中学大学里的数学课程的教法是多么没有意义。这些课程看似很深邃,然而都是毫无意义的。我记得我上大学的时候(当时还是本科,后来才“进修到大专”),老师给我们讲梯度散度旋度,最后的输出就是背诵了一大堆的定理和公式,我问老师这些有什么用,老师说这些期末考试是必考点,以后考研也会考…后来我退学后跑到了女朋友(小小的妈妈)学校外面的村子里租了个房子,刚过去时,正逢她们班要期末考试了,也要考高等数学,什么洛必达法则,牛顿/莱布尼兹公式…爆炸,她们是日语教育专业啊!考这玩意儿毛用啊!
      然而抱怨是苍白的,我依然要拖着疲惫的身躯去给她们讲高等数学,对了,还包括她的同班男生,反正就是我女朋友全班…讲着讲着我就上瘾了(其实也没讲多久),当有人问我学这些有什么用的时候,我总是微笑着回答,这些都是必考点,以后你们考研也会考,说这话时我特别自豪,微笑里带着些许嘲讽和洒脱,因为我TMD再也不用考试和考研了!我不知道当时这样回答我的老师是不是也是这么想的。
    ….
    在以后的学习生涯中,我彻底摒弃了学校里的那一套,因为我再也不用考试了,而且也不会再参加任何形式的考试。所以我变得天马行空,我从马鞍面导出了Linux Netfilter的设计模型,最终确认作者也是这么想的,然后我想仅仅是精通iptables的配置或者看完conntrack的代码是多么Low啊,于是便更进一步探索了Cisco和Netfilter在设计上的差异,最终实现了基于Netfilter的Cisco模型…在我学习最小二乘法的时候,我试图理解平方的深意,后来我看了牛顿的《原理》之后,发现了平方律和立方律简直就是构成我们世界的基本元素啊!
      王姐姐说牛顿是外星人,我表示赞同。然而牛顿是怎么思考的?!
      1905年,爱因斯坦的奇迹年,主角是一位不修边幅,收入不高的专利局小职员,有点像《三体》小说作者刘慈欣,在火电站工作,不好好上班天天上班时间写小说…然而就是这个爱因斯坦道出了现代数学的本质,它只是工具!爱因斯坦从来没有系统学习过现代数学,他只是在用到的时候去请教身边的数学专家,他真的就是把数学当扳手使的。我不晓得其它的人怎么想,我只知道,狄拉克的算符,费曼的积分,霍金的虚时间轴,这些都是数学上的技巧,你要是问有什么物理意义,我觉得他们本人都说不出,只是这么处理很方便,仅此而已吧。
      那么,既然现代数学只是个工具,岂不是很Low?!No!每一个数学上的突破,均代表了一系列的总结,最终会引领新的突破,这方面,数学已经替代了哲学。在我工作的计算机领域,任何一个想法,如果你不能用数学表示出来,那便是不可处理的,请问不可处理的东西能完成KPI吗?于是便有了数学建模。然而模型的建立谈何容易。
    【外出买菜,未完待续】
    (TODO)

    展开全文
  • 中性层在高曲过程中的长度和弯曲前一样,保持不变,所以中性层是计算高曲件展开长度的基准。1、中性层的位置与变形程度有关,当弯曲半径较大,折弯角度较小时,变形程度较小,中性层位置靠近板料厚度的中心处;当...

    板料在弯曲过程中外层到到拉应力,内层受到压应力,从拉到压之间有一既不受拉力又不受压力的过度层为中性层;中性层在高曲过程中的长度和弯曲前一样,保持不变,所以中性层是计算高曲件展开长度的基准。

    1、中性层的位置与变形程度有关,当弯曲半径较大,折弯角度较小时,变形程度较小,中性层位置靠近板料厚度的中心处;当弯曲半径较小,折弯角度增大时,变开程度随之增大,中性层位置逐渐向高曲中心的內侧移动。中性居到板料內侧的距离用A表示(见图一)。

    6170525ca9c3306ee16a10a284adc3f0.png

    2、折弯模具:

    我们使用的小松数控折弯机庑配套的普通折弯模具Ⅴ型槽宽度通常为适用该折弯模的板厚的5-6倍。板厚与适用V型槽宽(见表1)。

    3ce2011e9a073b89695d6af743ecf1b8.png

    3、展开计算方法:

    3.1 90°折弯(一般折弯)

    19617eebba784a42bd52840ddadce1b1.png

    3.1.1(如图二),由于我们常用的折高上模的尖角通常小于0.5,所以折高内圆弧R可以视为定值,因此折弯拉伸系数的影响因素主要取决于折弯下模槽宽V和材料厚度t。展开长度的计算公式为(1):

    L=L1+L2-2t+系数a;

    3.1.2折弯系数a的计算公式为(2):

    a=-0.075V+0.72t-0.01

    其中:V--下模槽宽:t--材料厚度

    3.1.3为方便计算将展开长度的计算公式间化为(3):

    L=L1+L2-系数C

    注:篇化系数C=(2t-系数a)见表2

    3.1.4多次折弯展开长度的计算公式为(4):

    L=L1+L2+L(n-1)C

    其中:n--折弯次数

    058e0c75e8450b83e4be1c97ad245592.png

    4、反折压平(双折边)

    cc69814bc0484fb98375fefe7a48a74c.png

    4.1如图三,双折边是两层钢板重叠在一起的折弯开状,通常用来起加强作用,因此2.0mm以上的板很少见压死边。它需要用特殊折弯模具成形,而且要分为两道以上的工序才能成形

    4.2双折边的展开长度计算公式为(5):

    L=L1+L2-系数C

    4.3系数C的经验值见表3。

    323cd9e365677afb22a6bca868ebb6c9.png

    5、钝角折弯

    fe6baee785db3f985ec512a6509c5aa2.png

    5.1(如图四)我们常用的钝角折边通常为135、150°,属开长度计算公式为(6):

    L=L1+L2-系数C

    5.2系数C的经验值(二)见表4

    aa3e01f76925932aa30814fe273e5395.png

    6、折边工艺

    6.1最小折边工艺

    60ec958321e1fc89232c8eb6d6394926.png

    6.1.1(如图五)最小折边尺寸为公式(7):

    Lmin=(V/2)+2+t

    6.1.2不同材料厚度的最小折边尺寸Lmin(见表5)。

    cdf6257bb3471e2c1901cec489398d64.png

    6.1.3最小Z型折边中间高度(如图六),Z型折边中间高度受V型槽中心到下模边距离影响,最小折边高度为公式(8):

    Hmin=(V/2)+2.5+2t

    afbac138869c8acc43bb896f08e20f32.png

    6.1.4 不同材料厚度的最小Z型折边中间高度Hmin见表6。

    25c9799e5861dae95c7ac5be601f8e6c.png

    6.2最大Z型折边反边尺寸

    6.2.1最大Z型折边反边尺寸(如图六),通常的开关柜左门为Z型折边,其反边尺寸受下模及模座高度影响,最大反边高度为公式(9):

    Lmax=59+t

    6.2.2当Z型折边中间高度小于30时,不同材料厚度的Z型折边最大反边尺寸见表7,当Z型折边中间高度较大时,受折弯机下模座不同部位景响,其反边最大尺寸应现场确定。

    7ce8cc219bda43a43296fd4f245e4694.png

    7 、U型折边

    7.1(如图七)受机床及模具影响,U型折边宽度H不能太小,高度H2不能太大;当H2满足表5的最小折边尺寸时,H最小值公式为(10)

    H=12+2t

    b638f1de673d193b76c50974690db6a1.png

    7.1.1 H1的数值见表8

    51864dbf4b8cea8f9b02c009c9d88873.png

    7.1.2当H1值较大时,应满足:B

    7.2四面折边最大高度H

    7.2.1受模具景响四面折边最大高度Hmax<175(如图八)。

    8b920310088b42000cedff707a3d590f.png

    以上就是溪风博客为广大钣金设计师整理的图文并茂的钣金折弯展开计算教程,希望能对大家有一点启发,感谢大家对溪风的支持!

    展开全文
  • 铆工展开计算

    2012-10-04 23:13:18
    铆工展开计算的excel表格,输入数据就可以得到实线
  • LSTM公式及理解

    万次阅读 多人点赞 2019-01-25 22:34:22
    LSTM(Long Short Term Memory,短期记忆,注意这里的短期,后面会提到是什么意思)的作者是个有点奇怪的人1,他的名字是Jürgen Schmidhuber(发音也挺奇怪)。LSTM的作者很有意思,如果读者...

    LSTM的基本结构及推导

    这部分内容基本都是来自Step-by-step to LSTM: 解析LSTM神经网络设计原理,只是摘录了部分内容并添加了一些贫僧的想法。

    LSTM公式与结构

    LSTM(Long Short Term Memory,长短期记忆,注意这里的“长短期”,后面会提到是什么意思)的作者是个有点奇怪的人1,他的名字是Jürgen Schmidhuber(发音也挺奇怪)。LSTM的作者很有意思,如果读者感兴趣的话可以自己去看看相关资料(一定要去看作者本人的个人网站)。

    接下来我们直接看LSTM,放一张网络上极为常见的图:

    在这里插入图片描述

    图片来自Understanding LSTM Networks,(丑的要死的)红色字体是贫僧加的。

    注意图中hidden state(短期记忆)和cell state(长期记忆)的传递,以及输出其实就是 h t h_t ht

    然后就是LSTM的计算公式:
    输入门:
    i t = σ ( W i ⋅ [ h t − 1 , x t ] + b i ) i_t = \sigma (W_i \cdot [h_{t-1}, x_t] + b_i) it=σ(Wi[ht1,xt]+bi)
    遗忘门:
    f t = σ ( W f ⋅ [ h t − 1 , x t ] + b f ) f_t = \sigma (W_f \cdot [h_{t-1}, x_t] + b_f) ft=σ(Wf[ht1,xt]+bf)
    C t ~ = tanh ⁡ ( W C ⋅ [ h t − 1 , x t ] + b C ) \tilde{C_t} = \tanh{(W_C \cdot [h_{t-1}, x_t] + b_C)} Ct~=tanh(WC[ht1,xt]+bC)
    输出门:
    o t = σ ( W o [ h t − 1 , x t ] + b o ) o_t = \sigma (W_o [h_{t-1}, x_t] + b_o) ot=σ(Wo[ht1,xt]+bo)
    两种记忆:
    长记忆: C t = f t ∗ C t − 1 + i t ∗ C t ~ C_t = f_t * C_{t-1} + i_t * \tilde{C_t} Ct=ftCt1+itCt~
    短记忆: h t = o t ∗ tanh ⁡ ( C t ) h_t = o_t * \tanh(C_t) ht=ottanh(Ct)

    LSTM最重要的概念就是三个门:输入、输出、遗忘门;以及两个记忆:长记忆C、短记忆h。只要弄懂了这三个门两种记忆就可以弄明白LSTM了。这里先留个印象就行,接下来我们展开来讲。

    从RNN、长时记忆说起

    接下来我们直接进入正题,首先我们先从LSTM的父类RNN(循环神经网络,重点在循环)说起。提出RNN的目的是为了解决一个问题:LSTM以前的神经网络没有记忆,无法根据之前的输入来预测出输出。那怎么给神经网络加上记忆
    记忆就是过去发生的事情,那么如果神经网络现在的输出受到过去输入的影响,是不是就可以说神经网络拥有了记忆?于是就有了这样的神经网络:

    y ( t ) = f ( X ( t ) ⋅ W + y ( t − 1 ) ⋅ V + b ) y(t) = f(X(t) \cdot W + y(t - 1) \cdot V + b) y(t)=f(X(t)W+y(t1)V+b)

    这就是无隐藏层的循环神经网络,结构如下:

    在这里插入图片描述
    上图来自Step-by-step to LSTM: 解析LSTM神经网络设计原理,一如既往, x x x是输入, y y y是输出。此图与上面的公式无关,只是作为“过去的输入能够影响现在的输出”的例子,意会即可

    注意,上图中的圆圈(神经“圆”)共享权重 W W W V V V,即上面画的神经元都是同一个神经元,只是代表同一个神经元在不同时序时候的状态。所有数据依次通过同一个cell然后cell不断更新自己权重2。RNN都这样,后面会详细说明的LSTM也是这样。这里的“时序”就是常说的time step的单个step。time step通常就是一个句子的长度3;如果是batch的话那time step就是batch中最长句子的长度,其余的句子会通过pad来进行补齐(例如补充0作为pad,这部分是工程细节,不是重点)。

    正是因为上图中神经元共享同样的权重,所以就有了“记忆”。为什么可以称为是“记忆”呢?可以用人日常的思考方式来帮助理解。假设您(又一次)在人生的道路上迷路了,您会4

    1. 看看现在走到了哪里
    2. 回忆一下之前走过的路
    3. 结合1和2的信息来决定该继续往哪里走

    而这里的回忆一定是模糊而抽象的地形图,您通常不会回忆细节,例如路上某颗树的具体形状。而上图中的神经网络就是这样工作的,它将上一个时序的输出传给了下一个时序的神经元,而神经元做的处理就是用 V V V来乘 y ( t − 1 ) y(t - 1) y(t1),相当于是从上一个输出中抽象出(或者说提取出)了部分信息来作为当前决策的辅助工具。因此,我们的神经网络在某种程度上就具备了记忆

    把所谓的“经过抽象的信息”用隐结点 h h h表示就可以得到:
    在这里插入图片描述
    这就是standard RNN。

    总结一下:通过对上一个时序的神经元的输出提取抽象信息,并与输入一同输入进神经元中,就可以赋予神经元【记忆】。

    抽象化信息

    定义抽象化了的信息为: c ~ ( t ) = f ( W ⋅ x ( t ) + V ⋅ y ( t − 1 ) ) \tilde{c}(t) = f(W \cdot x(t) + V \cdot y(t - 1)) c~(t)=f(Wx(t)+Vy(t1))(先这么定义,后面会解释,反正记住 c ~ \tilde{c} c~是经过抽象化之后的信息就是了)。定义好抽象化信息是定义好了,问题来了,怎么装进到长时记忆单元?

    将抽象出来的信息装载进长时记忆单元

    有两种装载方法:

    1. 乘进去
    2. 加进去

    这里我们用加法,具体为什么及相关推导过程可以看Step-by-step to LSTM: 解析LSTM神经网络设计原理,这里略要提一下结果。乘法更多是作为对信息控制的操作(类似阀门和放大器的组合);加法则是新信息和旧信息叠加的操作(其实这也挺符合常识,所以这里没有作太多解释)。此外,LSTM中长时记忆单元最怕的就是梯度爆炸和消失,如果用乘法的话就会导致梯度/爆炸的速度更快(具体推导过程看Step-by-step to LSTM: 解析LSTM神经网络设计原理,主要是贫僧不想敲公式了。。。反正不难)。总而言之,因为加法更适合做信息叠加,而乘法更适合做控制和scaling,所以我们使用加法来加载新的信息到记忆中。

    装载信息: C ( t ) = C ( t − 1 ) + C ~ ( t ) C(t) = C(t - 1) + \tilde{C}(t) C(t)=C(t1)+C~(t)
    抽象出来的信息: C ~ ( t ) = f ( W ⋅ x ( t ) + V ⋅ y ( t − 1 ) ) \tilde{C}(t) = f(W \cdot x(t) + V \cdot y(t - 1)) C~(t)=f(Wx(t)+Vy(t1))(其实就是当前输入和上一时序输出加权求和)
    神经元当前时序的输出: y ( t ) = f ( c ( t ) ) y(t) = f(c(t)) y(t)=f(c(t)) f ( …   ) f(\dots) f()是激活函数)

    但是如果只是不加选择地往记忆中添加信息,那么记忆中的有用信息会被无用的信息埋没,所以我们应该只往记忆中添加需要的信息。我们通过添加输入门来实现对信息进行挑选。

    输入门

    这么做其实很简单,只需要对新信息添加控制的阀门就可以了,所以这里要用到乘法:

    C ( t ) = C ( t − 1 ) + g i n ⋅ C ~ ( t ) C(t) = C(t - 1) + g_{in} \cdot \tilde{C}(t) C(t)=C(t1)+ginC~(t)

    g i n g_{in} gin就是输入门,取值0~1。因为取值0~1,所以通常使用sigmoid函数作为激活函数,所以 g i n = s i g m o i d ( …   ) g_{in} = \mathrm{sigmoid}(\dots) gin=sigmoid()

    通常记忆单元是 n × m n \times m n×m的矩阵,而 g i n g_{in} gin也是 n × m n \times m n×m的矩阵。同时, g i n g_{in} gin起阀门的作用,所以需要通过element-wise的相乘来控制装载与否,我们通常用 ⨂ \bigotimes 来表示这种操作。最后得到的公式:

    C ( t ) = C ( t − 1 ) + g i n ⨂ C ~ ( t ) C(t) = C(t - 1) + g_{in} \bigotimes \tilde{C}(t) C(t)=C(t1)+ginC~(t)

    不过输入门只在必要的时候开启,所以大部分情况下上述公式可以等价为: C ( t ) = C ( t − 1 ) C(t) = C(t - 1) C(t)=C(t1),这样就可以降低梯度爆炸/消失出现的可能性(因为这就相当于是不添加任何东西直接一直将同样的记忆往后传)。

    遗忘门

    如果输入门一直打开,就会有大量的信息涌入到记忆中,导致记忆 C C C的值变得非常大。因为输出是 y ( t ) = f ( C ( t ) ) y(t) = f(C(t)) y(t)=f(C(t)),而且通常激活函数选的是sigmoid、tanh这种激活函数,那么就会导致激活函数的输出饱和。例如tanh,在输入值很大的时候梯度基本消失了:

    在这里插入图片描述

    所以就需要添加个遗忘的机制来将记忆中的信息剔除,这个记忆就是遗忘门。遗忘门其实就是个阀门,所以这里还是用乘法实现:

    C ( t ) = g f o r g e t C ( t − 1 ) + g i n ⨂ C ~ ( t ) C(t) = g_{forget}C(t - 1) + g_{in} \bigotimes \tilde{C}(t) C(t)=gforgetC(t1)+ginC~(t)

    输出门

    在处理事情的时候,通常人只会让其中一部分跟当前人母当前时刻相关的脑细胞输出,所以我们设计的神经网络也一样,要添加个输出门来控制负责输出的脑细胞:

    y ( t ) = g o u t ⨂ f ( C ( t ) ) y(t) = g_{out} \bigotimes f(C(t)) y(t)=goutf(C(t))

    Peephole(猫眼)

    不要看错成“pee hole”了。

    回到正题,当输出门因为某种原因关闭的时候就会导致记忆 C ( t ) C(t) C(t)被截断,这样每一个时序中门只受当前时刻的外部输入 x ( t ) x(t) x(t)控制了。为了解决这个问题就是直接把长时记忆单元接入到各个们,即接入 C ( t − 1 ) C(t - 1) C(t1)到遗忘、输入门,把 C ( t ) C(t) C(t)接入到输出门(因为信息流动到输出门时长时记忆已经计算完了,具体可以看最上面的图)。最后我们得到的公式就是:

    g i n ( t ) = s i g m o i d ( W ⋅ x ( t ) ) + V ⋅ y ( t − 1 ) + U ⋅ C ( t − 1 ) ) g_{in}(t) = \mathrm{sigmoid}(W \cdot x(t)) + V \cdot y(t - 1) + U \cdot C(t - 1)) gin(t)=sigmoid(Wx(t))+Vy(t1)+UC(t1))
    g f o r g e t ( t ) = s i g m o i d ( W ⋅ x ( t ) + V ⋅ y ( t − 1 ) + U ⋅ C ( t − 1 ) ) g_{forget}(t) = \mathrm{sigmoid}(W \cdot x(t) + V \cdot y(t - 1) + U \cdot C(t - 1)) gforget(t)=sigmoid(Wx(t)+Vy(t1)+UC(t1))
    g o u t ( t ) = s i g m o i d ( W ⋅ x ( t ) + V ⋅ y ( t − 1 ) + U ⋅ C ( t ) ) g_{out}(t) = \mathrm{sigmoid}(W \cdot x(t) + V \cdot y(t - 1) + U \cdot C(t)) gout(t)=sigmoid(Wx(t)+Vy(t1)+UC(t))

    这些后来添加的连接叫做“Peephole”。

    总结下现在得到的网络:

    长时记忆:
    C ( t ) = g f o r g e t C ( t − 1 ) + g i n ⨂ C ~ ( t ) C(t) = g_{forget}C(t - 1) + g_{in} \bigotimes \tilde{C}(t) C(t)=gforgetC(t1)+ginC~(t)
    C ~ ( t ) = f ( W ⋅ x ( t ) + V ⋅ y ( t − 1 ) ) \tilde{C}(t) = f(W \cdot x(t) + V \cdot y(t - 1)) C~(t)=f(Wx(t)+Vy(t1))
    y ( t ) = g o u t ⨂ f ( C ( t ) ) y(t) = g_{out} \bigotimes f(C(t)) y(t)=goutf(C(t))

    g i n ( t ) = s i g m o i d ( W ⋅ x ( t ) ) + V ⋅ y ( t − 1 ) + U ⋅ C ( t − 1 ) ) g_{in}(t) = \mathrm{sigmoid}(W \cdot x(t)) + V \cdot y(t - 1) + U \cdot C(t - 1)) gin(t)=sigmoid(Wx(t))+Vy(t1)+UC(t1))
    g f o r g e t ( t ) = s i g m o i d ( W ⋅ x ( t ) + V ⋅ y ( t − 1 ) + U ⋅ C ( t − 1 ) ) g_{forget}(t) = \mathrm{sigmoid}(W \cdot x(t) + V \cdot y(t - 1) + U \cdot C(t - 1)) gforget(t)=sigmoid(Wx(t)+Vy(t1)+UC(t1))
    g o u t ( t ) = s i g m o i d ( W ⋅ x ( t ) + V ⋅ y ( t − 1 ) + U ⋅ C ( t ) ) g_{out}(t) = \mathrm{sigmoid}(W \cdot x(t) + V \cdot y(t - 1) + U \cdot C(t)) gout(t)=sigmoid(Wx(t)+Vy(t1)+UC(t))

    引入短时记忆/隐藏层

    直接用隐藏层单元 h h h代替最终输出 y y y,可得:

    C ( t ) = g f o r g e t ⨂ C ( t − 1 ) + g i n ⨂ C ~ ( t ) C(t) = g_{forget} \bigotimes C(t - 1) + g_{in} \bigotimes \tilde{C}(t) C(t)=gforgetC(t1)+ginC~(t)
    C ~ ( t ) = f ( W ⋅ x ( t ) + V ⋅ h ( t − 1 ) ) \tilde{C}(t) = f(W \cdot x(t) + V \cdot h(t - 1)) C~(t)=f(Wx(t)+Vh(t1))
    h ( t ) = g o u t ⨂ f ( C ( t ) ) h(t) = g_{out} \bigotimes f(C(t)) h(t)=goutf(C(t))
    y ( t ) = h ( t ) y(t) = h(t) y(t)=h(t)

    g i n ( t ) = s i g m o i d ( W ⋅ x ( t ) ) + V ⋅ h ( t − 1 ) + U ⋅ C ( t − 1 ) ) g_{in}(t) = \mathrm{sigmoid}(W \cdot x(t)) + V \cdot h(t - 1) + U \cdot C(t - 1)) gin(t)=sigmoid(Wx(t))+Vh(t1)+UC(t1))
    g f o r g e t ( t ) = s i g m o i d ( W ⋅ x ( t ) + V ⋅ h ( t − 1 ) + U ⋅ C ( t − 1 ) ) g_{forget}(t) = \mathrm{sigmoid}(W \cdot x(t) + V \cdot h(t - 1) + U \cdot C(t - 1)) gforget(t)=sigmoid(Wx(t)+Vh(t1)+UC(t1))
    g o u t ( t ) = s i g m o i d ( W ⋅ x ( t ) + V ⋅ h ( t − 1 ) + U ⋅ C ( t ) ) g_{out}(t) = \mathrm{sigmoid}(W \cdot x(t) + V \cdot h(t - 1) + U \cdot C(t)) gout(t)=sigmoid(Wx(t)+Vh(t1)+UC(t))

    由于h随时都可以被输出门截断,所以我们可以很感性的把h理解为短时记忆单元。
    而从数学上看的话,更是短时记忆了,因为梯度流经h的时候,经历的是h(t)->c(t)->h(t-1)的连环相乘的路径(在输入输出门关闭前),显然如前边的数学证明中所述,这样会发生梯度爆炸和消失,而梯度消失的时候就意味着记忆消失了,即h为短时记忆单元。
    同样的思路可以再证明一下,由于梯度只从c走的时候,存在一条无连环相乘的路径,可以避免梯度消失。又有遗忘门避免激活函数和梯度饱和,因此c为长时记忆单元。
    (引用自Step-by-step to LSTM: 解析LSTM神经网络设计原理

    最后,我们就得到了LSTM(长短时记忆神经网络)。

    参考

    Step-by-step to LSTM: 解析LSTM神经网络设计原理:这一篇必须看,很接地气,本篇博文绝大部分内容借鉴了这篇文章的内容(某种程度上本博客就是这篇文章的笔记)
    Understanding LSTM Networks:很多图片来自这篇文章(例如LSTM相关的基本都来自这篇文章)
    理解LSTM Networks:上面这篇文章的翻译
    难以置信!LSTM和GRU的解析从未如此清晰(动图+视频)


    1. 每个人都在使用LSTM,主流学术圈却只想让它的发明者闭嘴 ↩︎

    2. LSTM神经网络输入输出究竟是怎样的? ↩︎

    3. 此处假设您是将句子拆分成词并且一个词一个词地喂给循环神经网络 ↩︎

    4. 此处例子改自Step-by-step to LSTM: 解析LSTM神经网络设计原理,看不懂这个例子的话看这篇 ↩︎

    展开全文
  • 接触了圆这个几何图形后,就会一一对它进行剖析,比如要知道其面积公式的由来,是如何...专业绘图工具几何画板就可以演示推导圆面积计算公式的过程,该软件免费获取地址:http://wm.makeding.com/iclk/?zoneid=13398
  • 理解RNN的结构+特点+计算公式

    千次阅读 2019-12-08 21:39:23
    输入句子长度和输出向量的维度,可能会不一样。对不同的样本,其输入/输出维度都不同。 当然你可以采用zero padding,将每个句子都填充到最大长度,但仍然不是一种很好的方式 改结构无法共享从文本不同位置上学...
  • 圆是一种规则的平面几何图形,在学习的时候会探究其面积计算公式的由来,课本上介绍的是将圆化为长方形来推导其面积公式的,那么如何动态演示来推导圆计算公式呢,下面就一起来学习具体操作技巧。 几何画板作为专业...
  • 欢迎使用Markdown编辑器写博客 本Markdown编辑器使用StackEdit修改而来,用它写...LaTex数学公式 UML序列图和流程图 离线写博客 导入导出Markdown文件 丰富的快捷键 快捷键 加粗 Ctrl + B 斜体 Ctrl + I...
  • 宏定义展开的区别 #define FILE_OAD_NUM_LEN 2 #define FILE_PER_OAD_...//如下两种方式定义,展开之后计算的值正确 #define FILE_PER_OAD_BASE_OFFSET(OAD_NUM) (FILE_OAD_NUM_LEN + FILE_PER_OAD_FIX_DAT_LEN*OA...
  • 《钣金展开计算210例》介绍用计算的方法求得被展开构件各素线的实,不用放大样,省去了放样场地。2.全书共210个实例,用模板的形式编写,易学易用。3.文前提炼了被展构件的立体图目录,实用方便。4.配有“钣金展开...
  • 泰勒展开应该展开到第几阶?一、常用的等价无穷小等价无穷小然而,考试通常不会有这么简单的题目!我们从一道经典例题说起例1:求极限: 错解:等价无穷小 , 因此 错误分析:等价不是相等!例如:银行卡余额为500000...
  • 扇形计算公式是怎么得来的?

    千次阅读 2017-06-16 14:03:00
    由顶点在圆心的角的两边和这两边所截一段圆弧围成的图形叫做扇形,它的计算公式包括了面积公式和和弧长公式,在讲课时为了能让学生们更详细地明白公式的由来,下面就一起来学习借助几何绘图软件制作公式推导动画,...
  • 泰勒公式是数学中求近似值的常用方法,利用泰勒公式展开,可以使许多问题简化,当然也需要多次循环,类似这样的情况,利用编程循环结构就是再好不过的选择了。 题目:计算π=4*(1-1/3+1/5-1/7+······),...
  • 轨道轴平方根: 偏心率: 近地点幅角: 卫星平均运动速率与计算值之差: 参考时刻平近点角: 参考时刻升交点赤经: 升交点赤经变化率: 参考时刻轨道倾角: 轨道倾角变化率: 轨道改正项参数: 2、...
  • Excel计算BOM物料数量的公式

    千次阅读 2021-03-19 09:48:58
    公式如上。 原理为将C2的全部长度减去替换掉逗号后的长度,得到的是逗号的数量,再加1即可。
  • Machin(梅钦/马青)公式计算圆周率π

    千次阅读 2020-03-15 15:01:12
    作为一名计算机的初学者,因为老师作业的要求去完成圆周率的计算,因此突然产生了兴趣,想尝试自己用梅钦公式来完成这个任务。上网找了一些资料,也看见了短短几行就完成任务的代码,实在佩服,不过那样的代码实在...
  • 马青公式计算圆周率程序

    千次阅读 2017-01-09 05:30:52
    马青公式级数展开后,可以看做两大项,编程可以开两个线程分别同时对这两大项进行计算。为了精简,在这里采用单线程编程。 级数中的分数,分母增长很快,一下子就超出int、long甚至__int64或long long的数值范围,...
  • 钣金加工是机械加工中的重要组成部分,钣金件的成形精度将直接影响到钣金件的后续使用,但其成形精度在很大程度上则是由钣金件展开尺寸所决定的,特别是在复杂钣金件加工过程中,其展开尺寸对加工质量有着非常重要的...
  • 用于钣金件展开长度计算,大大方便钣金件下料长度的计算,减轻设计者的负担
  • 拉马努金公式 #求阶乘函数 def myreduce(m): value = 1 for i in range(1,m+1): value = value*i return value #求和项的函数 def sumfun(m): div = (396**(4*m))*((myreduce(m))**4)#公式的分母部分 return ...
  • 范数的相关公式

    万次阅读 2017-01-20 14:44:55
    2-范数:,Euclid范数(欧几里得范数,常用计算向量长度),即向量元素绝对值的平方和再开方,matlab调用函数norm(x, 2)。 ∞-范数:,即所有向量元素绝对值中的最大值,matlab调用函数norm(x, inf)。 -∞...
  • 欧拉公式求长期率的matlab代码数值分析的计算方法 这是R包,用于支持James P. Howard,II。用R进行数值分析的计算方法。 使用R进行数值分析的计算方法是使用R提出的传统数值分析主题的概述。本指南介绍了如何在纯R...
  • 弧长计算公式[编辑本段]弧长的定义 在圆上过2点的一段弧的长度叫做弧长。[编辑本段]弧长的计算公式 弧长公式:弧长=θ*r ,θ是角度 r是半径 l=nπr÷180 在半径是R的圆中,因为360°的圆心角所对的弧长就等于圆...
  • 起初是看FCN图像分割论文的时候,看到论文中用到deconvolution和up-sampling,不是特别理解up-samping和deconv之间的关系,也不知道deconv是以一种怎么样计算过程完成的。所以就去搜了相关资料,同时了解了空洞卷积-...
  • 泰勒公式展开细节解析(转载)

    千次阅读 2019-05-01 18:57:00
    上周写完了《《三体》读后思考-泰勒展开/维度打击/黑暗森林》后收到一些邮件,进一步思考了关于泰勒展开的意义。也许我掌握的那些网络技术比如Linux Netfilter,NAT之类,太过底层太过小众,所以大家几乎都是没有感...
  • π的计算

    万次阅读 多人点赞 2015-09-11 20:47:31
    算法库计算的思路像计算机中的数学库计算,一般都是采用泰勒展开进行的,像sin,cos这类的函数,都可以用泰勒展开式很方便的逼近。计算机计算的方法,就是用简单的多项式去不断逼近一个特殊的函数。

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 32,627
精华内容 13,050
热门标签
关键字:

展开长度计算公式