精华内容
下载资源
问答
  • 一阶常微分方程的五种解法,和二阶常微分方程的快速求解方法,方便快速回忆,根据山师老师的讲义,非常简单易推导的解法。
  • 二阶常微分方程初值问题的Laguerre-Gauss配置法,严建平,郭本瑜,本文研究二阶常微分方程初值问题的数值解法。文中基于Laguerre-Gauss插值设计了一类新的配置法, 它易于计算,且特别适用于非线性问题�
  • 神经网络求解二阶常微分方程 最近课题组老师给出一篇文献,文件原文如链接一所示。需要让我使用深度神经网络求解偏微分方程。在相关调研过程中,CSDN上作者Trytobenice分享过相关的程序源码。基于相关程序源码,我将...

    神经网络求解二阶常微分方程

    最近课题组老师给出一篇文献,文件原文如链接一所示。需要让我使用深度神经网络求解偏微分方程。在相关调研过程中,CSDN上作者Trytobenice分享过相关的程序源码。基于相关程序源码,我将他的一阶常微分方程求解扩充到二阶常微分方程求解。并且按照此方法可以求解高阶常微分方程。

    理论分析

    对于任意一个微分方程,我们都可以用这个方程表示出
    在这里插入图片描述
    求解目的就是找出这样的一个方程:ψ(x),能够满足以上的G()函数。
    对于计算机求解,第一步要将其离散化处理:
    在这里插入图片描述
    人工神经网络若要求解该方程,那就设方程ψ(x)函数如下形式:
    在这里插入图片描述
    将预设的ψ(x)带入原方程中,只需要让G()函数在定义范围内达到最小,那就求解出这个方程了。二次方项是为了将负数对结果的影响消除。
    在这里插入图片描述
    下面再来分析ψ(x)的内容:
    在讲解这个解函数之前,需要给出一个补充知识。要求解出常微分方程,仅仅给出常微分方程表达式是不够的,还要给出常微分方程的初始条件和边界条件。这样才能保证解函数的唯一性。

    ψ(x)函数中包含两项。第一项是A(x),这一项是为了满足初始条件或者边界条件。第二项F{x,N(x,p)},这一项是神经网络满足偏微分方程的部分,不考虑边界条件。【注:为什么F()项能够不考虑边界条件,文中例子会给出介绍】

    继续看F{x,N(x,p)},这一项中包含N(x,p)。这个N()函数就是神经网络函数表达式形式。x表示输入数据,p表示神经网络中的参数。通过BP网络优化神经网络中的参数p,使神经网络能够达到最适,就能得到神经网络的解函数ψ(x)。

    设出这个解函数之后,我们下一步要根据解函数表达出微分方程。微分方程中至少包含一个微分项,可能是一阶,也可能是二阶;可能是常微分,也可能是偏微分。论文中给出神经网络N(x,p)输出对输入x的微分公式。公式形式如下:在这里插入图片描述
    式中k表示k阶导数,j表示对输入数据 xj(j是下角标) 的偏导。本文仅仅探讨常微分形式。

    举例分析

    这里给出一个一阶常微分方程表达式,用这个方程分析如何使用神经网络求解。方程入下:
    在这里插入图片描述
    并且给出边界条件,在这里插入图片描述
    这个方程有很明确的解析解,解析解如下所示:
    在这里插入图片描述
    对于神经网络求解,我们可以设神经网络解ψ(x)形式为:
    在这里插入图片描述
    在这里,满足边界条件的A(x)直接为1。不需要考虑边界条件的项F{x,N(x,p)}设为x*N(x,p),那么在x=0的情况下,解第二项直接为0,仅仅保留A(x),这样就能解释前部分的【注】。

    方法提升

    以上分析全部针对论文1的内容,论文1出版年份为1998年,论文2于2019年提出了更进一步的方法,下面我们进一步分析论文2的内容:

    论文2设计的神经网络与论文1,解析解设计过程中,直接设神经网络输出的结果为
    在这里插入图片描述
    在这里不考虑边界值,边界值在损失函数上体现。损失函数第一项如论文1相同,第二项体现边界值。损失函数通过以下函数给出:在这里插入图片描述
    论文2设计的神经网络结构非常简单,中间只有一个隐藏层,隐藏层中只有10个神经元。

    在这里插入图片描述

    代码结果

    在这里展示我使用Tensorflow设计的,求解二阶常微分方程的程序结果。二阶常微分方程式由以下方程给出:
    在这里插入图片描述

    二阶微分方程的初始值:
    在这里插入图片描述

    该微分方程的解析解:
    在这里插入图片描述

    使用设计的程序,仿真出的结果如图所示:
    在这里插入图片描述
    其中,解析解和神经网络解之间的差值用下图可以看出:
    在这里插入图片描述
    可以看到,这个拟合结果还是非常不错的,误差数量级控制在10^-4以下。

    有时间会在github上开源代码,到时候下载别忘了给我点一个star。

    论文1: Artificial neural networks for solving ordinary and partial differential equations
    论文2: Solving differential equations with neural networks: Applications to the calculation of cosmological phase transitions.

    展开全文
  • 二阶常微分方程PPT

    2009-10-14 21:36:16
    关于二阶常微分方程的PPT比较好 二阶常微分方程二阶常微分方程
  • 我们明确强调了一种新的数值算法方案的推导... 用这种方法解决了二阶常微分方程的一些初值问题,我们发现该结果与理论解相吻合,得出的结论是,研究中得出的新数值算法方案是近似正确的,可以为任何相关的常微分方程。
  • 我们的重点是开发和实施新的两步混合方法,用于直接求解一般的二阶常微分方程。 在该方法的开发中,采用幂级数作为基础函数,并且将出现的方程组微分系统并置在所有电网和离网点。 所得方程在选定点处插值。 然后,...
  • 对于在反应工程中常见的一类特殊的二阶常微分方程边值问题,给出了二分法初值化求解的一种新方法。具体求解了多孔催化剂和多孔电极两个数学模型,给出了在不同参数下二者解的曲线。与传统的打靶法相比,此方法回避了...
  • 相关的理论推导请参考: 神经网络求解二阶常微分方程. 以下是程序分享 import os os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2' import tensorflow as tf import matplotlib.pyplot as plt import numpy as np import ...

    相关的理论推导请参考: 神经网络求解二阶常微分方程.
    以下是程序分享

    import os
    os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2'
    import tensorflow as tf
    import matplotlib.pyplot as plt
    import numpy as np
    import math
    x_train = np.linspace(0, 2, 400)#生成[0,2]区间100个点
    y_trail = np.exp(-0.2*x_train)*np.sin(x_train)#已知解析解用于比较
    x_t = np.zeros((len(x_train), 1))
    for i in range(len(x_train)):
        x_t[i] = x_train[i]
    x1 = tf.placeholder("float", [None, 1])#一次传入100个点[100,1]
    W = tf.Variable(tf.zeros([1, 10]))
    b = tf.Variable(tf.zeros([10]))
    y1 = tf.nn.sigmoid(tf.matmul(x1, W)+b)#sigmoid激活函数y1的形状[100,10]
    W1 = tf.Variable(tf.zeros([10, 1]))
    b1 = tf.Variable(tf.zeros([1]))
    y = tf.matmul(y1, W1)+b1#网络的输出[100,1]
    lq = tf.exp(-0.2*x1)*tf.cos(x1)
    
    dif1 = tf.matmul(tf.multiply(y1*(1-y1),W),W1)#dy/dx,dif形状[100,1],即对应点的导数值
    dif2 = tf.matmul(tf.multiply((y1*(1-y1)*(1-y1)-y1*y1*(1-y1))*W, W),W1)#dy/dx,dif形状[100,1],即对应点的导数值
    t_loss = (dif2+0.2*dif1+y+0.2*lq)**2#常微分方程F的平方
    # loss = tf.reduce_mean(t_loss)+(y[0]-0)**2+(y[199]-math.sin(1)*math.exp(-0.2))**2#每点F平方求和后取平均再加上边界条件
    loss = tf.reduce_mean(t_loss)+(y[0]-0)**2+(dif1[0]-1)**2
    train_step = tf.train.AdamOptimizer(0.001).minimize(loss)#Adam优化器训练网络参数
    init = tf.global_variables_initializer()
    with tf.Session() as sess:
        sess.run(init)
        for i in range(50000):#训练50000次
            sess.run(train_step,feed_dict={x1: x_t})
            if i%50 == 0:
                total_loss = sess.run(loss,feed_dict={x1: x_t})
                print("loss={}".format(total_loss))
                print(sess.run(y[0], feed_dict={x1: x_t}))
        # saver = tf.train.Saver(max_to_keep=1)#保存模型,训练一次后可以将训练过程注释掉
        # saver.save(sess,'ckpt/nn.ckpt',global_step=50000)
        # saver = tf.train.Saver(max_to_keep=1)
        # model_file="ckpt/nn.ckpt-50000"
        # saver.restore(sess, model_file)
        output = sess.run(y,feed_dict={x1:x_t})
        output1 = sess.run(t_loss,feed_dict={x1:x_t})
        y_output = x_train.copy()
        y_output1 = x_train.copy()
        for i in range(len(x_train)):
            y_output[i] = output[i]
            y_output1[i] = output1[i]
        fig = plt.figure("预测曲线与实际曲线")
        L1, = plt.plot(x_train,y_trail, c = 'b')
        L2, = plt.plot(x_train,y_output, c = 'g')
        plt.legend([L1,L2],["analytic solution","network solution"], loc='upper right')
        plt.title('Comparison of results')
        fig2 = plt.figure("y_-y")#画实际值与预测值得偏差
        plt.title('y_-y')
        plt.plot(x_train,y_trail-y_output)
        fig3 = plt.figure("loss")#画出每一点对Loss的贡献
        plt.title('loss')
        plt.plot(x_train,y_output1+(y_output[0]-1)**2)
        plt.show()
    

    最后说明,本程序参考了以下博主提供的代码,在其基础上开发了二阶常微分求解的方法。在此对其表示感谢
    Tensorflow一个很简单的神经网络求解常微分及偏微分方程.

    展开全文
  • excel实现四阶龙格库塔法runge-kutta解二阶常微分方程范例,rungekutta,四阶rungekutta法,rungekuttamatlab,四阶rungekutta,rungekutta算法,rungekutta方法,rungekutta,rungekuttapython,龙格库塔法解微分方程Sheet3...

    excel实现四阶龙格库塔法runge-kutta解二阶常微分方程范例,rungekutta,四阶rungekutta法,rungekuttamatlab,四阶rungekutta,rungekutta算法,rungekutta方法,rungekutta,rungekuttapython,龙格库塔法解微分方程

    Sheet3

    Sheet2

    Sheet1

    h

    x

    解析解

    k1

    k2

    k3

    k4

    l1

    l2

    l3

    l4

    v, y'

    4RK解 y

    .01

    .00

    1.00

    .75

    2.00

    2.00

    .75

    1.00

    .00

    -2.00

    2.00

    3.00

    .00

    -2.03

    2.00

    2.00

    2.00

    3.00

    2.00

    -.01

    2.00

    -2.03

    2.00

    2.00

    2.00

    3.00

    2.00

    -.01

    2.00

    -2.05

    2.00

    3.00

    -.02

    .01

    .01

    1.00

    1.00

    6.00

    2.00

    2.00

    -.02

    6.00

    2.00

    2.00

    -2.05

    -.02

    -2.08

    -.03

    -2.08

    -.03

    -2.10

    -.04

    .01

    .02

    1.00

    1.00

    -.04

    -2.10

    -.04

    -2.13

    -.05

    -2.13

    -.05

    -2.16

    -.06

    .01

    .03

    1.00

    1.00

    -.06

    -2.16

    -.06

    -2.18

    -.07

    -2.18

    -.07

    -2.21

    -.08

    .01

    .04

    1.00

    1.00

    -.08

    -2.21

    -.08

    -2.24

    -.10

    -2.24

    -.10

    -2.26

    -.11

    .01

    .05

    1.00

    1.00

    -.11

    -2.26

    -.11

    -2.29

    -.12

    -2.29

    -.12

    -2.32

    -.13

    .01

    .06

    1.00

    1.00

    -.13

    -2.32

    -.13

    -2.35

    -.14

    -2.35

    -.14

    -2.38

    -.15

    .01

    .07

    .99

    .99

    -.15

    -2.38

    -.15

    -2.41

    -.16

    -2.41

    -.16

    -2.44

    -.18

    .01

    .08

    .99

    .99

    -.18

    -2.44

    -.18

    -2.47

    -.19

    -2.47

    -.19

    -2.50

    -.20

    .01

    .09

    .99

    .99

    -.20

    -2.50

    -.20

    -2.53

    -.21

    -2.53

    -.21

    -2.56

    -.23

    .01

    .10

    .99

    .99

    -.23

    -2.56

    -.23

    -2.59

    -.24

    -2.59

    -.24

    -2.62

    -.25

    .01

    .11

    .99

    .99

    -.25

    -2.62

    -.25

    -2.65

    -.27

    -2.65

    -.27

    -2.69

    -.28

    .01

    .12

    .98

    .98

    -.28

    -2.69

    -.28

    -2.72

    -.29

    -2.72

    -.29

    -2.75

    -.31

    .01

    .13

    .98

    .98

    -.31

    -2.75

    -.31

    -2.79

    -.32

    -2.79

    -.32

    -2.82

    -.33

    .01

    .14

    .98

    .98

    -.33

    -2.82

    -.33

    -2.85

    -.35

    -2.85

    -.35

    -2.89

    -.36

    .01

    .15

    .97

    .97

    -.36

    -2.89

    -.36

    -2.92

    -.38

    -2.92

    -.38

    -2.96

    -.39

    .01

    .16

    .97

    .97

    -.39

    -2.96

    -.39

    -2.99

    -.41

    -2.99

    -.41

    -3.03

    -.42

    .01

    .17

    .97

    .97

    -.42

    -3.03

    -.42

    -3.07

    -.44

    -3.07

    -.44

    -3.10

    -.45

    .01

    .18

    .96

    .96

    -.45

    -3.10

    -.45

    -3.14

    -.47

    -3.14

    -.47

    -3.18

    -.48

    .01

    .19

    .96

    .96

    -.48

    -3.18

    -.48

    -3.22

    -.50

    -3.22

    -.50

    -3.25

    -.52

    .01

    .20

    .95

    .95

    -.52

    -3.25

    -.52

    -3.29

    -.53

    -3.29

    -.53

    -3.33

    -.55

    .01

    .21

    .95

    .95

    -.55

    -3.33

    -.55

    -3.37

    -.57

    -3.37

    -.57

    -3.41

    -.58

    .01

    .22

    .94

    .94

    -.58

    -3.41

    -.58

    -3.45

    -.60

    -3.45

    -.60

    -3.49

    -.62

    .01

    .23

    .94

    .94

    -.62

    -3.49

    -.62

    -3.54

    -.64

    -3.54

    -.64

    -3.58

    -.65

    .01

    .24

    .93

    .93

    -.65

    -3.58

    -.65

    -3.62

    -.67

    -3.62

    -.67

    -3.66

    -.69

    .01

    .25

    .92

    .92

    -.69

    -3.66

    -.69

    -3.71

    -.71

    -3.71

    -.71

    -3.75

    -.73

    .01

    .26

    .92

    .92

    -.73

    -3.75

    -.73

    -3.79

    -.74

    -3.79

    -.75

    -3.84

    -.76

    .01

    .27

    .91

    .91

    -.76

    -3.84

    -.76

    -3.88

    -

    展开全文
  • 主程序如下:>> global m1 m2 k1 c1 c2 v0>> m1=4080;m2=12.5e3;k1=7.35e6;c1=17.56e3;c2=0.225e3;v0=3.2/60>... [t,y]=ode45(@doublemass,[0 5],[-0.0154;...0])其中的doublemass的函数M文件定义如下:...

    主程序如下:

    >> global m1 m2 k1 c1 c2 v0

    >> m1=4080;m2=12.5e3;k1=7.35e6;c1=17.56e3;c2=0.225e3;v0=3.2/60

    >> [t,y]=ode45(@doublemass,[0 5],[-0.0154;-0.0049;0;0])

    其中的doublemass的函数M文件定义如下:

    function dyy=doublemass(t,y)

    global m1 m2 k1 c1 c2 v0

    dyy=[y(3);(-4.48e6*v0*t/(6-y(1))-(k1+4.48e6/(6-y(1)))*y(1)-(c1+c2)*y(2)+c2*y(4)+4.48e6*y(2)/(6-y(1)))/m1;y(4);(4.48e6*v0*t/(6-y(1))-m2*10+c2*y(3)+4.48e6*y(1)/(6-y(1))-c2*y(4)-4.48e6*y(2)/(6-y(1)))/m2]

    但计算出的结果却不对,前面两个初值不是前面设置好的-0.0154;-0.0049,而是 -0.0000   -0.0000,如下图:

    y =

    1.0e+009 *

    -0.0000   -0.0000         0         0

    -0.0000   -0.0000   -0.0000   -0.0000

    -0.0000   -0.0000   -0.0000   -0.0000

    -0.0000   -0.0000   -0.0000   -0.0000

    -0.0000   -0.0000   -0.0000   -0.0000

    -0.0000   -0.0000   -0.0000   -0.0000

    -0.0000   -0.0000   -0.0000   -0.0000

    -0.0000   -0.0000   -0.0000   -0.0000

    -0.0000   -0.0000   -0.0000   -0.0000

    -0.0000    0.0000   -0.0000   -0.0000

    -0.0000    0.0000   -0.0000   -0.0000

    -0.0000    0.0000   -0.0000   -0.0000

    -0.0000    0.0000   -0.0000   -0.0000

    -0.0000    0.0000   -0.0000   -0.0000

    -0.0000    0.0000   -0.0000   -0.0000

    -0.0000    0.0000   -0.0000   -0.0000

    -0.0000    0.0000   -0.0000   -0.0000

    -0.0000    0.0000   -0.0000   -0.0000

    -0.0000    0.0000   -0.0000   -0.0000

    -0.0000    0.0000   -0.0000   -0.0000

    -0.0000    0.0000   -0.0000   -0.0000

    -0.0000    0.0000   -0.0000   -0.0000

    -0.0000    0.0000   -0.0000   -0.0000

    -0.0000    0.0000   -0.0000   -0.0000

    -0.0000    0.0000   -0.0000   -0.0000

    -0.0000    0.0000   -0.0000   -0.0000

    -0.0000    0.0000   -0.0000   -0.0000

    -0.0000    0.0000   -0.0000   -0.0000

    -0.0000    0.0000   -0.0000   -0.0000

    -0.0000    0.0000   -0.0000   -0.0000

    -0.0000    0.0000   -0.0000   -0.0000

    -0.0000    0.0000   -0.0000   -0.0000

    -0.0000    0.0000   -0.0000   -0.0000

    -0.0000    0.0000   -0.0000   -0.0000

    -0.0000    0.0000   -0.0000   -0.0000

    -0.0000    0.0000   -0.0000   -0.0000

    -0.0000    0.0000   -0.0000   -0.0000

    -0.0000    0.0000   -0.0000   -0.0000

    -0.0000    0.0000   -0.0000   -0.0000

    -0.0000    0.0000   -0.0000   -0.0000

    -0.0000    0.0000   -0.0000   -0.0000

    -0.0000    0.0000   -0.0000   -0.0000

    -0.0000    0.0000   -0.0000   -0.0000

    -0.0000    0.0000   -0.0000   -0.0000

    -0.0000    0.0000   -0.0000   -0.0000

    -0.0000    0.0000   -0.0000   -0.0000

    -0.0000    0.0000   -0.0000   -0.0000

    -0.0000    0.0000   -0.0000   -0.0000

    -0.0000    0.0000   -0.0000   -0.0000

    -0.0000    0.0000   -0.0000   -0.0000

    -0.0000    0.0000   -0.0000   -0.0000

    -0.0000    0.0000   -0.0000   -0.0000

    -0.0000    0.0000   -0.0000   -0.0000

    -0.0000    0.0000   -0.0000   -0.0000

    -0.0000    0.0000   -0.0000   -0.0000

    -0.0000    0.0000   -0.0000   -0.0000

    -0.0000    0.0000   -0.0000   -0.0000

    -0.0000    0.0000   -0.0000   -0.0000

    -0.0000    0.0000   -0.0000   -0.0000

    -0.0000    0.0000   -0.0000   -0.0000

    -0.0000    0.0000   -0.0000   -0.0000

    -0.0000    0.0001   -0.0000   -0.0000

    -0.0000    0.0001   -0.0000   -0.0000

    -0.0000    0.0001   -0.0000   -0.0000

    -0.0000    0.0001   -0.0000   -0.0000

    -0.0000    0.0002   -0.0000   -0.0001

    -0.0000    0.0002   -0.0000   -0.0001

    -0.0000    0.0002   -0.0000   -0.0001

    -0.0000    0.0003   -0.0000   -0.0001

    -0.0000    0.0003   -0.0000   -0.0001

    -0.0000    0.0004   -0.0000   -0.0001

    -0.0000    0.0005   -0.0000   -0.0002

    -0.0000    0.0005   -0.0000   -0.0002

    -0.0000    0.0006   -0.0000   -0.0002

    -0.0000    0.0006   -0.0000   -0.0002

    -0.0000    0.0007   -0.0000   -0.0002

    -0.0000    0.0007   -0.0000   -0.0002

    -0.0000    0.0007   -0.0000   -0.0003

    -0.0000    0.0008   -0.0000   -0.0003

    -0.0000    0.0008   -0.0000   -0.0003

    -0.0000    0.0008   -0.0000   -0.0003

    -0.0000    0.0008   -0.0000   -0.0003

    -0.0000    0.0008   -0.0000   -0.0003

    -0.0000    0.0008   -0.0000   -0.0003

    -0.0000    0.0008   -0.0000   -0.0003

    -0.0000    0.0008   -0.0000   -0.0003

    -0.0000    0.0008   -0.0000   -0.0003

    -0.0000    0.0008   -0.0000   -0.0003

    -0.0000    0.0008   -0.0000   -0.0003

    -0.0000    0.0008   -0.0000   -0.0003

    -0.0000    0.0008   -0.0000   -0.0003

    -0.0000    0.0008   -0.0000   -0.0003

    -0.0000    0.0008   -0.0000   -0.0003

    -0.0000    0.0010   -0.0001   -0.0003

    -0.0000    0.0013   -0.0001   -0.0003

    -0.0000    0.0017   -0.0001   -0.0004

    -0.0000    0.0022   -0.0001   -0.0004

    -0.0000    0.0030   -0.0001   -0.0004

    -0.0000    0.0041   -0.0001   -0.0004

    -0.0000    0.0054   -0.0001   -0.0004

    -0.0000    0.0069   -0.0002   -0.0004

    -0.0000    0.0094   -0.0002   -0.0004

    -0.0001    0.0123   -0.0002   -0.0004

    -0.0001    0.0157   -0.0002   -0.0004

    -0.0001    0.0197   -0.0003   -0.0004

    -0.0001    0.0261   -0.0003   -0.0004

    -0.0001    0.0335   -0.0003   -0.0004

    -0.0002    0.0420   -0.0003   -0.0004

    -0.0002    0.0516   -0.0004   -0.0004

    -0.0002    0.0678   -0.0004   -0.0004

    -0.0003    0.0864   -0.0005   -0.0004

    -0.0004    0.1076   -0.0005   -0.0004

    -0.0004    0.1314   -0.0006   -0.0005

    -0.0005    0.1585   -0.0007   -0.0005

    -0.0006    0.1885   -0.0007   -0.0005

    -0.0007    0.2214   -0.0008   -0.0005

    -0.0008    0.2575   -0.0008   -0.0005

    -0.0009    0.2967   -0.0009   -0.0005

    -0.0010    0.3392   -0.0010   -0.0006

    -0.0011    0.3851   -0.0010   -0.0006

    -0.0013    0.4345   -0.0011   -0.0006

    -0.0014    0.4875   -0.0012   -0.0006

    -0.0016    0.5441   -0.0013   -0.0006

    -0.0017    0.6045   -0.0013   -0.0006

    -0.0019    0.6688   -0.0014   -0.0007

    -0.0021    0.7372   -0.0015   -0.0007

    -0.0023    0.8096   -0.0016   -0.0007

    -0.0025    0.8863   -0.0017   -0.0007

    -0.0027    0.9673   -0.0018   -0.0007

    -0.0029    1.0528   -0.0019   -0.0007

    -0.0032    1.1428   -0.0020   -0.0008

    -0.0034    1.2376   -0.0021   -0.0008

    -0.0037    1.3371   -0.0021   -0.0008

    -0.0040    1.4416   -0.0023   -0.0008

    -0.0043    1.5512   -0.0024   -0.0008

    -0.0046    1.6659   -0.0025   -0.0009

    -0.0049    1.7859   -0.0026   -0.0009

    -0.0051    1.8795   -0.0027   -0.0009

    -0.0054    1.9762   -0.0027   -0.0009

    -0.0056    2.0761   -0.0028   -0.0009

    -0.0059    2.1792   -0.0029   -0.0009

    不知是何原因?

    展开全文
  • 在本文中,我们通过将其转化为优化问题来解决获得二阶初值问题的近似解的问题。 假定该解可以通过多项式近似。 然后使用模拟退火技术优化多项式的系数。 数值结果表明,与现有方法相比,该方法的准确性较高。
  • 我们要求解的就是theta角和时间t之间的关系曲线,这是一道典型的二阶常微分方程的求解,用四阶龙格库塔方程可以求解。 2 古典龙格库塔算法公式: 高等数值计算课本(清华大学出版社,186页) 但是古典龙格库塔方法...
  • 我们常常用微分方程来描述现实世界中的一些物理现象。由于微分方程的复杂性,只有在很简单的情况下才能得到微分方程的解析解。由于计算机的发展,采用数值方法求解微分方程的数值近似解得到...微分方程主要分为常微分
  • 今年年初的时候给师姐做了DDPG算法的船舶减横摇控制算法,师姐还有想法要让我把纵摇-埀荡两个自由度的减摇也做出来,这个任务归我了。实际上不管是多少个自由...这个方程组是典型的二阶常微分方程组,一堆的水动力参数
  • 本文试图用龙格库塔四阶法数值求解两个常微分方程组。初始系统:要解决的系统:我有非常奇怪的解图。。。我有:正确的图形:我在我的龙格库塔找不到麻烦。请帮帮我。在我的代码在这里:dt = 0.04#initial ...
  • 大意就是一个力学模型,现在需要解一个二阶常微分方程但是很复杂,大概是有(D2y=f(y)的形式,f是一个由一些向量点乘、叉乘blabla得出来的以y为自变量的函数,但主要是三角函数与多项式、分式函数迭代,或者说,这个...
  • w摘 要本文主要研究二阶常微分方程边值问题的数值解法。对线性边值问题,我们总结了两类常用的数值方法,即打靶法和有限差分方法,对每种方法都列出了详细的计算步骤和Matlab程序代码,通过具体的算例对这两类方法的...
  • 具体方程的解法和背景不在赘述,见https://blog.csdn.net/Mezikov/article/details/107461970 1 代码 import math import numpy as np import matplotlib.pyplot as plt from math import e from numpy
  • 要是不用MATLAB自带的ode45函数也可以网上下载一个4阶龙格库塔算法来代替附上一个仅供参考function y=DELGKT4_rungekuta(f,h,a,b,y0,varvec) %参数表顺序依次是微分方程组的函数名称,步长,求解范围,初始值向量,...
  • 假设一阶常微分方程组有下式给出 其中矢量 为状态变量 构成的向量,即 ,常称为系统的状态向量,n称为系统的阶次,而 为任意函数数,t为时间变量,这样就可以采用数值方法求解常微分方程组了。另外任意高阶微分方程都...
  • 二阶常系数微分方程的通解

    千次阅读 2019-03-05 23:18:51
    二阶常系数微分方程的通解 (一.) 二阶常系数微分方程的通解的组成: 其对应二阶常系数微分方程的通解 + 二阶常系数微分方程的特解 (二.) 构造二阶常系数微分方程的特解 形如:y′′+py′+qy=Pm(x)eαxy&...

空空如也

空空如也

1 2 3 4 5 ... 18
收藏数 360
精华内容 144
关键字:

二阶常微分方程