精华内容
下载资源
问答
  • 机器之心原创作者:蒋思源微分方程真的能结合深度神经网络?真的能用来理解深度神经网络、推导神经网络架构、构建深度生成模型?本文将从鄂维南、董彬和陈天琦等研究者的工作中,窥探微分方程与深度学习联袂前行的...

    机器之心原创

    作者:蒋思源

    微分方程真的能结合深度神经网络?真的能用来理解深度神经网络、推导神经网络架构、构建深度生成模型?本文将从鄂维南、董彬和陈天琦等研究者的工作中,窥探微分方程与深度学习联袂前行的路径。

    近日,北京智源人工智能研究院开展了第一次论坛,其以「人工智能的数理基础」这一重大研究方向为主题,从数学、统计和计算等角度讨论了智能系统应该怎样融合数学系统。

    在论坛中,北京大学董彬副教授、林伟研究院和张志华教授等研究者从基础出发介绍了「数学」眼中的机器学习是什么样的。而这些数理基础,正好是构建可计算、可泛化、可解释和稳健 ML 系统所必需的。

    在众多演讲中,我们发现董彬老师介绍的微分方程非常有吸引力,它对于探索新的深度学习架构、构建更高性能的深度学习模型非常有帮助。因此在这篇文章中,我们重点关注微分方程在深度学习中的应用,看起来,它们确实是天生一对的组合。

    微分方程与深度学习

    深度学习还能与微分方程相结合?是的,这是一个很有意思的领域,近来也有非常多的研究成果,包括 NeurIPS 2018 的最佳论文。那么什么是微分方程,它结合深度学习又有什么用呢?

    按照维基百科的描述:「微分方程是一种数学方程,用来描述某一类函数与其导数之间的关系」,因此一个方程如果同时包含函数及其导数,那么就可以称为微分方程。例如,f'(x) = 2x 就是一个常微分方程,我们可以「看出来」其通解为 f(x)=x^2 +C,其中 C 表示任意常数。

    不过深度学习一般也就会用到概率论、线性代数和最优化等基础数学,似乎与微分方程没什么关系?其实并不然,如果我们探索网络架构到底与数学的哪些概念是相关的,那么会发现深度神经网络可以理解为一种微分方程。即,深度神经网络架构,就是离散化的微分方程。

    因此如果能找到了微分方程与深度网络之间的关系,那么两个领域之间的研究成果就能互相借鉴,也就能找到更高效的深度模型。

    此外,深度学习的模型设计缺少系统指导,大多数深度学习模型都缺少可解释性,这也限制了它的应用。如果加上了微分方程,那么网络架构就是数值微分方程,网络训练就是最优控制,神经网络的设计也就能有理论指导了。

    efa7e0f44142148332cb1d5aea665704.png

    如上图所示,比较受关注的是神经网络架构与数值微分方程之间的关系,这个领域早期比较有影响的就是北大、普林斯顿教授鄂维南老师的研究,它首次将残差网络理解为微分方程。北大董彬等研究者在 ICML 2018 中进一步表明 ResNet、PolyNet、FractalNet 和 RevNet 等网络都可以理解为微分方程的不同数值离散方式。

    此外,在 NeurIPS 2018 的最佳论文中,陈天琦等研究者提出神经常微分方程,在近似常数级的内存成本上,ODENet 能实现高效的图像分类和生成任务。在 ICLR 2019 中,陈天琦等研究者进一步将微分方程应用到流模型中,从而获得内存效率更高的生成模型。

    正如董彬老师所言,通过结合微分方程,我们可以从数学角度出发设计网络架构,并分析它们的泛化性能和可解释性。在这篇文章中,我们希望从基本概念到应用,介绍该领域的一些新想法。

    数学老师眼中的 ResNet

    鄂维南院士是一位主要关注数学领域的研究者,也是北京大学和普林斯顿大学的教授。在 17 年的《Communications in Mathematics and Statistics》中,鄂维南发表了一篇文章,他讨论了使用连续动力学系统建模高维非线性函数的想法,即微分方程与深度学习之间的关系。

    以下是该工作的地址:

    • 论文:A Proposal on Machine Learning via Dynamical Systems

    • 论文地址:https://link.springer.com/article/10.1007/s40304-017-0103-z

    在这篇「Proposal」中,鄂老师表示深度神经网络可以理解为离散的动力学系统。离散的动力学系统很难分析,但连续的动力学系统在数学上更易于分析,因此它可作为深度神经网络的数学基础。此外,因为有很多种方式离散化动力学系统,所以我们也许能构建更多有意思的模型。例如,动力学系统可以选择自适应的时间步大小,这对应于选择自适应的神经网络层级。

    这一篇文章提出了非常多的新洞见,尤其是结合常微分方程与深度残差网络的新视角。下面让我们看看在数学家的眼中,残差网络到底该怎样推导。

    离散动态系统:ResNet

    因为 DNN 可以视为离散的动力学系统,那么每一步最基础的动力学过程即线性变换加上非线性激活函数,这是最简单的非线性离散动力学系统之一。具体而言对于深度残差网络,我们可以用离散动态系统描述为:

    b7a88f4919038cbf3b29754f53f39b22.png

    其中 Z_l 和 Z_l+1 为第 l 层的输入与输出,y_l 为第 l 层的辅助变量,h 和 g 为一些映射,它们可以是线性的,也可以是非线性的。对于深度神经网络,如果 g 和 h 是恒等映射,训练会非常顺畅,那么为什么会这样呢?为什么 g 和 h 是恒等映射就能减轻梯度爆炸或消失问题?

    实际上,如果令 G 为 g 的逆向映射(inverse map),我们可以将上述动力学系统写为:

    ece205bd71238f8ee7f73736dbeb23dc.png

    为了有一个稳定的训练过程,即梯度不爆炸、不消失,上述方程右边的梯度需要接近于恒等映射。也就是说,梯度由后向前传时,它在量上需要保持稳定。鄂老师表示若令 h 和 g 都为恒等映射,∇G∇h 就逼近恒等映射(F 为较小随机扰动),梯度的传递就非常平稳。

    其实若 h 和 g 为恒等映射,那么方程 2.3 就可以写为:

    0695c46e62991e559f2b5b24e750f13f.png

    这难道不就是标准的残差连接吗?它不就是如下动态系统的离散化吗?

    8ddd1fdfbe4d5a3ea6cca35e0cee313e.png

    这里 t 相当于层级 l 的连续化,如果 l 趋向于无穷小,那么按照导数的定义,z_l+1 与 z_l 两层之间的差就趋向于 z 对 t 的导数。所以,可以说残差网络其实就是连续变换的欧拉离散化,它是一个特例。

    如果从导数定义的角度来看方程 2.7,当 t 的变化趋向于无穷小时,隐藏状态的变化 dz 可以通过神经网络建模。当 t 从初始一点点变化到终止,那么 z(t) 的改变最终就代表着前向传播结果。

    从节选的几步推导,我们可以看到,ResNet 能天然理解为动力学系统,能用微分方程天然表示。但是所有的,或大多数深度神经网络都能这样理解吗?董彬老师做了进一步的研究,他们将这一观点推广到了更多的深度神经网络。

    其它深度卷积网络又怎样?

    北京大学董彬副教授等研究者做了进一步探讨,即 ResNet 与微分方程的这种关系是特例还是一般化的联系。如果数值 ODE 和网络构架的联系建立起来了,董彬老师表示我们就可以从数值 ODE 反推出一些有用的神经网络构架。因为 ODE 已经发展了几十年,有丰富的研究成果可以参考,反推的新架构可能取得更好的效果。

    在 ICML 2018 的一项研究中,董彬等研究者表示很多高效的卷积神经网络都能解释为微分方程,并基于微分方程的线性多步解法提出新的线性多步架构,这种结构能提升 ImageNet 等的图像分类任务的性能。

    • 论文:Beyond Finite Layer Neural Networks: Bridging Deep Architectures and Numerical Differential Equations

    • 论文地址:https://arxiv.org/abs/1710.10121

    微分方程的解法即网络架构

    这里展示了其它卷积网络与微分方程之间的关系,它们在图像识别等任务上都非常有效。如下所示为 ResNet 及其它三种卷积网络架构。

    32f4d6b94866222db3f0dd222ab9153c.png

    图源:arXiv: 1710.10121

    其中 PolyNet 为每个残差模块引入了 PolyInception 模块,从而加强模块的表达能力。PolyInception 模块是 Inception 单元的「多项式」组合,它会以并行或串行的方式集成多条计算路径。FractalNet 以自相似性为基准设计架构,它会重复引用简单的扩展规则,从而生成结构为截断分形(fractal)的深度网络。最后的 RevNet 是一种可逆网络,它不需要在前馈传播中储存中间激活值。

    在下表中,董彬老师总结了不同卷积网络对应的微分方程数值解法。其中 ResNet 和 ResNeXt 可视为步长为 1 的前向欧拉离散化,其它卷积网络也对应着不同的离散化方式。

    a2982aac44aa38fe6f7c4783c65e89bc.png

    图源:arXiv: 1710.10121

    PolyNet

    这里我们先看看 PolyNet 怎样搭上微分方程这班车。PolyNet 主要希望提供多样性的架构,因此 PolyInception 除了常规残差模块的一阶路径,还添加了另一条二阶路径。具体而言,PolyInception 模块可以表示为:

    2db252d59420e2af1499a015214f6a7c.png

    其中 I 表示恒等映射,「·」表示作用于,即 F·x 表示非线性变换 F 作用于 x。我们可以看到,PolyInception 多了一个二阶的复合函数,也就是说,如果 F 表示某种 Inception 模块,那么二阶的路径会穿过串联的两个 Inception 模块。在 PolyNet 原论文中,作者展示了可能的 PolyInception 结构:

    6faac5014fa4cec5e2a8c19cf088a32a.png

    图源:arXiv: 1611.05725

    如上所示,a 和 b 是等价的,F 和 G 表示是否共享参数。董彬老师表示,PolyNet 可以解释为时间步为 1 的反向欧拉方法,实际上前向传播就是在解一个反向欧拉。

    94eeaecccbee2c82d527cc6273e9b8cc.png

    不过本身反向欧拉要求解一个非常巨大的非线性方程组的逆,这样无法求解就只能用多项式去逼近解。也就是说,上式的求逆又可以写为:

    f15d5b1acdb77338432f4df966c41a6c.png

    因此,PolyNet 可以视为采用反向欧拉策略解常微分方程 u_t = f(u) 的逼近方法。如果这样理解,那么它暗示着允许更大的时间步大小,因此这表示我们可以采用更少的残差模块就能构建更好的效果。这正好解释了,为什么 PolyNet 能增加残差模块宽度而降低层级深度,从而实现更好的分类准确度。

    此外,从微分方程的角度来说,反向欧拉法要比正向欧拉法有更好的稳定性。这也能从侧面说明为什么在相近参数和计算量下,PolyNet 能实现更好的效果。

    FractalNet 与 RevNet

    FractalNet 与 RevNet 也都有对应的微分方程「解法」,研究者发现 FractalNet 的宏观架构能解释为数值分析中著名的 Runge-Kutta 方法。例如对于复合次数小于等于 2 的 FractalNet,每一个模块都可以表示为:

    979391b3cd31bf10aea0ab965edcd774.png

    其中 f_1 和 f_2 分别表示不同的 Fractal,如果我们看看二阶的 Runge-Kutta 方法,我们就会发现他们的表达式非常相似:

    45445881e3bac86cb8440fff53238bff.png

    另外的 RevNet 也是一样,因为它是一种可逆的深度网络,所以它有从 X 到 Y 和 Y 到 X 的过程。如果它们分别对应着前向欧拉方法,那么就表示两条简单的动态系统就能描述整个神经网络。此外值得注意的是,虽然深度学习中很少有可逆的双向网络,但是在微分方程中,动态系统的正反向都是可行的。

    最后,董彬老师还根据数值微分方程提出了一种新的结构:Linear Multi-step Architecture。他表明加上这种结构,残差网络只需要一半的参数量就能达到相同的训练效果,这表示新结构使卷积网络的训练更高效与稳定,希望了解的读者可查阅董老师的原论文。

    神经化的微分方程

    微分方程除了为深度网络提供理论解释,并启发架构创新,它还能做一些更炫酷的工作吗?多伦多大学陈天琦等研究者表示,既然残差连接就是常微分方程(ODE)的离散化,那么常规神经网络的前向传播过程岂不就是微分方程给定初值解末值的过程?如果我们用业界成熟的微分方程求解器(ODESolve)解某个 ODE,这不就能代替前传和反传么?

    在他们的研究 ODENet 中,研究者使用神经网络参数化隐藏状态的导数,而不是如往常那样直接参数化隐藏状态。这里参数化隐藏状态的导数就类似构建了连续性的层级与参数,而不再是离散的层级。因此参数也是一个连续的空间,我们不需要再分层传播梯度与更新参数。

    简而言之,ODENet 中的神经网络建模可以表示为下式:

    65b85a569274a42d7afeb42090b093cd.png

    其中 f 表示的是神经网络,h 表示的是隐藏状态。相比而言,常规卷积网络可表示为 h(t+1) = f(h(t), θ)。

    如果参数化的是隐藏状态的变化,神经微分方程在前向传播过程中不储存任何中间结果,因此它只需要近似常数级的内存成本。

    • 论文:Neural Ordinary Differential Equations

    • 论文地址:https://arxiv.org/abs/1806.07366

    • 实现地址:https://github.com/rtqichen/torchdiffeq

    新颖的前传与反传

    其实 ResNet 只不过是简单的欧拉离散化,而近百年来,数学家构建了很多现代 ODE 求解方法。这些新方法不仅能保证收敛到真实解,同时还能控制误差水平。

    ODENet 就采用了一种适应性 ODESolver 代替前向传播过程,它不像欧拉法移动固定的步长,相反它会根据给定的误差容忍度选择适当的步长逼近真实解。

    如下图所示,左边的残差网络定义有限转换的离散序列,它从 0 到 1 再到 5 是离散的层级数,且在每一层通过激活函数做一次非线性转换。此外,黑色的评估位置可以视为神经元,它会对输入做一次转换以修正传递的值。而右侧的 ODE 网络定义了一个向量场,隐藏状态会有一个连续的转换,黑色的评估点也会根据误差容忍度自动调整。

    2fe5121bb9bf9f8c0c7899018ed4213b.png

    图源:arXiv: 1806.07366

    所以 ResNet 采用的是固定的步长 1,适应性 ODESolver 可以自动估计不同的步长,它的自由度和误差控制都更强一些。

    对于新颖的前向传播,我们可以通过两段伪代码了解它与常规方法的不同之处。如下是 ResNet 的简要伪代码,定义 f 为卷积层、T 为残差块的数量:

    def f(h, t, θ): return nnet(h, θ_t) def resnet(h): for t in [1:T]: h = h + f(h, t, θ) return h

    如下展示的是整个 ODEnet 的伪代码,f 表示的也是神经网络层级。不过它不需要层层堆叠离散的层级,只要通过 ODESolver 求出终止时刻 t_1 的 h 就行了,整个 ODESolver 就是一个黑箱过程。

    def f(h, t, θ): return nnet([h, t], θ)def ODEnet(h, θ): return ODESolver(f, h, t_0, t_1, θ)

    所以不同之处在于 ODESlover 代替了整个前传过程,这样岂不是无法进行反向传播了?为了「绕过」前向传播中的 ODESolver,陈天琦等研究者采用了一种名为 adjoint method 的梯度计算方法。也就是说,模型在反传中通过第二个增广 ODESolver 算出梯度,其可以逼近按计算路径从前向 ODESolver 传递回的梯度,因此可用于进一步的参数更新。

    总之,通过一系列推导,反向传播在不知道中间激活值的情况下,直接求一个微分方程就行了。我们并不需要一层层反向传递梯度,就能直接获得更新参数的梯度。ODENet 的反向传播过程如下伪代码所示:

    def f_and_a([z, a], t): return[f, -a*df/da, -a*df/dθ][z0, dL/dx, dL/dθ] =  ODESolver([z(t1), dL/dz(t), 0], f_and_a, t1, t0)

    其中 f_and_a 为增广状态的动力学过程,用于求解微分方程。ODESlover 求出来的 dL/dθ 就可以直接用来更新神经网络的权重。

    ODENet 采用了一种非常新颖的前向与反向传播过程,它和常规的神经网络训练完全不一样。它的优势也体现在这种差异上,因为反向传播不需要保留前传的中间计算结果,所以只需要常数级的内存要求。

    微分方程也能搭生成模型

    在 ODENet 中,研究者也展示了将微分方程应用到生成模型的前景。因此在 ICLR 2019 中,陈天琦等研究者进一步研究了微分方程如何用于流模型。

    • 论文:FFJORD: Free-form Continuous Dynamics for Scalable Reversible Generative Models

    • 论文地址:https://arxiv.org/abs/1810.01367

    目前,最流行的生成模型 GAN 通过生成器与判别器的博弈,从而逼近真实数据的概率密度函数 p(x)。但流模型希望通过一系列可逆转换,明确地学习到数据分布 p(x)。因此,流模型会通过可逆神经网络将数据点从一个简单分布映射到复杂分布。

    但基于似然度训练常规流模型需要限制它们的架构,从而使雅可比行列式的计算成本足够小。例如流模型 Real NVP 或 Glow 等,它们对矩阵维度进行分割或使用秩为 1 的权重矩阵进行限制。

    ODENet 使用常微分方程定义了一种从隐变量到数据的映射,它可以使用相对低成本的迹运算计算雅可比行列式。后面提出的 FFJORD 进一步发扬了这种观点,它将迹估计和前向传播都定义为了常微分方程,并使用 ODESolver 直接求解。直观而言,FFJORD 的抽象过程可如下图所示:

    e8052daf72adf375862c97f26a1f3329.png

    图源:arXiv: 1810.01367

    如上图所示,对于微分方程而言,我们知道初始的随机分布 z(t_0),并系统通过 ODESolver 解出真实图像分布 z(t_1)。如果知道了 z(t_1),那么从中采样就能生成真实图像。

    最后,这些方向与成果都表明,微分方程真的可以和深度神经网络相结合。也许以后,微分方程乃至其它数理基础,都能帮助我们构建更鲁棒和可解释性的机器学习系统。b28ef473498f38bbc2292389c9b0886f.png

    本文为机器之心原创,转载请联系本公众号获得授权

    ✄------------------------------------------------

    加入机器之心(全职记者 / 实习生):hr@jiqizhixin.com

    投稿或寻求报道:content@jiqizhixin.com

    广告 & 商务合作:bd@jiqizhixin.com

    展开全文
  • 鉴于现有方法不能很好恢复场景深度变化较大的图像,本文融合大气衰减模型与变分偏微分方程,提出了一种单幅彩色图像去雾算法。该算法利用数学形态学中的中值集算子构造局部白平衡处理,精确估计大气光参数。设计了一种...
  • 曲面偏微分方程参数化有限元方法 前面介绍的P\mathbf{P}P和Pd\mathbf{Pd}Pd,及其对应的同参等值延伸及投影自然延伸,对于曲面上有限元方法的理论分析起着至关重要的作用。 利普希茨参数曲面上的FEM 利普希茨参数...

    曲面偏微分方程:参数化有限元方法

    前面介绍的 P \mathbf{P} P P d \mathbf{Pd} Pd,及其对应的同参等值延伸及投影自然延伸,对于曲面上有限元方法的理论分析起着至关重要的作用。

    利普希茨参数曲面上的FEM

    利普希茨参数化曲面

    因为同参映射 P \mathbf{P} P的双利普希茨性,存在一个常数 L L L,使得
     (64)  L − 1 ∣ x 1 − x 2 ∣ ≤ ∣ x ~ 1 − x ~ 2 ∣ ≤ L ∣ x 1 − x 2 ∣ , x ~ i = P ( x i ) , i = 1 , 2 \begin{array}{ll}{\text { (64) }} & {L^{-1}\left|\mathrm{x}_{1}-\mathrm{x}_{2}\right| \leq\left|\widetilde{\mathrm{x}}_{1}-\widetilde{\mathrm{x}}_{2}\right| \leq L\left|\mathrm{x}_{1}-\mathrm{x}_{2}\right|, \quad \tilde{\mathrm{x}}_{i}=\mathrm{P}\left(\mathrm{x}_{i}\right), i=1,2}\end{array}  (64) L1x1x2x 1x 2Lx1x2,x~i=P(xi),i=1,2

    定义 T T T周围区域macro patches如下,这里 T T T表示的是 γ \gamma γ的一次逼近曲面 Γ \Gamma Γ的每个分片。
    ( 65 ) ω T = ∪ { T ′ : T ′ ∩ T ≠ ∅ } , ω ~ T = P ( ω T ) (65) \quad \omega_{T}=\cup\left\{T^{\prime}: T^{\prime} \cap T \neq \emptyset\right\}, \quad \tilde{\omega}_{T}=\mathbf{P}\left(\omega_{T}\right) (65)ωT={T:TT=},ω~T=P(ωT)

    定义形正则化常数,这里 h T : = ∣ T ∣ 1 n h_{T}:=|T|^{\frac{1}{n}} hT:=Tn1,从表达式可以看出来,这个值越大,正则性越差。
    ( 66 ) σ : = sup ⁡ T max ⁡ T ∈ T diam ⁡ ( T ) h T (66) \quad \sigma:=\sup _{\mathcal{T}} \max _{T \in \mathcal{T}} \frac{\operatorname{diam}(T)}{h_{T}} (66)σ:=TsupTTmaxhTdiam(T)

    我们用 T ^ \widehat{T} T 来表示参考单元单纯形。用 T = X T ( T ^ ) T=\mathbf{X}_{T}(\widehat{T}) T=XT(T )来表示逼近曲面的参数化。从(66)可以看得出来下式。这个很重要,要怎么理解呢? D X T D \mathbf{X}_{T} DXT就是一个线性变换,它的算子至于映射到 T T T上,模和 diam ⁡ ( T ) \operatorname{diam}(T) diam(T)同阶,那么 D X T D \mathbf{X}_{T} DXT就是 h T h_T hT阶的。
     (67)  h T ∣ w ∣ ≲ ∣ D X T w ∣ ≲ h T ∣ w ∣ , ∀ w ∈ R n \begin{array}{ll}{\text { (67) }} & {h_{T}|\mathrm{w}| \lesssim\left|D \mathrm{X}_{T} \mathrm{w}\right| \lesssim h_{T}|\mathrm{w}|, \quad \forall \mathrm{w} \in \mathbb{R}^{n}}\end{array}  (67) hTwDXTwhTw,wRn

    因为投影的双利普希茨性,我们也知道$
    D \chi_{T} 和 和 h_{T}$是同阶的。
    ( 68 ) h T ∣ w ∣ ≲ ∣ D χ T ( y ) w ∣ ≲ h T ∣ w ∣ ∀ w ∈ R n , y ∈ T ^ (68) \quad h_{T}|\mathrm{w}| \lesssim\left|D \chi_{T}(\mathrm{y}) \mathrm{w}\right| \lesssim h_{T}|\mathrm{w}| \quad \forall \mathrm{w} \in \mathbb{R}^{n}, \mathrm{y} \in \widehat{T} (68)hTwDχT(y)whTwwRn,yT

    我们依然用tilde符号来表示在曲面 γ \gamma γ上,hat符号表示在参数域是(参考单元)上。 Γ \Gamma Γ的参数化表示为 X T \mathbf{X}_{T} XT γ \gamma γ的参数化表示为 χ T = P ∘ X T \chi_{T}=\mathbf{P} \circ \mathbf{X}_{T} χT=PXT,那么在macro patches上,有,
     (69)  L − 1 h T ∣ y 1 − y 2 ∣ ≤ ∣ x ~ 1 − x ~ 2 ∣ ≤ L h T ∣ y 1 − y 2 ∣ \begin{array}{ll}{\text { (69) }} & {L^{-1} h_{T}\left|\mathbf{y}_{1}-\mathbf{y}_{2}\right| \leq\left|\widetilde{\mathbf{x}}_{1}-\widetilde{\mathbf{x}}_{2}\right| \leq L h_{T}\left|\mathbf{y}_{1}-\mathbf{y}_{2}\right|}\end{array}  (69) L1hTy1y2x 1x 2LhTy1y2

    各个区域上的函数值定义如下:
     (70)  v ^ T ( y ) : = v ~ T ( χ T ( y ) ) ∀ x ^ ∈ T ^  and  v T ( x ) : = v ~ T ( P ( x ) ) ∀ x ∈ T \begin{array}{ll}{\text { (70) } \quad \widehat{v}_{T}(\mathbf{y}):=\tilde{v}_{T}\left(\chi_{T}(\mathbf{y})\right) \quad \forall \widehat{\mathbf{x}} \in \widehat{T}} & {\text { and } \quad v_{T}(\mathbf{x}):=\tilde{v}_{T}(\mathbf{P}(\mathbf{x})) \quad \forall \mathbf{x} \in T}\end{array}  (70) v T(y):=v~T(χT(y))x T  and vT(x):=v~T(P(x))xT

    多边形曲面上的微分几何

    同以前的方式,可以定义第一标准型和面积元,
     (71)  g T : = ( D X T ) t D X T , q T : = det ⁡ g T , ∀ T ∈ T \begin{array}{ll}{\text { (71) }} & {\mathrm{g}_{T}:=\left(D \mathrm{X}_{T}\right)^{t} D \mathrm{X}_{T}, \quad q_{T}:=\sqrt{\operatorname{det} \mathrm{g}_{T}}, \quad \forall T \in \mathcal{T}}\end{array}  (71) gT:=(DXT)tDXT,qT:=detgT ,TT

    且满足,
     (72)   eigen  ( g T ) ≈ h T 2 , q T ≈ h T n , ∀ T ∈ T \begin{array}{ll}{\text { (72) }} & {\text { eigen }\left(\mathrm{g}_{T}\right) \approx h_{T}^{2}, \quad q_{T} \approx h_{T}^{n}, \quad \forall T \in \mathcal{T}}\end{array}  (72)  eigen (gT)hT2,qThTn,TT

    因为 D X T D \mathbf{X}_{T} DXT D χ T D \mathbf{\chi}_{T} DχT的同阶性,所以稳定化常数其实和网格尺寸是没有关系的,即
    ( 73 ) S χ ≈ 1 (73) \quad S_{\chi} \approx 1 (73)Sχ1

    因为(72)我们知道 q q q q Γ q_\Gamma qΓ是同阶的,即
    C 1 ≤ q q Γ ≤ C 2 C_{1} \leq \frac{q}{q_{\Gamma}} \leq C_{2} C1qΓqC2

    回忆曲面梯度和拉普拉斯算子的定义,有,
     (75)  ∇ v ^ = ( D X ) t ∇ T v , ∇ T v = ( D X ) g Γ − 1 ∇ v ^ \begin{array}{ll}{\text { (75) }} & {\nabla \widehat{v}=(D \mathrm{X})^{t} \nabla_{\mathrm{T}} v, \quad \nabla_{\mathrm{T}} v=(D \mathrm{X}) \mathrm{g}_{\mathrm{\Gamma}}^{-1} \nabla \widehat{v}}\end{array}  (75) v =(DX)tTv,Tv=(DX)gΓ1v
     (76)  Δ Γ v = 1 q Γ div ⁡ ( q Γ g Γ − 1 ∇ v ^ ) \begin{array}{ll}{\text { (76) }} & {\Delta_{\Gamma} v=\frac{1}{q_{\Gamma}} \operatorname{div}\left(q_{\Gamma} \mathbf{g}_{\Gamma}^{-1} \nabla \widehat{v}\right)}\end{array}  (76) ΔΓv=qΓ1div(qΓgΓ1v )

    使用分布积分公式,很容易看到:
    ∫ Γ ∇ Γ v ⋅ ∇ Γ w = ∑ T ∈ T − ∫ T w Δ Γ v + ∫ ∂ T w ∇ Γ v ⋅ μ T = ∑ T ∈ T − ∫ T w Δ Γ v + ∑ S ∈ S ∫ S w [ ∇ Γ v ] \begin{aligned} \int_{\Gamma} \nabla_{\Gamma} v \cdot \nabla_{\Gamma} w &=\sum_{T \in \mathcal{T}}-\int_{T} w \Delta_{\Gamma} v+\int_{\partial T} w \nabla_{\Gamma} v \cdot \boldsymbol{\mu}_{T} \\ &=\sum_{T \in \mathcal{T}}-\int_{T} w \Delta_{\Gamma} v+\sum_{S \in \mathcal{S}} \int_{S} w\left[\nabla_{\Gamma} v\right] \end{aligned} ΓΓvΓw=TTTwΔΓv+TwΓvμT=TTTwΔΓv+SSSw[Γv]
    这里的跳跃,就定义为:
    ( 77 ) [ ∇ Γ v ] : = ∇ Γ v + ⋅ μ + + ∇ Γ v − ⋅ μ − (77) \quad\left[\nabla_{\Gamma} v\right]:=\nabla_{\Gamma} v_{+} \cdot \mu_{+}+\nabla_{\Gamma} v_{-} \cdot \mu_{-} (77)[Γv]:=Γv+μ++Γvμ

    参数化有限元方法

    所谓的参数化有限元方法就是,寻找 U : = U T ∈ V # ( T ) U:=U_{\mathcal{T}} \in \mathbb{V}_{\#}(\mathcal{T}) U:=UTV#(T),使得,
     (78)  ∫ Γ ∇ Γ U ⋅ ∇ Γ V = ∫ Γ F V ∀ V ∈ V # ( T ) \begin{array}{ll}{\text { (78) }} & {\int_{\Gamma} \nabla_{\Gamma} U \cdot \nabla_{\Gamma} V=\int_{\Gamma} F V \quad \forall V \in \mathbb{V}_{\#}(\mathcal{T})}\end{array}  (78) ΓΓUΓV=ΓFVVV#(T)
    这里的 F ∈ L 2 , # ( Γ ) F \in L_{2, \#}(\Gamma) FL2,#(Γ)。这里定义了分片线性连续空间,及其对应的零均值空间:
    V ( T ) : = { V ∈ C 0 ( Γ ) ∣ V ∣ T = V ^ ∘ X − 1  for some  V ^ ∈ P , T ∈ T } \mathbb{V}(\mathcal{T}):=\left\{V \in C^{0}(\Gamma)|V|_{T}=\widehat{V} \circ \mathrm{X}^{-1} \text { for some } \widehat{V} \in \mathcal{P}, T \in \mathcal{T}\right\} V(T):={VC0(Γ)VT=V X1 for some V P,TT}
    V # ( T ) : = V ( T ) ∩ L 2 , # ( Γ ) \mathbb{V}_{\#}(\mathcal{T}):=\mathbb{V}(\mathcal{T}) \cap L_{2, \#}(\Gamma) V#(T):=V(T)L2,#(Γ)
    P \mathcal{P} P是线性多项式空间。

    因为 F ∈ L 2 , # ( Γ ) F \in L_{2, \#}(\Gamma) FL2,#(Γ),那么,我们也有:
     (79)  ∫ Γ ∇ Γ U ⋅ ∇ Γ V = ∫ Γ F V ∀ V ∈ V ( T ) \text { (79) } \quad \int_{\Gamma} \nabla_{\Gamma} U \cdot \nabla_{\Gamma} V=\int_{\Gamma} F V \quad \forall V \in \mathbb{V}(\mathcal{T})  (79) ΓΓUΓV=ΓFVVV(T)

    介绍一个引理:
    在这里插入图片描述
    证明:用一下误差矩阵的定义以及(78),再用一下 γ \gamma γ上的弱形式,并放到 Γ \Gamma Γ上,我们有,
    ∫ Γ ∇ Γ ( u − U ) ⋅ ∇ Γ V = ∫ γ ∇ γ u ~ ⋅ ∇ γ V ~ + ∫ Γ ∇ Γ u ⋅ E Γ ∇ Γ V − ∫ Γ F V \int_{\Gamma} \nabla_{\Gamma}(u-U) \cdot \nabla_{\Gamma} V=\int_{\gamma} \nabla_{\gamma} \widetilde{u} \cdot \nabla_{\gamma} \widetilde{V}+\int_{\Gamma} \nabla_{\Gamma} u \cdot \mathbf{E}_{\Gamma} \nabla_{\Gamma} V-\int_{\Gamma} F V ΓΓ(uU)ΓV=γγu γV +ΓΓuEΓΓVΓFV

    几何一致性

    Γ \Gamma Γ上的一致庞加莱估计

    回忆一下庞加莱不等式:
     (82)  ∥ v ∥ L 2 ( Γ ) ≲ ∥ ∇ v ∥ L 2 ( Γ ) ∀ v ∈ H # 1 ( Γ ) \begin{array}{ll}{\text { (82) }} & {\|v\|_{L_{2}(\Gamma)} \lesssim\|\nabla v\|_{L_{2}(\Gamma)} \quad \forall v \in H_{\#}^{1}(\Gamma)}\end{array}  (82) vL2(Γ)vL2(Γ)vH#1(Γ)

    几何估计量

    定义一个几何元指示子,反应的是曲面及其逼近的导数之间的距离:
     (83)  λ T : = ∥ D ( P − I T P ) ∥ L ∞ ( T ) = ∥ D P − I ∥ L ∞ ( T ) ∀ T ∈ T \text { (83) } \quad \lambda_{T}:=\left\|D\left(\mathbf{P}-\mathcal{I}_{\mathcal{T}} \mathbf{P}\right)\right\|_{L_{\infty}(T)}=\|D \mathbf{P}-\mathbf{I}\|_{L_{\infty}(T)} \quad \forall T \in \mathcal{T}  (83) λT:=D(PITP)L(T)=DPIL(T)TT

    相应的几何估计量就定义为:
     (84)  λ T ( Γ ) : = max ⁡ T ∈ T λ T \begin{array}{ll}{\text { (84) }} & {\lambda_{\mathcal{T}}(\Gamma):=\max _{T \in \mathcal{T}} \lambda_{T}}\end{array}  (84) λT(Γ):=maxTTλT

    用一下复合函数求导,我们有:
    ( 85 ) max ⁡ y ∈ T ˉ ∣ D ( χ T − X T ) ( y ) ∣ min ⁡ { ∣ D − χ T ( y ) ∣ , ∣ D − X T ( y ) ∣ } ≤ S χ λ T ∀ T ∈ T (85) \quad \max _{\mathbf{y} \in \bar{T}} \frac{\left|D\left(\chi_{T}-\mathbf{X}_{T}\right)(\mathbf{y})\right|}{\min \left\{\left|D^{-} \chi_{T}(\mathbf{y})\right|,\left|D^{-} \mathbf{X}_{T}(\mathbf{y})\right|\right\}} \leq S_{\chi} \lambda_{T} \quad \forall T \in \mathcal{T} (85)yTˉmaxmin{DχT(y),DXT(y)}D(χTXT)(y)SχλTTT

    另外定义两个量,他们是 h T h_T hT的高阶无穷小量,
     (86)  β T : = ∥ P − I T P ∥ L ∞ ( T ) , β T ( Γ ) : = max ⁡ T ∈ T β T \begin{array}{ll}{\text { (86) }} & {\beta_{T}:=\left\|\mathbf{P}-\mathcal{I}_{\mathcal{T}} \mathbf{P}\right\|_{L_{\infty}(T)}, \quad \beta_{\mathcal{T}}(\Gamma):=\max _{T \in \mathcal{T}} \beta_{T}}\end{array}  (86) βT:=PITPL(T),βT(Γ):=maxTTβT
    ( 87 ) μ T : = β T + λ T 2 , μ T ( Γ ) : = max ⁡ T ∈ T μ T (87) \quad \mu_{T}:=\beta_{T}+\lambda_{T}^{2}, \quad \mu_{\mathcal{T}}(\Gamma):=\max _{T \in \mathcal{T}} \mu_{T} (87)μT:=βT+λT2,μT(Γ):=TTmaxμT

    C1曲面的几何一致性误差

    给一个推论,
     Corollary  32  (geometric consistency errors for  C 1 , α  surfaces). If  X  and  χ  satisfy  ( 67 )  and  ( 68 ) ,  then for all  T ∈ T  we have   (88)  ∥ 1 − q − 1 q Γ ∥ L ∞ ( T ^ ) , ∥ I − grg ⁡ − 1 ∥ L ∞ ( T ^ ) , ∥ ν Γ − ν ∥ L ∞ ( T ) ≲ λ T  where the hidden constants depend on  S χ ≈ 1  defined in  ( 38 ) .  Moreover,   (89)  ∥ E ∥ L ∞ ( T ^ ) + ∥ E Γ ∥ L ∞ ( T ^ ) ≲ λ T ∀ T ∈ T \begin{array}{l}{\text { Corollary } 32 \text { (geometric consistency errors for } C^{1, \alpha} \text { surfaces). If } \mathrm{X} \text { and } \chi \text { satisfy }} \\ {(67) \text { and }(68), \text { then for all } T \in \mathcal{T} \text { we have }} \\ {\begin{array}{ll}{\text { (88) }\left\|1-q^{-1} q_{\Gamma}\right\|_{L_{\infty}(\widehat{T})},\left\|\mathbf{I}-\operatorname{grg}^{-1}\right\|_{L_{\infty}(\widehat{T})},\left\|\nu_{\Gamma}-\nu\right\|_{L_{\infty}(T)} \lesssim \lambda_{T}} \\ {\text { where the hidden constants depend on } S_{\chi} \approx 1 \text { defined in }(38) . \text { Moreover, }} \\ {\text { (89) }} & {\|\mathbf{E}\|_{L_{\infty}(\widehat{T})}+\left\|\mathbf{E}_{\Gamma}\right\|_{L_{\infty}(\widehat{T})} \lesssim \lambda_{T} \quad \forall T \in \mathcal{T}}\end{array}}\end{array}  Corollary 32 (geometric consistency errors for C1,α surfaces). If X and χ satisfy (67) and (68), then for all TT we have  (88) 1q1qΓL(T ),Igrg1L(T ),νΓνL(T)λT where the hidden constants depend on Sχ1 defined in (38). Moreover,  (89) EL(T )+EΓL(T )λTTT
    这个证明和自然而然。用一下引理16和24。(88)的表达通通小于 λ ∞ \lambda_\infty λ,用(85)放一下即可。 E E E的估计用(47)。

    C2曲面的几何一致性误差

    首先要让曲面和逼近曲面足够近,使得,
     (90)  β T ( Γ ) < 1 2 K ∞ ⇒ Γ ⊂ N \begin{array}{ll}{\text { (90) }} & {{ \beta }_\mathcal{T}(\Gamma)<\frac{1}{2 K_{\infty}} \Rightarrow \Gamma \subset \mathcal{N}}\end{array}  (90) βT(Γ)<2K1ΓN
    其次,要让两个不同的投影走一个来回还是属于一个macro patches。
    ( 91 ) P d ∘ P − 1 ( T ~ ) ⊂ ω ~ T ∀ T ∈ T (91) \quad \mathrm{P}_{d} \circ \mathrm{P}^{-1}(\widetilde{T}) \subset \widetilde{\omega}_{T} \quad \forall T \in \mathcal{T} (91)PdP1(T )ω TTT
    那么走一个来回之后,曲面上的两点的距离满足,
    ( 92 ) ∣ x ~ − P d ∘ P − 1 ( x ~ ) ∣ = ∣ P ( x ) − P d ( x ) ∣ ≤ 2 β T ∀ x ∈ T (92) \quad\left|\widetilde{\mathbf{x}}-\mathbf{P}_{d} \circ \mathbf{P}^{-1}(\widetilde{\mathbf{x}})\right|=\left|\mathbf{P}(\mathbf{x})-\mathbf{P}_{d}(\mathbf{x})\right| \leq 2 \beta_{T} \quad \forall \mathbf{x} \in T (92)x PdP1(x )=P(x)Pd(x)2βTxT

    那么,有这么一个推论,
     Corollary  33  (geometric consistency errors for  C 2  surfaces). If  ( 90 )  and  ( 74 )  hold, then so do the following estimates for all  T ∈ T  (93)  ∥ d ∥ L ∞ ( T ) ≲ β T , ∥ ν − ν Γ ∥ L ∞ ( T ) ≲ λ T , ∥ 1 − q − 1 q Γ ∥ L ∞ ( T ) ≲ μ T  where all the geometric quantities are defined using the parametrizations  χ = P d ∘ X  and  X .  Moreover,   (94)  ∥ E ∥ L ∞ ( T ) , ∥ E Γ ∥ L ∞ ( T ) ≲ μ T ∀ T ∈ T \begin{array}{l}{\text { Corollary } 33 \text { (geometric consistency errors for } C^{2} \text { surfaces). If }(90) \text { and }(74)} \\ {\text { hold, then so do the following estimates for all } T \in \mathcal{T}} \\ {\text { (93) }\|d\|_{L_{\infty}(T)} \lesssim \beta_{T}, \quad\left\|\nu-\nu_{\Gamma}\right\|_{L_{\infty}(T)} \lesssim \lambda_{T}, \quad\left\|1-q^{-1} q_{\Gamma}\right\|_{L_{\infty}(T)} \lesssim \mu_{T}} \\ {\text { where all the geometric quantities are defined using the parametrizations } \chi=\mathbf{P}_{d} \circ \mathbf{X}} \\ {\text { and } \mathbf{X} . \text { Moreover, }} \\ {\begin{array}{llll}{\text { (94) }} & {\|\mathbf{E}\|_{L_{\infty}(T)},\left\|\mathbf{E}_{\Gamma}\right\|_{L_{\infty}(T)}} & {\lesssim \mu_{T}} & {\forall T \in \mathcal{T}}\end{array}}\end{array}  Corollary 33 (geometric consistency errors for C2 surfaces). If (90) and (74) hold, then so do the following estimates for all TT (93) dL(T)βT,ννΓL(T)λT,1q1qΓL(T)μT where all the geometric quantities are defined using the parametrizations χ=PdX and X. Moreover,  (94) EL(T),EΓL(T)μTTT
    证明只需用到C2曲面的相应估计式,以及推论已有结果即可。
    由上可以得到一些有用的结果,利用 ω ~ \tilde \omega ω~的利普希茨性质,可以有,
    ∣ w ~ ( x ~ ) − w ~ ( P d ∘ P − 1 ( x ~ ) ) ∣ ≤ ∥ ∇ γ w ~ ∥ L ∞ ( ω ~ T ) ∣ x ~ − P d ∘ P − 1 ( x ~ ) ∣ ≤ 2 ∥ ∇ γ w ~ ∥ L ∞ ( ω ~ T ) β T \left|\widetilde{w}(\widetilde{\mathbf{x}})-\widetilde{w}\left(\mathbf{P}_{d} \circ \mathbf{P}^{-1}(\widetilde{\mathbf{x}})\right)\right| \leq\left\|\nabla_{\gamma} \widetilde{w}\right\|_{L_{\infty}\left(\widetilde{\omega}_{T}\right)}\left|\widetilde{\mathbf{x}}-\mathbf{P}_{d} \circ \mathbf{P}^{-1}(\widetilde{\mathbf{x}})\right| \leq 2\left\|\nabla_{\gamma} \widetilde{w}\right\|_{L_{\infty}\left(\widetilde{\omega}_{T}\right)} \beta_{T} w (x )w (PdP1(x ))γw L(ω T)x PdP1(x )2γw L(ω T)βT

    下面介绍一个命题,
     Proposition 34 (mismatch between  P  and  P d  ). Assume that (67) as well as the   assumptions (74), (90) and (91) hold. Then there exists  λ ∗ > 0  such for  w ~ ∈ H 1 ( γ )  and  T ∈ T  we have  ∥ w ~ − w ~ ∘ P d ∘ P − 1 ∥ L 2 ( T ~ ) ≲ β T ∥ w ~ ∥ H 1 ( ω ~ T )  provided  λ T ≤ λ ∗  and  ω ~ T  is a patch in  γ  around  T ~ . \begin{array}{l}{\text { Proposition 34 (mismatch between } \mathbf{P} \text { and } \mathbf{P}_{d} \text { ). Assume that (67) as well as the }} \\ {\text { assumptions (74), (90) and (91) hold. Then there exists } \lambda_{*}>0 \text { such for } \widetilde{w} \in H^{1}(\gamma)} \\ {\text { and } T \in \mathcal{T} \text { we have }} \\ {\qquad\left\|\widetilde{w}-\widetilde{w} \circ \mathbf{P}_{d} \circ \mathbf{P}^{-1}\right\|_{L_{2}(\widetilde{T})} \lesssim \beta_{T}\|\widetilde{w}\|_{H^{1}\left(\widetilde{\omega}_{T}\right)}} \\ {\text { provided } \lambda_{T} \leq \lambda_{*} \text { and } \widetilde{\omega}_{T} \text { is a patch in } \gamma \text { around } \widetilde{T} .}\end{array}  Proposition 34 (mismatch between P and Pd ). Assume that (67) as well as the  assumptions (74), (90) and (91) hold. Then there exists λ>0 such for w H1(γ) and TT we have w w PdP1L2(T )βTw H1(ω T) provided λTλ and ω T is a patch in γ around T .
    这个命题的证明分为3步:

    • reduce到 R n \mathbb{R}^{n} Rn
    • 光滑化
    • 估计各项
    • ϵ \epsilon ϵ的界

    抓关键步骤,简言之,就是先把要证的东西做个参数域的转换,
    ∥ w ~ − w ~ ∘ ψ ∥ L 2 ( T ~ ) ≲ h T n / 2 ∥ w ^ − w ^ ∘ ψ ^ ∥ L 2 ( T ^ ) \|\widetilde{w}-\widetilde{w} \circ \psi\|_{L_{2}(\widetilde{T})} \lesssim h_{T}^{n / 2}\|\widehat{w}-\widehat{w} \circ \widehat{\psi}\|_{L_{2}(\widehat{T})} w w ψL2(T )hTn/2w w ψ L2(T )

    再把转换出来的东西拆成几部分:
    ∥ w ^ − w ^ ∘ ψ ^ ∥ L 2 ( T ^ ) ≲ ∥ w ^ − w ^ ε ∥ L 2 ( T ^ ) + ∥ w ^ ε − w ^ ε ∘ ψ ^ ∥ L 2 ( T ^ ) + ∥ w ^ ε ∘ ψ ^ − w ^ ∘ ψ ^ ∥ L 2 ( T ^ ) \|\widehat{w}-\widehat{w} \circ \widehat{\psi}\|_{L_{2}(\widehat{T})} \lesssim\left\|\widehat{w}-\widehat{w}_{\varepsilon}\right\|_{L_{2}(\widehat{T})}+\left\|\widehat{w}_{\varepsilon}-\widehat{w}_{\varepsilon} \circ \widehat{\psi}\right\|_{L_{2}(\widehat{T})}+\left\|\widehat{w}_{\varepsilon} \circ \widehat{\psi}-\widehat{w} \circ \widehat{\psi}\right\|_{L_{2}(\widehat{T})} w w ψ L2(T )w w εL2(T )+w εw εψ L2(T )+w εψ w ψ L2(T )

    估计第一部分……
    ∥ w ^ − w ^ ε ∥ L 2 ( T ^ ) ≲ ε ∣ w ^ ∣ H 1 ( R n ) ≲ ε ∣ w ^ ∣ H 1 ( ω ^ T ) \left\|\widehat{w}-\widehat{w}_{\varepsilon}\right\|_{L_{2}(\widehat{T})} \lesssim \varepsilon|\widehat{w}|_{H^{1}\left(\mathbb{R}^{n}\right)} \lesssim \varepsilon|\widehat{w}|_{H^{1}\left(\widehat{\omega}_{T}\right)} w w εL2(T )εw H1(Rn)εw H1(ω T)

    估计第三部分……
    ∥ ( w ^ ε − w ^ ) ∘ ψ ^ ∥ L 2 ( T ^ ) ≲ ∥ w ^ ε − w ^ ∥ L 2 ( ω ^ T ) ≲ ε ∣ w ^ ∣ H 1 ( ω ^ T ) \left\|\left(\widehat{w}_{\varepsilon}-\widehat{w}\right) \circ \widehat{\psi}\right\|_{L_{2}(\widehat{T})} \lesssim\left\|\widehat{w}_{\varepsilon}-\widehat{w}\right\|_{L_{2}\left(\widehat{\omega}_{T}\right)} \lesssim \varepsilon|\widehat{w}|_{H^{1}\left(\widehat{\omega}_{T}\right)} (w εw )ψ L2(T )w εw L2(ω T)εw H1(ω T)

    估计第二部分……
    ∥ w ^ ε − w ^ ε ∘ ψ ^ ∥ L 2 ( T ^ ) 2 ≲ ε n ∑ i ∥ w ^ ε − w ^ ε ∘ ψ ^ ∥ L ∞ ( B ( y i , ε ) ∩ T ^ ) ≲ ε 2 ∑ i ∣ w ^ ∣ H 1 2 ( B ( y i , 3 ε ) ) ≲ ε 2 ∣ w ^ ∣ H 1 ( R n ) 2 ≲ ε 2 ∣ w ^ ∣ H 1 ( ω ^ T ) 2 \begin{aligned}\left\|\widehat{w}_{\varepsilon}-\widehat{w}_{\varepsilon} \circ \widehat{\psi}\right\|_{L_{2}(\widehat{T})}^{2} & \lesssim \varepsilon^{n} \sum_{i}\left\|\widehat{w}_{\varepsilon}-\widehat{w}_{\varepsilon} \circ \widehat{\psi}\right\|_{L_{\infty}\left(B\left(\mathbf{y}_{i}, \varepsilon\right) \cap \widehat{T}\right)} \\ & \lesssim \varepsilon^{2} \sum_{i}|\widehat{w}|_{H^{1}}^{2}\left(B\left(\mathbf{y}_{i}, 3 \varepsilon\right)\right) \lesssim \varepsilon^{2}|\widehat{w}|_{H^{1}\left(\mathbb{R}^{n}\right)}^{2} \lesssim \varepsilon^{2}|\widehat{w}|_{H^{1}\left(\widehat{\omega}_{T}\right)}^{2} \end{aligned} w εw εψ L2(T )2εniw εw εψ L(B(yi,ε)T )ε2iw H12(B(yi,3ε))ε2w H1(Rn)2ε2w H1(ω T)2

    估计 ϵ \epsilon ϵ……
    ε ≤ 2 L h T − 1 β T \varepsilon \leq 2 L h_{T}^{-1} \beta_{T} ε2LhT1βT

    把所有东西合起来,完事。
    ∥ w ~ − w ~ ∘ ψ ∥ L 2 ( T ~ ) 2 ≲ h T n ∥ w ^ − w ^ ∘ ψ ^ ∥ L 2 ( T ^ ) 2 ≲ h T n ε 2 ∣ w ^ ∣ H 1 ( ω ^ T ) 2 ≲ h T n h T − 2 β T 2 h T 2 − n ∣ w ~ ∣ H 1 ( w ~ T ) 2 = β T 2 ∣ w ~ ∣ H 1 ( ω ~ T ) 2 \begin{aligned}\|\widetilde{w}-\widetilde{w} \circ \psi\|_{L_{2}(\widetilde{T})}^{2} & \lesssim h_{T}^{n}\|\widehat{w}-\widehat{w} \circ \widehat{\psi}\|_{L_{2}(\widehat{T})}^{2} \lesssim h_{T}^{n} \varepsilon^{2}|\widehat{w}|_{H^{1}\left(\widehat{\omega}_{T}\right)}^{2} \\ & \lesssim h_{T}^{n} h_{T}^{-2} \beta_{T}^{2} h_{T}^{2-n}|\widetilde{w}|_{H^{1}\left(\widetilde{w}_{T}\right)}^{2}=\beta_{T}^{2}|\widetilde{w}|_{H^{1}\left(\widetilde{\omega}_{T}\right)}^{2} \end{aligned} w w ψL2(T )2hTnw w ψ L2(T )2hTnε2w H1(ω T)2hTnhT2βT2hT2nw H1(w T)2=βT2w H1(ω T)2

    下面有另外一个命题,
     Proposition 35 (Lipschitz perturbation). Let  Ω 1 , Ω 2 ⊂ ⊂ Ω ⊂ R n + 1  be Lipschitz  bounded domains and  L : Ω 1 → Ω 2  be a bi-Lipschitz isomorphism. If  r : = max ⁡ x ∈ Ω 1 ∣ L ( x ) − x ∣  is sufficiently small so that  ( Ω 1 ∪ Ω 2 ) + B ( 0 , r ) ⊂ Ω  then for all  g ∈ H 1 ( Ω )  we have  ∥ g − g ∘ L ∥ L 2 ( Ω 1 ) ≲ r ∥ g ∥ H 1 ( Ω ) \begin{array}{l}{\text { Proposition 35 (Lipschitz perturbation). Let } \Omega_{1}, \Omega_{2} \subset \subset \Omega \subset \mathbb{R}^{n+1} \text { be Lipschitz}} \\ {\text { bounded domains and } \mathbf{L}: \Omega_{1} \rightarrow \Omega_{2} \text { be a bi-Lipschitz isomorphism. If }} \\ {\qquad r:=\max _{\mathbf{x} \in \Omega_{1}}|\mathbf{L}(\mathbf{x})-\mathbf{x}|} \\ {\text { is sufficiently small so that }\left(\Omega_{1} \cup \Omega_{2}\right)+B(0, r) \subset \Omega \text { then for all } g \in H^{1}(\Omega) \text { we have }} \\ {\qquad\|g-g \circ \mathbf{L}\|_{L^{2}\left(\Omega_{1}\right)} \lesssim r\|g\|_{H^{1}(\Omega)}}\end{array}  Proposition 35 (Lipschitz perturbation). Let Ω1,Ω2ΩRn+1 be Lipschitz bounded domains and L:Ω1Ω2 be a bi-Lipschitz isomorphism. If r:=maxxΩ1L(x)x is sufficiently small so that (Ω1Ω2)+B(0,r)Ω then for all gH1(Ω) we have ggLL2(Ω1)rgH1(Ω)

    先验误差分析

    C2曲面的先验误差估计

     Lemma  36  (approximability in  H 1 ( Γ ) ) .  Let  γ  be a surface of class  C 2  and  u ~ ∈ H 2 ( γ ) .  Let  K ∞  be defined in  ( 30 )  and  β T ( Γ )  be given in  ( 86 ) .  Then we have   (95)  inf ⁡ V ∈ V ( T ) ∥ ∇ Γ ( u ~ ∘ P d − V ) ∥ L 2 ( Γ ) ≲ h T ∣ u ~ ∣ H 2 ( γ ) + β T ( Γ ) K ∞ ∥ ∇ γ u ~ ∥ L 2 ( γ ) \begin{array}{l}{ \text { Lemma }\left.36 \text { (approximability in } H^{1}(\Gamma)\right) . \text { Let } \gamma \text { be a surface of class } C^{2} \text { and } \widetilde{u} \in} \\ {H^{2}(\gamma) . \text { Let } K_{\infty} \text { be defined in }(30) \text { and } \beta_{\mathcal{T}}(\Gamma) \text { be given in }(86) . \text { Then we have }} \\ {\begin{array}{llll}{\text { (95) }} & {\inf _{V \in \mathrm{V}(\mathcal{T})}\left\|\nabla_{\Gamma}\left(\widetilde{u} \circ \mathbf{P}_{d}-V\right)\right\|_{L_{2}(\Gamma)}} & {\lesssim h_{\mathcal{T}}|\widetilde{u}|_{H^{2}(\gamma)}+\beta_{\mathcal{T}}(\Gamma) K_{\infty}\left\|\nabla_{\gamma} \widetilde{u}\right\|_{L_{2}(\gamma)}}\end{array}}\end{array}  Lemma 36 (approximability in H1(Γ)). Let γ be a surface of class C2 and u H2(γ). Let K be defined in (30) and βT(Γ) be given in (86). Then we have  (95) infVV(T)Γ(u PdV)L2(Γ)hTu H2(γ)+βT(Γ)Kγu L2(γ)
    这个引理告诉我们的是,解在 H 1 H^1 H1空间中逼近的下界是可控的。
    它的证明用到整体下界小等于分片下界和:
    ( 96 ) inf ⁡ V ∈ V ( T ) ∥ ∇ Γ ( u ~ ∘ P d − V ) ∥ L 2 ( Γ ) 2 ≲ ∑ T ∈ T inf ⁡ V T ∈ V ( T ) ∥ ∇ Γ ( u ~ ∘ P d − V T ) ∥ L 2 ( T ) 2 (96) \quad \inf _{V \in \mathbf{V}(\mathcal{T})}\left\|\nabla_{\Gamma}\left(\widetilde{u} \circ \mathbf{P}_{d}-V\right)\right\|_{L_{2}(\Gamma)}^{2} \lesssim \sum_{T \in \mathcal{T}} \inf _{V_{T} \in \mathbf{V}(T)}\left\|\nabla_{\Gamma}\left(\widetilde{u} \circ \mathbf{P}_{d}-V_{T}\right)\right\|_{L_{2}(T)}^{2} (96)VV(T)infΓ(u PdV)L2(Γ)2TTVTV(T)infΓ(u PdVT)L2(T)2

    下面是 H 1 H^1 H1先验误差估计:
     Theorem  37 ( H 1  a-priori error estimate for  C 2  surfaces). Let  γ  be of class  C 2 f ~ ∈ L 2 , # ( γ )  and  u ~ ∈ H 2 ( γ )  be the solution of  ( 18 ) .  Let  U ∈ V # ( T )  be the solution   to  ( 78 )  with  F = f ~ ∘ P q q r  defined via the lift  P .  If the geometric assumptions  ( 69 ) ,  (90), and (91) are valid, then  ∥ ∇ Γ ( u ~ ∘ P − U ) ∥ L 2 ( Γ ) ≲ ( h T + λ τ ( Γ ) ) ∥ f ~ ∥ L 2 ( γ ) ≲ h τ ∥ f ~ ∥ L 2 ( γ )  as well as  ∥ ∇ Γ ( u ~ ∘ P d − U ) ∥ L 2 ( Γ ) ≲ ( h T + μ T ( Γ ) ) ∥ f ~ ∥ L 2 ( γ ) ≲ h T ∥ f ~ ∥ L 2 ( γ ) \begin{array}{l}{\text { Theorem } 37\left(H^{1} \text { a-priori error estimate for } C^{2} \text { surfaces). Let } \gamma \text { be of class } C^{2}\right.} \\ {\tilde{f} \in L_{2, \#}(\gamma) \text { and } \widetilde{u} \in H^{2}(\gamma) \text { be the solution of }(18) . \text { Let } U \in \mathbb{V}_{\#}(\mathcal{T}) \text { be the solution }} \\ {\text { to }(78) \text { with } F=\widetilde{f} \circ \mathbf{P} \frac{q}{q_{\mathrm{r}}} \text { defined via the lift } \mathbf{P} . \text { If the geometric assumptions }(69),} \\ {\text { (90), and (91) are valid, then }} \\ {\qquad\left\|\nabla_{\Gamma}(\widetilde{u} \circ \mathbf{P}-U)\right\|_{L_{2}(\Gamma)} \lesssim(h _\mathcal{T}+\lambda \tau(\Gamma))\|\widetilde{f}\|_{L_{2}(\gamma)} \lesssim h \tau\|\widetilde{f}\|_{L_{2}(\gamma)}} \\ {\text { as well as }} \\ {\qquad\left\|\nabla_{\Gamma}\left(\widetilde{u} \circ \mathbf{P}_{d}-U\right)\right\|_{L_{2}(\Gamma)} \lesssim\left(h_{\mathcal{T}}+\mu_{\mathcal{T}}(\Gamma)\right)\|\tilde{f}\|_{L_{2}(\gamma)} \lesssim h_{\mathcal{T}}\|\tilde{f}\|_{L_{2(\gamma)}}}\end{array}  Theorem 37(H1 a-priori error estimate for C2 surfaces). Let γ be of class C2f~L2,#(γ) and u H2(γ) be the solution of (18). Let UV#(T) be the solution  to (78) with F=f Pqrq defined via the lift P. If the geometric assumptions (69), (90), and (91) are valid, then Γ(u PU)L2(Γ)(hT+λτ(Γ))f L2(γ)hτf L2(γ) as well as Γ(u PdU)L2(Γ)(hT+μT(Γ))f~L2(γ)hTf~L2(γ)
    这个估计表明了参数化方法在 H 1 H^1 H1空间中的一阶收敛性。

    L 2 L^2 L2空间中,我们也有相应的估计:
     Theorem 38 (  L 2  a-priori error estimate for  C 2  surfaces). Let  γ  be of class  C 2  and   be described by a generic lift  P  of class  C 2 .  Let the geometric conditions  ( 69 ) ,  ,   and  ( 91 )  be satisfied. Let  u ~ ∈ H # 1 ( γ )  solve  ( 19 )  and  U ∈ V # ( T )  solve  ( 78 )  with  F = f ~ ∘ P q q T .  Then   (97)  ∥ u ~ ∘ P − U ∥ L 2 ( Γ ) ≲ h T 2 ∥ f ~ ∥ L 2 ( γ ) \begin{array}{l}{\text { Theorem 38 ( } L_{2} \text { a-priori error estimate for } C^{2} \text { surfaces). Let } \gamma \text { be of class } C^{2} \text { and }} \\ {\text { be described by a generic lift } \mathbf{P} \text { of class } C^{2} . \text { Let the geometric conditions }(69), \text { , }} \\ {\text { and }(91) \text { be satisfied. Let } \widetilde{u} \in H_{\#}^{1}(\gamma) \text { solve }(19) \text { and } U \in \mathbb{V}_{\#}(\mathcal{T}) \text { solve }(78) \text { with }} \\ {F=\widetilde{f} \circ \mathbf{P} \frac{q}{q_{\mathrm{T}}} . \text { Then }} \\ {\begin{array}{ll}{\text { (97) }} & {\|\widetilde{u} \circ \mathbf{P}-U\|_{L_{2}(\Gamma)} \lesssim h_{\mathcal{T}}^{2}\|\widetilde{f}\|_{L_{2}(\gamma)}}\end{array}}\end{array}  Theorem 38 ( L2 a-priori error estimate for C2 surfaces). Let γ be of class C2 and  be described by a generic lift P of class C2. Let the geometric conditions (69), ,  and (91) be satisfied. Let u H#1(γ) solve (19) and UV#(T) solve (78) with F=f PqTq. Then  (97) u PUL2(Γ)hT2f L2(γ)
    它的证明,其实就是用到所谓的对偶技巧。
    构造辅助问题:
    ∫ γ ∇ γ z ~ ⋅ ∇ γ w ~ = ∫ γ ( u ~ − U ~ # ) w ~ ∀ w ~ ∈ H # 1 ( γ ) \int_{\gamma} \nabla_{\gamma} \widetilde{z} \cdot \nabla_{\gamma} \widetilde{w}=\int_{\gamma}\left(\widetilde{u}-\widetilde{U}_{\#}\right) \widetilde{w} \quad \forall \widetilde{w} \in H_{\#}^{1}(\gamma) γγz γw =γ(u U #)w w H#1(γ)
    它的有限元逼近是:
    ∫ Γ ∇ Γ Z ⋅ ∇ Γ W = ∫ Γ ( u # − U ) W , ∀ W ∈ V ( T ) \int_{\Gamma} \nabla_{\Gamma} Z \cdot \nabla_{\Gamma} W=\int_{\Gamma}\left(u_{\#}-U\right) W, \quad \forall W \in \mathbb{V}(\mathcal{T}) ΓΓZΓW=Γ(u#U)W,WV(T)
    然后想办法将精确解和数值解的零中值化的差值表达成如下:
    ∥ u ~ − U ~ # ∥ L 2 ( γ ) 2 = ∫ γ ∇ γ ( u ~ − U ~ ) ⋅ ∇ γ ( z ~ − Z ~ ) + ∫ γ f ~ ( Z ∘ P d − 1 − Z ∘ P − 1 ) + ∫ γ ∇ γ U ~ ⋅ E ∇ γ Z ~ \begin{aligned}\left\|\widetilde{u}-\widetilde{U}_{\#}\right\|_{L_{2}(\gamma)}^{2} &=\int_{\gamma} \nabla_{\gamma}(\widetilde{u}-\widetilde{U}) \cdot \nabla_{\gamma}(\widetilde{z}-\widetilde{Z}) \\ &+\int_{\gamma} \widetilde{f}\left(Z \circ \mathbf{P}_{d}^{-1}-Z \circ \mathbf{P}^{-1}\right) \\ &+\int_{\gamma} \nabla_{\gamma} \widetilde{U} \cdot \mathbf{E} \nabla_{\gamma} \widetilde{Z} \end{aligned} u U #L2(γ)2=γγ(u U )γ(z Z )+γf (ZPd1ZP1)+γγU EγZ
    之后,分别估计每一项的界,就OK了。
    上面的结论是对于 C 2 C^2 C2曲面的,我们相信,对于 C 3 C^3 C3曲面,取 P = P d \mathbf{P}=\mathbf{P}_{d} P=Pd,我们有更好的结论如下:
     (99)  ∥ u ~ ∘ P − U ∥ L 2 ( Γ ) ≲ h T 2 ∣ d ∣ W ∞ 2 ( N ) ∥ f ~ ∥ L 2 ( γ ) \begin{array}{ll}{\text { (99) }} & {\|\widetilde{u} \circ \mathbf{P}-U\|_{L_{2}(\Gamma)} \lesssim h_{\mathcal{T}}^{2}|d|_{W_{\infty}^{2}(\mathcal{N})}\|\widetilde{f}\|_{L_{2}(\gamma)}}\end{array}  (99) u PUL2(Γ)hT2dW2(N)f L2(γ)

    C1曲面的先验误差估计

    对于C1曲面,我们同样有 H 1 H^1 H1空间中的逼近性质:
     Lemma  39  (approximability in  H 1 ( Γ ) ) .  Let  γ  be a surface of class  C 1 , α  and  u ~ ∈ H 1 + s ( γ ) ,  where  0 < s < α < 1  or  0 < s ≤ α = 1.  Then we have   (100)  inf ⁡ V ∈ V ( T ) ∥ ∇ Γ ( u ~ ∘ P − V ) ∥ L 2 ( Γ ) ≲ h T s ∣ u ~ ∣ H 1 + s ( γ ) \begin{array}{l}{ \text { Lemma }\left.39 \text { (approximability in } H^{1}(\Gamma)\right) . \text { Let } \gamma \text { be a surface of class } C^{1, \alpha} \text { and }} \\ {\widetilde{u} \in H^{1+s}(\gamma), \text { where } 0<s<\alpha<1 \text { or } 0<s \leq \alpha=1 . \text { Then we have }} \\ {\begin{array}{lll}{\text { (100) }} & {\inf _{V \in \mathbb{V}(\mathcal{T})}\left\|\nabla_{\Gamma}(\widetilde{u} \circ \mathbf{P}-V)\right\|_{L_{2}(\Gamma)} \lesssim h_{\mathcal{T}}^{s}|\widetilde{u}|_{H^{1+s}(\gamma)}}\end{array}}\end{array}  Lemma 39 (approximability in H1(Γ)). Let γ be a surface of class C1,α and u H1+s(γ), where 0<s<α<1 or 0<sα=1. Then we have  (100) infVV(T)Γ(u PV)L2(Γ)hTsu H1+s(γ)

    那么C1曲面的 H 1 H^1 H1先验误差估计就变成了:
     Theorem  40 ( H 1  a-priori error estimate for  C 1 , α  surfaces). Let  γ  be of class  C 1 , α , 0 < α ≤ 1 ,  and assume that the geometric assumptions  ( 69 ) , ( 90 ) ,  and  ( 91 )  are   valid. Let  f ^ ∈ L 2 , # ( γ )  and  u ~ ∈ H 1 + s ( γ )  be the solution of  ( 18 )  and satisfy  \begin{array}{l}{\text { Theorem } 40\left(H^{1} \text { a-priori error estimate for } C^{1, \alpha} \text { surfaces). Let } \gamma \text { be of class } C^{1, \alpha},\right.} \\ {0<\alpha \leq 1, \text { and assume that the geometric assumptions }(69),(90), \text { and }(91) \text { are }} \\ {\text { valid. Let } \widehat{f} \in L_{2, \#}(\gamma) \text { and } \widetilde{u} \in H^{1+s}(\gamma) \text { be the solution of }(18) \text { and satisfy }}\end{array}  Theorem 40(H1 a-priori error estimate for C1,α surfaces). Let γ be of class C1,α,0<α1, and assume that the geometric assumptions (69),(90), and (91) are  valid. Let f L2,#(γ) and u H1+s(γ) be the solution of (18) and satisfy 
    ∥ u ~ ∥ H 1 + s ( γ ) ≲ ∥ f ~ ∥ L 2 ( γ )  provided  0 < s < α < 1  or  0 < s ≤ α = 1.  If  U ∈ V # ( T )  is the solution to  ( 78 )  with  F = f ~ ∘ P q q r  defined via the lift  P ,  then  ∥ ∇ Γ ( u ~ ∘ P − U ) ∥ L 2 ( Γ ) ≲ h T s ∥ u ~ ∥ H 1 + s ( γ ) + λ T ( Γ ) ∥ f ~ ∥ L 2 ( γ ) ≲ h T s ∥ f ~ ∥ L 2 ( γ ) \begin{array}{l}{\qquad\|\widetilde{u}\|_{H^{1+s}(\gamma)} \lesssim\|\tilde{f}\|_{L_{2}(\gamma)}} \\ {\text { provided } 0<s<\alpha<1 \text { or } 0<s \leq \alpha=1 . \text { If } U \in \mathbb{V}_{\#}(\mathcal{T}) \text { is the solution to }(78)} \\ {\text { with } F=\widetilde{f} \circ \mathbf{P} \frac{q}{q_{\mathrm{r}}} \text { defined via the lift } \mathbf{P}, \text { then }} \\ {\quad\left\|\nabla_{\Gamma}(\widetilde{u} \circ \mathbf{P}-U)\right\|_{L_{2}(\Gamma)} \lesssim h_{\mathcal{T}}^{s}\|\widetilde{u}\|_{H^{1+s}(\gamma)}+\lambda_{\mathcal{T}}(\Gamma)\|\tilde{f}\|_{L_{2}(\gamma)} \lesssim h_{\mathcal{T}}^{s}\|\tilde{f}\|_{L_{2}(\gamma)}}\end{array} u H1+s(γ)f~L2(γ) provided 0<s<α<1 or 0<sα=1. If UV#(T) is the solution to (78) with F=f Pqrq defined via the lift P, then Γ(u PU)L2(Γ)hTsu H1+s(γ)+λT(Γ)f~L2(γ)hTsf~L2(γ)

    后验误差分析

    后验误差估计依赖于数值解 U U U和数据,但是不用到精确解 u ~ \tilde u u~

    要说明后验误差估计,我们可以先了解一下scott-zhang插值:
    I T s z : H 1 ( Γ ) → V ( T ) \mathcal{I}_{\mathcal{T}}^{\mathrm{sz}}: H^{1}(\Gamma) \rightarrow \mathbb{V}(\mathcal{T}) ITsz:H1(Γ)V(T)
    及其性质,
    ( 101 ) ∥ v − I T s z v ∥ L 2 ( T ) ≲ h T ∥ ∇ Γ v ∥ L 2 ( ω T ) , ∥ ∇ Γ I T s z v ∥ L 2 ( T ) ≲ ∥ ∇ Γ v ∥ L 2 ( ω T ) (101) \quad\left\|v-\mathcal{I}_{\mathcal{T}}^{\mathrm{sz}} v\right\|_{L^{2}(T)} \lesssim h_{T}\left\|\nabla_{\Gamma} v\right\|_{L^{2}\left(\omega_{T}\right)}, \quad\left\|\nabla_{\Gamma} \mathcal{I}_{\mathcal{T}}^{\mathrm{sz}} v\right\|_{L^{2}(T)} \lesssim\left\|\nabla_{\Gamma} v\right\|_{L^{2}\left(\omega_{T}\right)} (101)vITszvL2(T)hTΓvL2(ωT),ΓITszvL2(T)ΓvL2(ωT)

    我们还需要定义两个函数量“内部”和“跳跃残差”:
    R T ( V ) : = F ∣ T + Δ Γ V ∣ T ∀ T ∈ T J S ( V ) : = ∇ Γ V + ∣ S ⋅ μ S + + ∇ Γ V − ∣ S ⋅ μ S − ∀ S ∈ S T \begin{aligned} R_{T}(V) &:=\left.F\right|_{T}+\left.\Delta_{\Gamma} V\right|_{T} \quad \forall T \in \mathcal{T} \\ J_{S}(V) &:=\left.\nabla_{\Gamma} V^{+}\right|_{S} \cdot \boldsymbol{\mu}_{S}^{+}+\left.\nabla_{\Gamma} V^{-}\right|_{S} \cdot \boldsymbol{\mu}_{S}^{-} \quad \forall S \in S_{\mathcal{T}} \end{aligned} RT(V)JS(V):=FT+ΔΓVTTT:=ΓV+SμS++ΓVSμSSST
    以及元指示子和误差估计子:
    η T ( V , T ) 2 : = h T 2 ∥ R T ( V ) ∥ L 2 ( T ) 2 + h T ∥ J ∂ T ( V ) ∥ L 2 ( ∂ T ) 2 ∀ T ∈ T \eta _\mathcal{T}(V, T)^{2}:=h_{T}^{2}\left\|R_{T}(V)\right\|_{L^{2}(T)}^{2}+h_{T}\left\|J_{\partial T}(V)\right\|_{L^{2}(\partial T)}^{2} \quad \forall T \in \mathcal{T} ηT(V,T)2:=hT2RT(V)L2(T)2+hTJT(V)L2(T)2TT
    η T ( V ) 2 : = ∑ T ∈ T η T ( V , T ) 2 \eta_{\mathcal{T}}(V)^{2}:=\sum_{T \in \mathcal{T}} \eta \mathcal{T}(V, T)^{2} ηT(V)2:=TTηT(V,T)2

    那么,我们首先有C1曲面的后验误差上界(H1空间):
     Theorem  41  (a-posteriori upper bound for  C 1 , α  surfaces). Let  γ  be of class  C 1 , α ,  be parametrized by  χ = P ∘ X  and satisfy the geometric assumption (69). Let  u ~ ∈ H 1 ( γ )  be the solution to  ( 18 )  and  U ∈ V # ( T )  be the solution to (78) with  F = f ~ ∘ P q q r ∈ L 2 , # ( Γ ) .  Then, for  U ~ : = U ∘ P − 1 : γ → R  we have  ∥ ∇ γ ( u ~ − U ~ ) ∥ L 2 ( γ ) 2 ≲ η T ( U ) 2 + λ T 2 ( Γ ) ∥ f ~ ∥ L 2 ( γ ) 2 \begin{array}{l}{\text { Theorem } 41 \text { (a-posteriori upper bound for } C^{1, \alpha} \text { surfaces). Let } \gamma \text { be of class } C^{1, \alpha},} \\ {\text { be parametrized by } \chi=\mathbf{P} \circ \mathbf{X} \text { and satisfy the geometric assumption (69). Let }} \\ {\widetilde{u} \in H^{1}(\gamma) \text { be the solution to }(18) \text { and } U \in \mathbb{V}_{\#}(\mathcal{T}) \text { be the solution to (78) with }} \\ {F=\tilde{f} \circ \mathbf{P} \frac{q}{q_{\mathrm{r}}} \in L_{2, \#}(\Gamma) . \text { Then, for } \tilde{U}:=U \circ \mathbf{P}^{-1}: \gamma \rightarrow \mathbb{R} \text { we have }} \\ {\qquad\left\|\nabla_{\gamma}(\widetilde{u}-\widetilde{U})\right\|_{L^{2}(\gamma)}^{2} \lesssim \eta_{\mathcal{T}}(U)^{2}+\lambda_{\mathcal{T}}^{2}(\Gamma)\|\widetilde{f}\|_{L_{2}(\gamma)}^{2}}\end{array}  Theorem 41 (a-posteriori upper bound for C1,α surfaces). Let γ be of class C1,α, be parametrized by χ=PX and satisfy the geometric assumption (69). Let u H1(γ) be the solution to (18) and UV#(T) be the solution to (78) with F=f~PqrqL2,#(Γ). Then, for U~:=UP1:γR we have γ(u U )L2(γ)2ηT(U)2+λT2(Γ)f L2(γ)2
    证明使用一个非常常用的套路,将误差所构成的双线性型拆成三部分:
    ( 102 ) ∫ γ ∇ γ ( u ~ − U ~ ) ⋅ ∇ γ v ~ = I 1 + I 2 + I 3 (102) \quad \int_{\gamma} \nabla_{\gamma}(\widetilde{u}-\widetilde{U}) \cdot \nabla_{\gamma} \widetilde{v}=I_{1}+I_{2}+I_{3} (102)γγ(u U )γv =I1+I2+I3
    I 1 = − ∫ Γ ∇ Γ U ⋅ ∇ Γ ( v − V ) + ∫ Γ F ( v − V ) I 2 = ∫ γ ∇ γ U ~ ⋅ E ∇ γ v ~ I 3 = ∫ γ f ~ v ~ − ∫ Γ F v \begin{aligned} I_{1} &=-\int_{\Gamma} \nabla_{\Gamma} U \cdot \nabla_{\Gamma}(v-V)+\int_{\Gamma} F(v-V) \\ I_{2} &=\int_{\gamma} \nabla_{\gamma} \widetilde{U} \cdot \mathbf{E} \nabla_{\gamma} \widetilde{v} \\ I_{3} &=\int_{\gamma} \widetilde{f} \widetilde{v}-\int_{\Gamma} F v \end{aligned} I1I2I3=ΓΓUΓ(vV)+ΓF(vV)=γγU Eγv =γf v ΓFv
    易知,
    ( 103 ) I 1 = ∑ T ∈ T ∫ T R T ( U ) ( v − V ) + ∑ S ∈ S ∫ S J S ( U ) ( v − V ) (103) \quad I_{1}=\sum_{T \in \mathcal{T}} \int_{T} R_{T}(U)(v-V)+\sum_{S \in \mathcal{S}} \int_{S} J_{S}(U)(v-V) (103)I1=TTTRT(U)(vV)+SSSJS(U)(vV)
    ( 104 ) I 1 ≲ η T ( U ) ∥ ∇ Γ v ∥ L 2 ( Γ ) ≲ η T ( U ) ∥ ∇ γ v ~ ∥ L 2 ( γ ) (104) \quad I_{1} \lesssim \eta_{\mathcal{T}}(U)\left\|\nabla_{\Gamma} v\right\|_{L^{2}(\Gamma)} \lesssim \eta_{\mathcal{T}}(U)\left\|\nabla_{\gamma} \tilde{v}\right\|_{L^{2}(\gamma)} (104)I1ηT(U)ΓvL2(Γ)ηT(U)γv~L2(γ)

    之后分别估计每一部分的界即可。

    对于C1下界,有如下估计:
     Theorem  42  (a-posteriori lower bound for  C 1 , α  surfaces). Under the same condi-   tions of Theorem  41  (a-posteriori upper bound for  C 1 , α  surfaces), we have  η T ( U , T ) 2 ≲ ∥ ∇ γ ( u ~ − U ~ ) ∥ L 2 ( ω ~ T ) 2 + osc ⁡ T ( F , ω T ) 2 + λ T 2 ( ω T ) \begin{array}{l}{\text { Theorem } 42 \text { (a-posteriori lower bound for } C^{1, \alpha} \text { surfaces). Under the same condi- }} \\ {\text { tions of Theorem } 41 \text { (a-posteriori upper bound for } C^{1, \alpha} \text { surfaces), we have }} \\ {\qquad \eta_{\mathcal{T}}(U, T)^{2} \lesssim\left\|\nabla_{\gamma}(\widetilde{u}-\widetilde{U})\right\|_{L^{2}\left(\widetilde{\omega}_{T}\right)}^{2}+\operatorname{osc}_{\mathcal{T}}\left(F, \omega_{T}\right)^{2}+\lambda_{\mathcal{T}}^{2}\left(\omega_{T}\right)}\end{array}  Theorem 42 (a-posteriori lower bound for C1,α surfaces). Under the same condi-  tions of Theorem 41 (a-posteriori upper bound for C1,α surfaces), we have ηT(U,T)2γ(u U )L2(ω T)2+oscT(F,ωT)2+λT2(ωT)

    下面介绍C2曲面的后验误差上界,为此,介绍常量“数据震荡”如下:
    osc ⁡ T ( F , T ) 2 : = h T 2 ∥ F − F ˉ ∥ L 2 ( T ) 2 , osc ⁡ T ( F ) 2 : = ∑ T ∈ T osc ⁡ T ( F , T ) 2 \operatorname{osc} \mathcal{T}(F, T)^{2}:=h_{T}^{2}\|F-\bar{F}\|_{L^{2}(T)}^{2}, \quad \operatorname{osc} \mathcal{T}(F)^{2}:=\sum_{T \in \mathcal{T}} \operatorname{osc} \mathcal{T}(F, T)^{2} oscT(F,T)2:=hT2FFˉL2(T)