精华内容
下载资源
问答
  • SymbolicTensors.jl:sympy.tensor.tensor的PyCall包装器,已扩展为支持张量导数,标量算术等
  • 梯度(gradient)是张量运算的导数。它是导数这一概念向多元函数导数的推广。多元函数是以张量作为输入的函数。 假设有一个输入向量 x、一个矩阵 W、一个目标 y 和一个损失函数 loss。你可以用 W 来计算预测y_pred,...

    梯度(gradient)是张量运算的导数。它是导数这一概念向多元函数导数的推广。多元函数是以张量作为输入的函数。
    假设有一个输入向量 x、一个矩阵 W、一个目标 y 和一个损失函数 loss。你可以用 W 来计算预测y_pred,然后计算损失,或者说预测值 y_pred 和目标 y 之间的距离。
    y_pred = dot(W, x)
    loss_value = loss(y_pred, y)
    如果输入数据 x 和 y 保持不变,那么这可以看作将 W 映射到损失值的函数。
    loss_value = f(W)
    假设 W 的当前值为 W0。f 在 W0 点的导数是一个张量 gradient(f)(W0),其形状与 W 相同,每个系数 gradient(f)(W0)[i, j] 表示改变 W0[i, j] 时 loss_value 变化的方向和大小。
    张量 gradient(f)(W0) 是函数 f(W) = loss_value 在 W0 的导数。前面已经看到,单变量函数 f(x) 的导数可以看作函数 f 曲线的斜率。同样,gradient(f)(W0) 也可以看作表示 f(W) 在 W0 附近曲率(curvature)的张量。

    随机梯度下降

    给定一个可微函数,理论上可以用解析法找到它的最小值:函数的最小值是导数为 0 的点,因此你只需找到所有导数为 0 的点,然后计算函数在其中哪个点具有最小值。
    将这一方法应用于神经网络,就是用解析法求出最小损失函数对应的所有权重值。可以通过对方程 gradient(f)(W) = 0 求解 W 来实现这一方法。这是包含 N 个变量的多项式方程,其中 N 是网络中系数的个数。

    链式求导:反向传播算法

    在前面的算法中,我们假设函数是可微的,因此可以明确计算其导数。在实践中,神经网络函数包含许多连接在一起的张量运算,每个运算都有简单的、已知的导数。例如,下面这个网络 f 包含 3 个张量运算 a、b 和 c,还有 3 个权重矩阵 W1、W2 和 W3。
    f(W1, W2, W3) = a(W1, b(W2, c(W3)))
    根据微积分的知识,这种函数链可以利用下面这个恒等式进行求导,它称为链式法则(chain rule):(f(g(x)))’ = f’(g(x)) * g’(x)。将链式法则应用于神经网络梯度值的计算,得到的算法叫作反向传播(backpropagation,有时也叫反式微分,reverse-mode differentiation)。反向传播从最终损失值开始,从最顶层反向作用至最底层,利用链式法则计算每个参数对损失值的贡献大小。

    在所有训练数据上迭代一次叫作一个轮次(epoch)

    展开全文
  • 1. 张量 tension 2. 矩阵 Hadamard 乘积 转置矩阵( transposed matrix):矩阵 A 的,表示为: 3. 导数 y =f (x) 的导函数 f ‘(x): 当 ∆x 无限接近 0 时“(∆x 的式子 )”接近的值,f’(x) 表示图像切线的...

    1. 张量 tension
    在这里插入图片描述

    2. 矩阵
    在这里插入图片描述

    • Hadamard 乘积
      在这里插入图片描述
      转置矩阵( transposed matrix):矩阵 A 的,表示为:
      在这里插入图片描述

    3. 导数

    y =f (x) 的导函数 f ‘(x):
    在这里插入图片描述
    当 ∆x 无限接近 0 时“(∆x 的式子 )”接近的值,f’(x) 表示图像切线的斜率
    在这里插入图片描述
    导数公式:
    在这里插入图片描述
    导数符号
    在这里插入图片描述

    3.1导数的线性性

    和的导数为导数的和,常数倍的导数为导数的常数倍
    在这里插入图片描述
    在这里插入图片描述
    3.2 分数函数的导数和 Sigmoid 函数的导数
    在这里插入图片描述

    Sigmoid 函数 σ(x)的导数
    在这里插入图片描述

    假设f(x)为
    在这里插入图片描述
    那么f’(x) = 在这里插入图片描述
    在这里插入图片描述
    =>
    在这里插入图片描述

    当 f (x) 在 x = a 处取最小值时,该函数在该点的切线的斜率(即导函数的值)为 0。
    在这里插入图片描述

    eg1.
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    eg2.
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述

    展开全文
  • 用与视界相关的熵和温度的通常定义,我们证明了视界上统一的第一定律等效于标量-张量理论的非最小导数耦合的弗里德曼方程。 还满足了热力学在视界上的第二定律。 结果支持了引力,热力学和量子理论之间的深层和根本...
  • IIB型大容积情景的前导... 基本参数的自然值给出了与观测数据一致的光谱指数,以及r = 0的张量/标量比。 01可通过即将进行的CMB实验观察到。 由于存在近似非紧凑型移位对称性,因此可以抑制来自高维运算符的危险校正。
  • GetCurvatures 计算曲率张量和主曲率在% 面顶点数据结构中给出的网格的每个顶点%输入: -FV -struct - 三角形网格面顶点数据结构(包含 FV.face 和FV.顶点) -toggleDerivatives - 标量 1 或 0,指示是否计算曲率...
  • 我们将使用协变超形式方法为N $$ \ mathcal {N} $$ = 2保形超重力开发一个新的密度公式,... 使用将张量多重峰嵌入实标量多重峰后,我们将在N $$ \ mathcal {N} $$ = 2共形超重中构造张量多重峰的新的更高阶导数作用。
  • Tensor是PyTorch中最基础的概念,其参与了整个运算过程,包含属性,如data, device, dtype等,tensor的基本创建方法,如...下面是variable的一些属性torch.autograd.Variable.data #就是这张量torch.autograd.Var...

    Tensor是PyTorch中最基础的概念,其参与了整个运算过程,包含属性,如data, device, dtype等,

    tensor的基本创建方法,如直接创建、依数值创建和依概率分布创建等。

    1、Variable

    Variable是0.4.0之前版本的一种数据类型。下面是variable的一些属性

    torch.autograd.Variable.data #就是这张量

    torch.autograd.Variable.grad

    torch.autograd.Variable.grad_fn # 一些运算

    torch.autograd.Variable.requires_grad

    torch.autograd.Variable.is_leaf

    2、Variable并入tensor,4个与数据有关,4个与求导相关

    # 除了上面五个,还要三个

    torch.Tensor.dtype # torch.FloatTensor

    torch.Tensor.shape

    torch.Tensor.device

    3.1、直接创建:torch.Tensor()

    torch.tensor(data,dtype,device,requires_grad,pin_memory)

    # 例如

    arr = np.ones((3,3))

    t = torch.tensor(arr,device="cuda")

    t = torch.tensor(arr)

    3.2、numpy数组创建:torch.from_numpy(ndarray) 注意:共享内存

    arr = np.array([[1,2],[3,4]])

    t = torch.from_numpy(arr)

    # 共享内存

    arr[0,0]=-1 # 通过直接赋值进行修改

    t[0,0]=-1 # 通过直接赋值进行修改

    print(t)

    print(arr)

    4、依据数值创建

    torch.zeros(*size,out,dtype,layout,device,requires_grad) #注意out,使用时再看,现在还不明白

    torch.zeros_like()

    torch.ones()

    torch.ones_like()

    torch.full(size,fill_value,out,dtype,layout,device,reauires_grad)

    torch.full_like()

    torch.arange([starr,end),step) # 等差数列 step是步长

    torch.linspace([starr,end),steps) # 均分数列 steps是数列长度

    torch.logspace()

    torch.eye() # 对角矩阵

    # 例如

    torch.full((3,3),10)

    5、概率分布创建

    torch.normal() # 正态分布,四种模式,均值和方差分别为均值和方差的四种情况

    # 均为张量

    mean = torch.arange(1,5,dtype=torch.float)

    std = torch.arange(1,5,dtype=torch.float)

    t = torch.normal(mean,std)

    torch.randn() # 标准正态分布

    torch.randn_like()

    torch.rand() # 均匀分布【0,1)

    torch.rand_like()

    torch.randint() # 均匀分布【low,high)

    torch.randint_like()

    torch.randperm() # 生成0-n-1的随机排序

    torch.bernoulli(input=p) # 伯努利 0-1分布

    6、拼接

    torch.cat(tensors,dim,out) # 不会改变维度

    返回张量列表

    torch.stack(tensors,dim,out) # 会改变维度,可以增加维度

    返回张量列表

    7、切分

    torch.chunk(input,chunks,dim)

    # 平均切分 切分张量、要切分的块数,切分的维度,最后一块可能数量不够

    返回依index索引数据拼接的张量

    torch.split(tensor,split_size_or_sections,dim)

    # split_size_or_sections每份的长度,int(长度是2)或者list(根据list的数来决定每份的长度)。长度要和该维长度一致

    返回一维张量

    8、索引

    torch.index_select(input,dim,index)

    # 例如

    t = torch.randint(0,9,size=(3,3))

    idx = torch.tensor([0,2],dtype=torch.long) # dtype=torch.long规定

    t_select = torch.index_select(t,dim=0,index=idx)

    torch.masked_select(input,mask)

    t.ge(4) #返回大于等于4

    t.gt(4) #返回小于等于4

    # 例如

    t = torch.randint(0,9,size(3,3)) # 生成一个0-9之间的3X3张量

    mask = t.ge(5) # 与张量同形状的布尔类型张量

    t_select = torch.masked_select(t,mask) # 按照mask中的true进行索引

    9、变换

    torch.reshape() # 新张量和旧张量共享内存

    torch.transpose()

    torch.t() # 针对二维张量的转置

    torch.squeeze()

    torch.unsqueeze()

    10、数学运算

    torch.add(input,alpha,other) # 加法结合乘法,不是两个参数,是三个

    torch.addcdiv() # 加法结合除法

    torch.addcmul() # 加法结合乘法

    b_0_202007301636479543.png

    11、线性回归模型的训练--求解W,b

    确定模型->损失函数(MSE)->求解梯度并更新权重和偏置(参数+梯度的负方向*学习率)

    创建训练数据->构建线性回归模型->迭代(前向传播->计算损失->y反向传播->更新参数->停止迭代的条件(loss小于1时停止)绘图)

    12、计算图

    is_leaf:叶子节点可以理解为数据入口

    反向传播以后非叶子节点的值就会被释放掉,想保存的话,a.retain_grad()就可以了

    grad_fn:记录创建张量时的所用的方法(函数)可以理解为如何和叶子节点创建联系

    13、自动求导系统

    13.1、torch.autograd.backward:自动求取导数

    torch.autograd.backward(tensors,# 用于求导的张量

    grad_tensors,# 多重梯度求导,当有多个loss时,就可以设置多个loss间的比例

    retrain_graph,# 设置为True,保存计算图

    create_graph) # 创建导数计算图,用于高阶求导

    构建前向传播,搭建好计算图,然后对Y执行backward方法就可以求梯度

    具体为:

    创建数据(叶子节点),requires_grad设置为true,即要计算梯度->

    构建计算(搭建运算图,即前向传播)->

    y执行backward方法,即直接调用了torch.autograd.backward

    注意retain_grad:如果想进行多次反向传播(再次使用计算图),需要将backward的retain_grad设置为true,这样,动态图就被保存,继而执行下一个反向传播

    注意grad_tensors:

    """grad_tensors设置多个梯度的权重"""

    # 例如

    w=torch.tensor([1.],requires_grad=True)

    x=torch.tensor([2.],requires_grad=True)

    a=torch.add(w,x)

    b=torch.add(w,1)

    y0=torch.mul(a,b)

    y1=torch.add(a,b)

    loss=torch.cat([y0,y1],dim=0)

    grad_tensors=torch.tensor([1.,2.]) # 多个梯度的权重

    loss.backward(gradient=grad_tensors)

    print(w.grad)

    13.2、torch.autograd.grad:求取梯度

    torch.autograd.grad(outputs,inputs,create_graph..)

    14、autograd注意

    梯度不自动清零

    依赖与叶子节点的节点,requires_grad默认为true

    叶子节点不可以执行in-place

    本文地址:https://blog.csdn.net/weixin_42630613/article/details/104631618

    如您对本文有疑问或者有任何想说的,请点击进行留言回复,万千网友为您解惑!

    展开全文
  • 目录 基矢量的协变导数 基矢量的协变导数为零 矢量的协变导数 基矢量的协变导数 基矢量分为协变基矢量与逆变基矢量。首先来看协变基矢量: ...由于基矢量是张量,但它对坐标的导数不是张量,因此...

    目录

    基矢量的协变导数

    基矢量的协变导数为零

    矢量的协变导数


    基矢量的协变导数

    基矢量分为协变基矢量与逆变基矢量。首先来看协变基矢量:

    协变基矢量\frac{\partial }{\partial x^{\lambda }}的变换式为

    \frac{\partial }{\partial x^{\lambda '}}=\frac{\partial x^{\lambda }}{\partial x^{\lambda '}}\frac{\partial }{\partial x^{\lambda }}

    对坐标x^{\mu '}求此式的偏导数得

    \frac{\partial }{\partial x^{\mu '}}(\frac{\partial }{\partial x^{\lambda '}})=\frac{\partial x^{\mu }}{\partial x^{\mu '}}\frac{\partial x^{\lambda }}{\partial x^{\lambda '}}\frac{\partial }{\partial x^{\mu }}(\frac{\partial }{\partial x^{\lambda }})+\frac{\partial ^{2}x^{\alpha }}{\partial x^{\mu '}\partial x^{\lambda '}}\frac{\partial }{\partial x^{\alpha }}

    可见协变基矢量对坐标的导数\frac{\partial }{\partial x^{\mu }}(\frac{\partial }{\partial x^{\lambda }})不是张量。将Christoffel符号\Gamma_{\mu \lambda }^{\kappa }的变换式

    \frac{\partial ^{2}x^{\alpha }}{\partial x^{\mu '}\partial x^{\lambda '}}=\frac{\partial x^{\alpha }}{\partial x^{\alpha '}}\Gamma _{\mu '\lambda '}^{\alpha '}-\frac{\partial x^{\mu }}{\partial x^{\mu '}}\frac{\partial x^{\lambda }}{\partial x^{\lambda '}}\Gamma _{\mu \lambda }^{\alpha }

    代入此式并整理可得

    \frac{\partial }{\partial x^{\mu '}}(\frac{\partial }{\partial x^{\lambda '}})-\Gamma _{\mu '\lambda '}^{\alpha '}=\frac{\partial x^{\mu }}{\partial x^{\mu '}}\frac{\partial x^{\lambda }}{\partial x^{\lambda '}}[\frac{\partial }{\partial x^{\mu }}(\frac{\partial }{\partial x^{\lambda }})-\Gamma _{\mu \lambda }^{\alpha }\frac{\partial }{\partial x^{\alpha }}]

    从此式可以看到\frac{\partial }{\partial x^{\mu }}(\frac{\partial }{\partial x^{\lambda }})-\Gamma _{\mu \lambda }^{\alpha }\frac{\partial }{\partial x^{\alpha }}是一个二阶协变的张量。

    由于基矢量\frac{\partial }{\partial x^{\lambda }}是张量,但它对坐标的导数\frac{\partial }{\partial x^{\mu }}(\frac{\partial }{\partial x^{\lambda }})不是张量,因此它在(x+dx)处的值

    \frac{\partial }{\partial x^{\lambda }}|_{x+dx}= \frac{\partial }{\partial x^{\lambda }}+\frac{\partial }{\partial x^{\mu }}(\frac{\partial }{\partial x^{\lambda }})dx^{\mu }

    就不是张量。

    \frac{\partial }{\partial x^{\mu }}(\frac{\partial }{\partial x^{\lambda }})-\Gamma _{\mu \lambda }^{\alpha }\frac{\partial }{\partial x^{\alpha }}看作\frac{\partial }{\partial x^{\lambda }}的“导数”,称为协变导数,那么以协变导数为导数的时候,基矢量在(x+dx)处的值

    \frac{\partial }{\partial x^{\lambda }}|_{x+dx}=\frac{\partial }{\partial x^{\lambda }}+[\frac{\partial }{\partial x^{\mu }}(\frac{\partial }{\partial x^{\lambda }})-\Gamma _{\mu \lambda }^{\alpha }\frac{\partial }{\partial x^{\alpha }}]dx^{\mu }

    因为\frac{\partial }{\partial x^{\lambda }}协变,\frac{\partial }{\partial x^{\mu }}(\frac{\partial }{\partial x^{\lambda }})-\Gamma _{\mu \lambda }^{\alpha }\frac{\partial }{\partial x^{\alpha }}二阶协变,dx^{\mu }逆变,所以此式为协变矢量,它的意义就是(x+dx)处的基矢量和x处的基矢量的关系。

    基矢量的协变导数为零

    因为在给定坐标系x下,在x的每个点处,基矢量\frac{\partial }{\partial x^{\lambda }}都是对x的坐标求偏导,因此每个点处的\frac{\partial }{\partial x^{\lambda }}都是相同的,因此\frac{\partial }{\partial x^{\lambda }}的协变导数为0(或者说因为\frac{\partial }{\partial x^{\lambda }}在每一点都与dx对偶,而dx在每一点都相同,所以\frac{\partial }{\partial x^{\lambda }}也必须在每一点都相同,即协变导数为0。)。即

    \frac{\partial }{\partial x^{\mu }}(\frac{\partial }{\partial x^{\lambda }})-\Gamma _{\mu \lambda }^{\alpha }\frac{\partial }{\partial x^{\alpha }}=0

    也即

    \frac{\partial }{\partial x^{\mu }}(\frac{\partial }{\partial x^{\lambda }})=\Gamma _{\mu \lambda }^{\alpha }\frac{\partial }{\partial x^{\alpha }}

    若用g_{\lambda }表示\frac{\partial }{\partial x^{\lambda }},则为

    \frac{\partial }{\partial x^{\mu }}(g_{\lambda })=\Gamma _{\mu \lambda }^{\alpha }g_{\alpha }

    此式就是协变基矢量对坐标的导数的表达式,此式的来源就是g_{\lambda }的协变导数为0。对基矢量取协变导数是为了将(x+dx)处的基矢量拉到x处,从而(x+dx)处的矢量可以与x处的矢量作比较,又因为\frac{\partial }{\partial x^{\lambda }}在每一点都与dx对偶,而dx在每一点都相同,所以\frac{\partial }{\partial x^{\lambda }}的协变导数为0,至此可得上式。

    矢量的协变导数

    考虑协变矢量u_{\lambda }的协变导数,仿照基矢量的协变导数的推导过程,只要在

    \frac{\partial }{\partial x^{\mu }}(\frac{\partial }{\partial x^{\lambda }})-\Gamma _{\mu \lambda }^{\alpha }\frac{\partial }{\partial x^{\alpha }}

    中将\frac{\partial }{\partial x^{\lambda }}\frac{\partial }{\partial x^{\alpha }}替换为u_{\lambda }u_{\alpha }即可,即u_{\lambda }的协变导数为

    \frac{\partial u_{\lambda }}{\partial x^{\mu }}-\Gamma _{\mu \lambda }^{\alpha }u_{\alpha }

    逆变基矢量和逆变矢量的协变导数的推导方法类似。

    展开全文
  • 张量飞行动力学使用笛卡尔张量解决了飞行动力学问题,笛卡尔张量在坐标变换下是不变的,而不是吉布斯向量在时变变换下会改变。 排名第二的三个张量起着重要的作用,并且是本文的主题:惯性矩,旋转和角速度张量。 ...
  • 问:满足二元定律的向量{Aμ,Aμ} :( n = 1)的n阶协变导数。 R:满足二元定律的向量{Aμ,Aμ} :(n≥2)的n阶协变导数。 我在其他有关Q的文章中进行了报道。我在本文中报道了R。 我获得了以下结果。 我得出的结论...
  • 这里写目录标题一、无穷大张量网络的本征自洽方法张量网络的梯度更新任意尺寸张量网络收缩算法张量网络中的有效哈密顿量思想 一、无穷大张量网络的本征自洽方法 无穷大张量网络的本征自洽方法,称为张量网络编码算法...
  • 上随体导数的一些理解

    千次阅读 2019-11-28 13:17:28
    何谓“上随体导数”(upper-...事先说明:由于本人对张量形式计算不太擅长,所以可能有一些细节 错误,但大的方向保证无误。第一次写博客,如有不足之处,还请多多包涵。 WHO?WHAT?HOW? Oldroyd(1950)提出...
  • 由此,并借助于反对称张量,给出了张量的一阶绝对导数和相对导数之间的关系式,并又进一步给出了张量的二阶绝对导数和相对导数之间的关系。结果表明,当运动需要分别在两个转动坐标系中进行描述时,由于张量的特殊性,其...
  • 使用修正应力应变张量导数的方法模拟膜单元单向应力状态并针对膜单元和索单元分别进行了非线性有限元计算验证。最后针对C-9型降落伞建立三维有限元模型,根据设定流速对伞衣施加均匀压强载荷,将模拟展开的结果与...
  • 2012年第05期第28卷(总293期)吉林省教育... 293浅论如何使用MATLAB 作张量运算张明洪(三峡旅游职业技术学院,湖北宜昌443100)摘要:本文介绍并分析了如何使用MATLAB 作张量的创建以及缩并、乘积、求导等运算的方法...
  • 张量求导

    千次阅读 2019-03-01 15:58:06
    张量求导 之前遇到的很多张量求导和算子运算的问题,我都采用形状法则不断尝试,或者展开成分量进行运算,这几天接触到了 Kronecker delta(δ\deltaδ) 和 Levi-Civita(ϵ\epsilonϵ)记号。终于给出了一个统一...
  • 原标题:深度学习初学者必读:张量究竟是什么?近段时间以来,张量与新的机器学习工具(如 TensorFlow)是非常热门的话题,在那些寻求应用和学习机器学习的人看来更是如此。但是,当你回溯历史,你会发现一些基础但...
  • 本书内容包括:第一章张量...第三章曲面张量,讨论了曲面张量的微分和导数、测地线、半测地线及S一族坐标等;第四章张量的应用。本书可作为理工科硕上、博十研究生相关基础数学课程的教材及J‘一大科技工作者的参考书。
  • Tensorflow导数梯度相关

    2020-06-02 19:20:11
    导数与梯度 不知道的同学可以再回去看看数学,其实数学还是很有用的。 在高中阶段,我们就接触到导数(Derivative)的概念,它被定义为自变量????产生一个微小 扰动∆????后,函数输出值的增量∆????与自变量增量∆?...
  • 通过计算可观测量,包括标量和张量摄动模式的功率谱和频谱倾斜以及张量与标量的比率,我们发现张量与标量的比率被抑制了$$(1 + 1 / \ gamma)$$(1 + 1 /γ),其中$$ \ gamma $$γ反映了充气子场相对于导数耦合...
  • 原则上,pytorch不支持张量张量的求导,它只支持标量对张量的求导 我们先看标量对张量求导的情况 import torch x=torch.ones(2,2,requires_grad=True) print(x) print(x.grad_fn) 输出,由于x是被直接创建的,也...
  • 我们展示了一个曲线模型,其中曲线具有与引力耦合的最小导数。 由于这种耦合,我们发现,对于背景... 我们还讨论了张量扰动,由非最小导数耦合曲线模型产生的局部非高斯性,以及在曲线衰减期间从场扰动传递的绝热扰动。
  • 我们在包含Ricci标量和Ricci张量二次项的D维引力理论中研究蝴蝶效应。 有人注意到,由于相应运动方程中的高阶导数,因此有两个蝶形速度。 速度由操作员的尺寸确定,操作员的尺寸由度量标准提供。 还研究了三维TMG...
  • 可以为N阶Lovelock引力定义Riemann张量的类似物,其特征是其Bianchi导数的迹线产生相应的Einstein张量的类似物。 有趣的是,存在两个平行但截然不同的类似物,本注释的主要目的是调和这两种表达方式。 另外,我们将...
  • 张量tensor介绍

    2021-04-02 16:58:27
    ## 张量tensor介绍 import torch x = torch.ones(2, 2, requires_grad=True) # 创建 tensor 变量,属性 .requires_grad 为 True,会追踪对于该张量的所有操作 y = x + 2 # y 也是一个 tensor 变量,y 的 .grad_fn ...
  • PyTorch张量

    2020-11-25 18:46:14
    # print(A.size())#获取张量形状的大小 # print(A.numel())#获取张量中包含元素的数量 #3、生成张量时指定张量的数据类型和是否需要计算梯度,只有计算了梯度的张量才能在深度网络优化时根据梯度大小进行更新 # B=...
  • pytorch张量追踪

    2020-08-26 17:01:11
    如果设置它的属性 .requires_grad 为 True,那么它将会追踪对于该张量的所有操作。当完成计算后可以通过调用 .backward(),来自动计算所有的梯度。这个张量的所有梯度将会自动累加到.grad属性. 要阻止一个张量被跟踪...
  • 张量 101

    2020-07-29 18:35:01
    X0, X1 都是用 nd 直接设定张量里的元素来定义张量 X2 将一维张量 X1 重新排成 3×4 的二维张量 X3 用 nd.random.normal 和张量的形状 (3, 4, 5) 来定义一个高斯随机张量 X4 用 nd.zeros 和张量的...
  • 内容包括张量张量代数,二阶张量张量分析,张量函数及其导数,连续介质力学理论的张量表述和壳体的张量理论。 参考文献格式 : 黄义,张引科编著. 张量及其在连续介质力学中的应用[M]. 北京:冶金工业出版社, ...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 3,923
精华内容 1,569
关键字:

张量导数