精华内容
下载资源
问答
  •  (3)TMS/EEG诱发电位下的局部分散变化。 大脑全脑功能连接的变化可以预测临床干预效果,而全脑功能连接与TMS/EEG的变化均能够追踪临床结果。相比健康被试,我们观察到抑郁患者dlPFC对杏仁核的干扰抑制作用。总之...

    重复经颅磁刺激 (rTMS) 是重度抑郁症 (MDD) 常用的治疗方式,但是我们对经颅磁刺激产生抗抑郁效果的机制了解甚少。此外,我们也缺乏能够用以预测和追踪临床效果的大脑信号,而这些信号能够帮助进行分层与优化治疗。本研究中,我们进行了随机、假性对照的临床试验,在rTMS前后分别测量电生理、神经成像和临床变化。患者(N=36)被随机分为两组,分别接受有效刺激或伪刺激的,针对左背外侧前额叶皮层(dlPFC)的rTMS干预,为期20个连续工作日。为捕捉由rTMS驱动的大脑连接与因果兴奋性上的变化,我们在干预前后均对患者进行了静息态fMRI和TMS/EEG数据采集。通过同时进行的TMS/fMRI,可以评估抑郁组与健康对照组之间大脑因果连接基线的差异。相比伪刺激组,我们发现rTMS引起了:   

    (1)dlPFC的全脑功能连接增强;   

    (2)诱导产生负性dlPFC-杏仁核连接;   

    (3)TMS/EEG诱发电位下的局部分散变化。     

    大脑全脑功能连接的变化可以预测临床干预效果,而全脑功能连接与TMS/EEG的变化均能够追踪临床结果。相比健康被试,我们观察到抑郁患者dlPFC对杏仁核的干扰抑制作用。总之,rTMS通过积极干预,诱导刺激位置产生持久性连接和兴奋性变化后,dlPFC似乎能更好地参与杏仁核自上而下的控制。这些网络功能方法不仅能够预测,也能追踪临床效果,为优化干预方法打开了一扇潜在的大门。本研究由斯坦福大学的学者发表在Neuropsychopharmacology杂志。

     

    引言      

    抑郁症是一种广泛流行的、严重的精神疾病。即使是药物与心理治疗相结合的干预,效果都不甚理想。新的疗法,如重复经颅磁刺激,可以调节脑网络内或网络间的连接。因该疗法建立在对抑郁症脑网络功能障碍的新兴理解上,所以可能促进非侵入式疗法的发展。临床试验表明,针对背外侧前额叶皮层(dlPFC)的10Hz rTMS对于抗抑郁有明显效果,得到了食品与药物管理局许可,并因此在临床上得到广泛应用。即使如此,其治愈率还是令人失望。此外,临床效果虽然得到了一定证明,rTMS技术的发展中还是缺乏神经生理过程,以调整或澄清dlPFC内具体的解剖学靶点,况且我们对该脑区(dlPFC)的理解还存在争议。近期,几个研究试图通过任务态功能性核磁共振成像(fMRI)、个体化脑网络映射和静息态连接的方法,解决与rTMS相关的异质性问题。但前期研究主要:   

    (1)缺乏必要的假性对照,以区分干预效果与安慰剂反应因素。   

    (2)除连接改变外,没有使用因果性脑测量方法来解释rTMS作用机制(如某区域激活导致另一脑区变化)。我们对于rTMS机制理解的不足,使得治疗技术的优化受到了阻碍。       

     

    目前为止,神经成像研究中,在探查rTMS在左侧dlPFC与抑郁症的关系时,均借助传统的脑测量方法(如fMRI或EEG)进行治疗前后的检测。这些研究普遍发现,在rTMS干预后,额叶或颞叶的功能、激活度以及神经连接产生了变化。      

    关于额叶变化:rTMS显示出DMN网络内超连通性(hyperconnectivity)的正常化,dlPFC-内侧前额叶异常连接的恢复,而且可以基于dlPFC-前扣带回或前扣带回-顶叶连接来预测临床结果。      

    关于颞叶变化:左侧dlPFCrTMS结果显示,杏仁核血流量增加,被试对负性面孔的反应降低。      

    除了神经解剖学靶点与rTMS抗抑郁效果相关外,我们关于rTMS如何作用于这些脑区的机制理解也有限。一直以来的概念是,10Hz rTMS通过长期增强作用(LTP)来提升脑网络兴奋度,从而产生治疗影响。但是人类研究中,支持该理论的证据不足。事实上,近期一项关于rTMS(而非大脑切片中电诱发的LTP)的动物研究提出了不同于LTP的另一机制:减少皮层抑制。比如将10 Hz rTMS应用于猫的视觉皮层,会导致长期抑制作用的减弱,单一经颅磁脉冲反弹,这也证明了视觉加工时的抑制减弱。我们最近的研究也曾表明,在类rTMS实验中,用10Hz进行颅内皮层电刺激10分钟,会抑制20到40毫秒的刺激激活潜能。考虑到这种潜能的自然抑制作用,该类研究证明了rTMS可能通过一种先前未知的大脑皮层抑制减弱机制产生作用。因此,理解究竟哪些脑区和神经生理过程受非侵入rTMS影响而改变的一种方法是,使用同步fMRI或EEG,探测由TMS脉冲直接诱发的大脑激活。同步TMS/fMRI亦可揭示哪些下游脑区受到dlPFC刺激影响。      

    为了更好地理解10Hz rTMS疗法机制与预测因子,我们进行了针对重度抑郁症患者的rTMS多模态假性随机对照研究,检测了静息态fMRI下的连接变化(图2)和TMS/EEG诱发的神经反应(图3图4)。另外,我们还使用同步TMS/fMRI对比了抑郁症患者与控制组治疗前的TMS激活反应,来确定rTMS诱发的大脑连接变化能否从原因上解释抑郁症中混乱的神经联系(图5)。我们初始假设重点只是同步TMS/fMRI的临床试验。但是由于设备故障,使得数据收集和试验后测难以在一年半内完成。因此不得不修改计划,转而分析静息态fMRI与TMS/EEG。总体来讲,实验目标同之前一致:   

    (1)检测dlPFC与其他抑郁相关脑区间的因果联系。   

    (2)探查rTMS抗抑郁疗法对于异常脑区连接的影响。      

    我们假设对于左侧dlPFC的10Hz rTMS能诱发dlPFC中刺激部位的连通性变化,在对静息态fMRI与TMS/EEG的异常模式进行调整后,能够反映出上述变化;并且这些变化的强度能够预测、追踪临床效果。总之,结果表明,10Hz dlPFC的rTMS能够对抑郁症产生长时效、临床相关的神经调节作用,这可能部分与从dlPFC到杏仁核的自上而下的控制加强有关。

     

    材料与方法

    被试       

    初始被试共有85位重度抑郁症患者,经过下述标准筛查后,36位患者同意参与本研究,并获得斯坦福大学机构审查委员会的批准(见表S1)。此外,28位健康对照被试同意进行与抑郁症患者获得治疗前相同的实验程序(健康被试不参与再测)。所有抑郁患者年龄介于18至50岁间,右利手,符合DSM-4对于抑郁症的诊断标准。抑郁患者在治疗开始前两周无服用药物。为限制安慰剂反应率,从而减少假性rTMS激活对照,又不增加抗治疗人数,纳入标准允许一次抗抑郁试验失败,但失败次数不得大于3次。排除标准包括:进行MRI的禁止条件(如体内金属);曾失去意识的头部创伤史,这可能降低癫痫发作阈值;癫痫发作史;神经或不可控疾病史;活性物质滥用;精神障碍或双相情感障碍;以及ECT或rTMS失败史。患者可共病焦虑症(但非创伤性应激障碍),若患者符合终生双相情感障碍、物质依赖或精神分裂症的标准也被剔除。我们分别在治疗前(第一天)、治疗中(第十天)及治疗后(第二十天)使用汉密尔顿抑郁评估量表(HamD)对患者抑郁症状进行评测。健康被试无使用药物,且不满足任何一项精神障碍诊断标准。      

    关于静息态fMRI连通性检测,在剔除不符合标准数据后,试验纳入28名健康对照被试和31名抑郁症被试(18例完全主动rTMS, 13例完全假性rTMS)。       关于单脉冲TMS/EEG部分,刺激传递到治疗部位(治疗刺激点位位于额顶叶控制网络FPCN的左侧dlPFC部分,如下图所示)。右侧刺激点位比左侧dlPFC同源点位更靠前(基于它是腹侧注意网络VAN的一个成分),或初级视觉皮层(V1)。FPCN刺激分析包括17名健康控制被试与26名抑郁症患者(16例真刺激,10例假刺激)的rTMS疗法前后测。由于VAN与V1刺激条件作为一种对比,可以帮助深入理解FPCN中dlPFC在治疗前后变化,因此试验分析仅包括主动激活rTMS的患者数据(12例患者的右侧FPCN dlPFC,10例患者的左侧VAN dlPFC,以及15例患者的V1)。      

    关于TMS/fMRI前测成分,21名健康被试(HCs)与20名抑郁患者接受了FPCN和VAN dlPFC位点的刺激。      

    不同研究成分和刺激点位的样本差别反映了刺激有效性、被试有效性和数据质量等因素。

     

    随机化、目标与假性控制       

    本研究主要目的是探查rTMS的神经机制,而非论证主动与假性rTMS临床结果的区别,对比二者的神经影像学研究经常动机不足,因为多个随机试验已证实了假性rTMS的临床效果。所以,为最大化锁定预测或追踪神经信号的可能性,相比假性rTMS组,我们在真rTMS组别中纳入了更多被试。具体做法是,患者以2:1的比例被随机分入积极或假性rTMS治疗中,实验设计采用双盲假性对照。为最大化双盲假性对照设计的效度,我们采用:    

    (1)一个TMS方向传感线圈用来提醒操作者,是否正确操作(真刺激vs.伪刺激);    

    (2)放置在线圈下的电极通过作用于头皮的低强度电刺激来激活伪刺激。这一电刺激假性对照方法的有效性,曾在一篇多点位经颅刺激治疗的研究中得到过证实。(见原文参考文献)     

     研究使用Brainsight无框架立体定向神经导航软件处理分层扫描采集到的高分辨率T1加权解剖学成像,为每位被试定位TMS/fMRI,TMS/EEG和rTMS治疗中的经颅磁刺激部位。进而以鼻窦和双侧耳屏为基准标记,标准化头部位置,在每位被试的自然空间解剖图像中识别头皮的TMS靶点位置。
     

    rTMS 治疗        

    两种rTMS均使用 MagVenture X100 经颅磁电刺激器和液冷B65 A/P蝶形线圈(MagVenture)操作。rTMS拟包含每日左侧dlPFC刺激,由4秒10Hz训练与26秒休息组成,重复37.5分钟(3000次脉冲)。在每个受试者静息运动阈值的120%处进行刺激,该阈值被认为刺激强度最小阈值,在被试左侧初级运动皮层被刺激的情况下,该阈值的刺激可诱发至少50%可见手指运动。假性rTMS治疗则是通过快速翻转TMS线圈与头皮电刺激模仿rTMS。
     

    后测        

    在rTMS结束24小时后,进行临床后测评估,使用静息态fMRI和TMS/EEG范式与治疗前数据对比。

    图1.实验设计.健康被试(HCs)与重度抑郁症患者(MDD)入组并接受静息态fMRI基线,同步TMS/EEG,同步TMS/fMRI检测,以及临床评估。之后患者随机分配参与双盲rTMS和假性对照实验,主要为每日10Hz针对左侧dlPFC的有效或伪刺激。治疗后至少24小时,患者还需进行静息态fMRI、同步TMS/EEG和临床评估的治疗后测。
     

    静息态fMRI-功能连接分析        

    为接近刺激的有效区域,我们围绕被试的刺激坐标,生成了一个12mm的感兴趣区域(ROI)。如前文所述,该锥形ROI由半径为2、4、7、9和12mm球体连接而成,都集中在刺激部位。目的是模仿TMS随距离产生的衰退效果,如ROI刺激点周围2mm内权重为1,2-4mm间权重为0.8,4-6mm间权重为0.6,以此类推。然后将锥体制作成mask,以排除脑外体素干扰。为获取静息态下连接的单一估值,我们计算了每位患者ROI刺激点位的全脑功能连接。我们使用Martuzzi等人提出的全脑功能连接计算方法,即平均mask内每一体素与其他体素BOLD时间序列的相关值的平方。该方法可平均分配正负相关权重(如,高负性相关会增加全脑连通性得分)。这一方法近期得到大量关于神经生理疾病研究的验证,并被证实用于识别前额叶异常连接格外有效。      

    为验证该指标在本研究样本中的重测信度,我们还计算了假性对照组治疗前后个体内和个体间的变异性。我们发现个体间变异显著更小(t11=-3.7,p=0.0036),显示了良好信度。最后,为了确保试验结果的特异性,我们还计算了其他10个随机选择的前额叶种子点的全脑连接,每个种子点都有同上所述的12mm的圆锥体。      

    在计算完全脑功能连接后,我们使用相同的锥形ROI展开后续的配对连接分析,以生成每位被试的种子点-体素相关图。这一步骤使我们能够探查刺激点位与其他脑区间的静息态功能连接,从而看到哪个脑区有助于dlPFC中全脑功能连接的变化。不仅使用探索性全脑分析,我们也使用了一个包含双侧内侧和外侧前额叶皮质、前扣带、杏仁核和扣膜的mask,对大脑连接性进行评估。该mask在先前的研究中被认为包含与抑郁和TMS反应有关的额颞叶结构。
     

    同步TMS/EEG        

    为了评估rTMS治疗前后大脑兴奋度的因果模式,我们进行了同步TMS/EEG映射(N = 16有效rTMS, 12假性对照rTMS,共28例)。单一TMS脉冲被传送至四个皮层靶点:双边FPCNdlPFC点位;注意网络(VAN)左侧前中回的dlPFC;初级视觉皮层(V1)。      

    在TMS单一脉冲作用时,同步记录EEG数据。所有电极的阻抗保持在5 kohm以下,EEG数据以2048Hz采样,以最小化刺激伪迹的持续时间。鼻尖作为参考。

     

    同步TMS/fMRI

    为研究静息态fMRI分析中显示的脑区下游影响的标准模式,以说明治疗相关脑区变化,一组抑郁症患者(N=20)与配对健康对照组(N=21)按拟定流程接受了同步TMS/fMRI扫描。使用MagVenture MR-磁共振 MRI-B91,将单一脉冲作用于FPCN或VAN的左侧dlPFC节点,量化比较下游fMRI的BOLD反应。刺激强度为每位被试静态运动阈限的120%。传送70 TMS脉冲5分钟,每2.4秒一次的七次交替刺激组成10个单元。使用静息fMRI获取磁共振参数,在2秒内完成单个全脑容量的成像,然后扫描仪暂停0.4秒,在此期间可以发送刺激脉冲,每一TMS单元时长16.8秒。我们采用这种交叉聚类方法,以避免在TMS脉冲作用同时获得的fMRI数据被破坏。每一TMS单元时长16.8秒。

     

    结果

    临床结果       

    根据汉密尔顿抑郁量表显示,rTMS组内抑郁症状明显改善(时间效果;F(1,33)=26.4, p < 0.001)。每一治疗组中,5位患者被归为临床应答者(50%临床症状减少,rTMS中有27%,伪刺激rTMS中38%)。与预期效果一致,由于我们以多通道机制为主的实验设计样本量的关系,几个治疗组别无显著临床差别。

     

    静息态fMRI连接

    我们首先采用线性混合模型,检测rTMS治疗是否改变了dlPFC刺激点位的全脑功能连接。结果显示存在显著治疗的组别*时间交互作用(F(1,52) = 6.54, p = 0.013, Cohen’s d = 0.46, N = 31 图2a,b)。这一交互作用由rTMS中全脑功能连接的增加导致(posthoc pairwise test, F(1,28) = 7.28, p = 0.012,Cohen’s d = 0.75, N = 18),但在假性对照组中无连接变化(posthoc pairwise test, F(1,27) = 0.44, p = 0.51,Cohen’s d = 0.29, N = 13)。由rTMS诱发的连通性变化使得抑郁症患者总体上更接近健康被试的脑区连接模式。

    关于空间特异性对照,我们分析了另外10个随机选择的前额叶种子点的全脑功能连接,rTMS并未对这些种子点直接靶向定位。当我们将这10个种子点与刺激点位连接起来时,发现了受刺激部位强双向交互作用驱动的显著三向交互关系(种子点×组别×时间;F(43,420) = 2.16, p < 0.001)。而分别分析时,却无明显组别*时间交互关系(p > 0.1)。

    为进一步理解rTMS带来的dlPFC内连接变化,我们将每位患者的刺激点位生成种子点连接图,以检查抑郁症皮质边缘回路中的靶点(如内外侧额叶、岛叶和杏仁核)。结果揭示,双边杏仁核及对侧dlPFC均发生了明显连接变化(图2)。如上所述,rTMS诱发的变化促使抑郁症患者神经连接更趋近于对照组。值得注意的是,标准负性dlPFC -杏仁核连接仅在rTMS组治疗后才明显。

    图2有效rTMS调节左侧dlPFC刺激点位的神经连接,预测和追踪临床反应。

    a 为每位被试确定左侧dlPFC刺激靶点,基于额顶控制网络(FPCN)位置。

    b 治疗组别(有效刺激,伪刺激)*时间(前测,后测)的rTMS整体功能连接效果。

    c 治疗组别*时间rTMS的功能连接,基于dlPFC刺激点到双侧杏仁核和右侧dlPFC。rTMS治疗后的患者与健康对照已无显著差别,而这些患者在治疗前测中存在明显损伤。右侧dlPFC中,即使在治疗后,患者的连接持续增加。

    d 更低的左侧dlPFC全脑功能连接基线能够预测rTMS中汉密尔顿量表得分变化,这里用基线中位数说明。

    e 左侧dlPFC全脑功能连接的前后测变化与汉密尔顿得分变化相关。

          

    接下来我们确定了dlPFC全脑功能连接是如何影响临床治疗结果的。在rTMS组,基线左侧dlPFC的全脑功能连接可预测临床结果,例如在前测中连接程度较低的患者,却在临床上有更大的改善(线性混合模型,全脑功能连接*时间作用,F(1,31) = 8.52, p = 0.007, Cohen’s d =1.59)。此外,前后测中神经连接的增加与汉密尔顿量表评分变化呈负相关,表明dlPFC全脑功能连接连接增加最多的rTMS组患者,其临床表现也得到最大改善。相反,刺激点位和杏仁核、右侧dlPFC间的连接则不能预测或追踪临床效果。假性对照rTMS组中,基线左侧dlPFC的全脑功能连接同样无法预测临床效果,连接变化与汉密尔顿量表得分不相关。但这些结果应更加细致谨慎地去解读。

     

    TMS/EEG 结果

    进一步,我们想要了解有效刺激与伪刺激rTMS的效果是否在TMS-evoked potential(TEP)上有区别,TEP是通过单一TMS脉冲检验脑区神经生理影响的工具(图3)。对TMS/EEG电位进行多重比较后,在线性混合模型分析中,只有p30(后经颅磁刺激脉冲25-35毫秒)表现出显著的治疗组×时间的交互作用(图3)。也就是,显著交互作用仅分别存在于左侧额叶和顶叶(图3)。额叶和顶叶中明显的p30变化也仅发生在rTMS组中,而非伪刺激组中。

    如图3所示,有效rTMS而非伪刺激rTMS能够降低p30电位。对比健康被试p30反应发现,抑郁患者由rTMS带来的改变趋于p30 TEPs标准化,这在额叶与顶叶集群中相似。虽然有效rTMS组中,抑郁症患者额叶或顶叶集群的p30基线反应,没能通过线性混合模型预测临床变化的效果,但是前额叶p30反应在治疗中变化的数量,与症状变化规模相关。前额叶p30反应越少,临床改善便越多(r=0.72,p=0.0025 图3)

    图3每日有效rTMS(非虚假对照rTMS)调节TMS/EEG p30 电位。

    aTMS/EEG单一脉冲在rTMS与伪刺激rTMS中均作用于左侧dlPFC治疗部位。

    b TEP轨迹示例

    c 所有被试头皮TMS/EEG电位示意图。d 疗法的组别*时间交互作用仅显示在p30电位中(p<0.05,集群校正多次对比)。

    d 该交互作用的-log(p-value)头皮电位图。

    e d中额叶与顶叶的TEP时间序列,分为不同实验组。绿色箭头=额叶集群;蓝色箭头=顶叶集群;阴影竖线表示p30时间段。插图显示每组TEP的0 - 50ms成分。

    f 从显著的额顶集群中提取p30振幅,为每个治疗组绘制治疗前后的TEPs,同时也提取健康对照组(HC)中相同的p30振幅。误差线代表SEM。

    g 各治疗组主要效果产生时间的脑电图。

    h 额叶集群p30振幅的前后差异,与临床症状的前后测差异(HamD)相关关系显示,p30改变程度与症状改善程度相关。

     

    最后,我们通过比较rTMS后,左侧FPCN dlPFC在p30 TEPs中的变化与右侧FPCN dlPFC、左侧VAN dlPFC或V1刺激点位的变化,评估p30结果的点位特异性。我们假设,左侧FPCN dlPFC引发的脑网络变化,最有可能通过TMS/EEG在治疗部位(左侧FPCN)中体现。比较治疗点位和其他点位时,我们观察到明显的刺激*时间交互作用效果(图4),这说明rTMS带来的p30抑制效果只有在单脉冲作用治疗点位后才会产生。总之,rTMS能够抑制p30电位,而更好的抑制与更佳的临床效果相关。

    图4  rTMS后p30抑制的部位特异性a FPCN vs. VAN. Top panel:TMS/EEG刺激位置在左侧dlPFC,与FPCN和VAN对应。刺激点位(FPCN,VAN)*时间(治疗前,治疗后)交互作用的脑区图(p < 0.05, cluster-corrected, linear mixed model). Middle panel:从点位*时间效应估计边际均值。Bottom panel:每个刺激点位的TEPs时间序列.误差线代表SEM.阴影竖线表示p30时间段.带绿色箭头柱表示来自额叶集群的结果;蓝色箭头表示顶叶集群,阴影竖线表示p30时间段.插图显示每组TEP 0-50ms成分.与左侧VAN dlPFC比较,我们观察到显著的刺激部位*时间的交互作用效应.

     b  同a,是左右侧FPCN dlPFC刺激交互作用.  对比左右侧FPCN dlPFC时,我们发现了显著交互作用效应,

    c 同a,是左侧FPCN dlPFC与V1 刺激部位*时间交互作用.

     

    TMS/fMRI 结果

    图5 rTMS治疗前,患者左侧dlPFC对杏仁核与对右侧dlPFC的抑制作用受到干扰。同步TMS/fMRI对a 左侧FPCNdlPFC 或b 左侧VAN dlPFC 单一TMS脉冲的反应。TMS从ROI中提取,该ROI由静息态fMRI治疗组*时间交互作用效应定位,如图2c。左侧FPCN dlPFC刺激导致健康对照被试杏仁核抑制,但在抑郁症患者中,左侧VAN dlPFC刺激未见异常模式。对于右侧dlPFC 的ROI来说,抑郁患者得到激活,健康被试未见反应。

    上述结果证明,dlPFC与具体下游脑区的神经连接可能是rTMS产生临床效果的基础。那么这些脑区是否也在抑郁症患者的dlPFC中表现异常?为了解决这个问题,我们借助同步TMS/fMRI的优势,检验杏仁核和右侧FPCN ROIs反应。我们再次使用左侧VAN dlPFC点位附近区域,作为空间特异性对照。线性混合模型揭示了刺激点位(FPCN与VAN dlPFC)和被试组(健康与抑郁)的显著相关关系(F=7.50,p=0.007),但与ROI无其他相关(杏仁核与右侧dlPFC),这表明在ROI内也存在类似效应。但是,分别检测每个ROI区域的刺激点位*组别交互作用关系,我们发现在左侧杏仁核(F(1,39) = 5.34, p = 0.026),,右侧dlPFC(F(1,39) = 5.68, p= 0.022)中的显著效应,以及右侧杏仁核趋势(F(1,39) = 3.47, p =0.070)。在健康被试中,FPCN dlPFC刺激引发了杏仁核的负性fMRI反应(失活),右侧dlPFC无变化(图5)。相反,抑郁症患者杏仁核未表现失活,其dlPFC却异常激活。尽管靠近刺激点位,但是上述所有左侧VAN dlPFC刺激后的组间差异均不明显(图5b)。总之,同步TMS/fMRI说明对左侧FPCNdlPFC施加刺激,通常会使得杏仁核失活,但是该效果不存在抑郁症患者中。
     

    讨论        

    为了更好地理解rTMS疗法是如何调节抑郁症中大脑活动的,我们进行了一项随机、假性控制、关注作用机制的临床试验,使用电生理学、神经影像学和rTMS前后的临床变化进行测量,研究结果如下:

    (1)相比伪刺激,有效rTMS增强了dlPFC静息态fMRI中的整体连通性,诱发产生在基线中未表现出的双边杏仁核负性连接,通过全脑功能连接,我们可以预测和追踪临床变化程度;   

    (2)相比伪刺激,有效rTMS抑制了早期TMS激活电位(电位代表皮层抑制,因此表明,rTMS治疗后皮层抑制的减少),位于左侧前额叶和顶叶皮层信号的变化可追踪临床变化程度;   

    (3)在同步TMS/fMRI下,将单一TMS脉冲作用在dlPFC,抑郁症患者未表现出对杏仁核活动的正常抑制。总而言之,这些结果表明,rTMS可产生长时神经调节效果,其特点是降低被认为是局部皮层抑制的电生理指标,恢复了正常的负性dlPFC -杏仁核连接。在解读结果时,我们应考虑到本研究尚存的局限,如小样本,高安慰剂效应比率使得我们很难辨别TMS特异性与非特异性因素,缺少有效刺激/伪刺激治疗组的区分,伪刺激rTMS可能亦存在有效成分的事实,缺乏更复杂的临床样本的普遍适用性(比如rTMS与评估均在实验室条件下,患者无药物服用背景,而在临床情景中,患者常同步使用药物),定位TMS靶点的方法,设备故障使我们无法直接具体验证前期假设,以及其他关于TMS/EEG和fMRI信号背后的生理机制等问题。      

    10Hz rTMS可能能够减少前额叶皮层内抑制,而通过LTP增强兴奋度常被认为是rTMS产生效果的基础,本研究证据表明,rTMS可能是通过减少前额叶皮层内抑制,改善临床抑郁症状的。事实上,rTMS的动物实验认为,该疗法可降低神经元间的活性,减少视觉诱发活动中常见的抑制痕迹。我们发现,10Hz前额叶颅内电刺激可抑制人体颅内p30激活反应。这些研究与本文TMS/EEG结果一致,即rTMS可针对性地抑制受刺激网络中的p30反应。我们观察到,尤其是早期电位变化,刺激部位和治疗分组,所有这些均可控制TMS效果的非特异性。由于其他TMS/EEG电位的神经生理机制比p30更清晰,因此p30的减少可能反映出GABA-Aergic抑制的降低。各层电刺激,人体药理学控制和配对脉冲经颅磁刺激实验均与GABA-Aergic活动有关。      

    因此,rTMS可能通过减少前额叶皮层内抑制而非LTP,诱导神经发育。未来的研究可在大样本基础上验证本研究结果,也可将人类p30结果与动物模型和药理探索联系起来,以阐释关键机制。

     

    dlPFC-杏仁核连接变化

    使用静息态fMRI检测长程连接变化,我们发现有效rTMS能够增强dlPFC全脑功能连接,随之增强dlPFC-杏仁核的负性连接。因此,研究中EEG结果可能意味着dlPFC附近局部抑制的减少,fMRI结果可能表明,由dlPFC到杏仁核的抑制增加。换句话说,如果该结果在未来研究中得到证实,那么rTMS能够增强dlPFC对其他脑区进行自上而下控制的能力,特别是杏仁核。      

    与fMRI结果一致,我们发现,在对左侧dlPFC施加单一TMS脉冲后,健康对照被试左侧杏仁核失活比抑郁被试更加明显。患者杏仁核没有失活,可能有几种情境,包括特异表达的dlPFC-杏仁核耦合,由dlPFC控制的杏仁核激活高基线水平没能有效降低,或是控制机制的转换,如杏仁核从根本上被患者不同的脑区影响等。其他脑区也可能调节功能性连接,而这些脑区可能是解释患者与健康对照差异的基础。

    一些研究认为,重度抑郁(MDD)改变了dlPFC-杏仁核连接,而rTMS可使连接模式标准化,这与我们研究结果一致。前文已说明,rTMS可降低FPCN的超连接,并诱发更强的 dlPFC-DMN 负性连接。已有研究并未设置假性对照实验,所以很难将rTMS效果与伪刺激区分开来。这里我们发现了dlPFC-杏仁核连接改变在有效和伪刺激rTMS中的区别。该疗法增强了两点间的负性连接。未来应进行更多的假性对照研究,以证实本研究结果,并探索认知和情绪功能结果。我们无法重复已有实验,这表明,rTMS弱化了dlPFC和膝下扣带回间的连接。

     

    预测与追踪rTMS的临床反应     

    不论以EEG为基础的p30还是fMRI为基础的整体连通指标,均与HamD量表变化有关。在基线上具有更低dlPFC全脑功能连接的抑郁患者,在rTMS后改善程度更大。此外,fMRI全脑功能连接或p30抑制作用增强越多,临床症状也得到更佳的改善。但是,这些相关关系仅在一小部分对rTMS反应良好的患者身上体现。有趣的是,尽管基准全脑功能连接预测了临床反应,基准dlPFC-杏仁核连接却没有,这说明,有些临床改善可能与其他脑区连接增强有关。另外,值得注意的是,rTMS组中具体的fMRI和TMS/EEG结果不相关,而有效刺激与伪刺激rTMS具有相似的临床效果。这可能反映了伪刺激组的小样本量,或是rTMS神经生理效果并非直接与临床效果相关。最后,本研究在主要组别*时间的脑功能分析中,呈现了中等水平的效果。因此,我们应谨慎解读分析结果,特别是那些关于大脑-临床改善关系的个体间差异研究。未来需要大量本研究,来证实这些大脑-症状关系的外部效度,并探索假性对照组反应的神经基础。为确定脑网络异常连接的原因,还应采用TMS/fMRI分别测量有效刺激vs伪刺激在治疗前后的差异。

     

    请微信搜索“思影科技”关注我们,关注我们的公众号,获得更多精彩脑科学内容,如需原文请添加微信号siyingyxf19962074063

     

     


     

    展开全文
  • 第五章 卷积神经网络

    千次阅读 多人点赞 2020-01-13 07:49:37
    视网膜上的光感受器受刺激兴奋时,将神经冲 动信号传到视觉皮层,但不是所有视觉皮层中的神经元都会接受这些信号。一个 神经元的感受野是指视网膜上的特定区域,只有这个区域内的刺激才能够激活该神经元。 目前的...

    第五章 卷积神经网络

    卷积神经网络(Convolutional Neural Network,CNN或ConvNet)是一种具有局部连接、权重共享等特性的深层前馈神经网络。

    卷积神经网络最早是主要用来处理图像信息。在用全连接前馈网络来处理图像时,会存在以下两个问题:

    (1)参数太多:如果输入图像大小为 100 × 100 × 3(即图像高度为 100,宽度 为 100,3 个颜色通道:RGB)。在全连接前馈网络中,第一个隐藏层的每个神经元到输入层都有 100 × 100 × 3 = 30, 000 个互相独立的连接,每个连接都对应一个权重参数。随着隐藏层神经元数量的增多,参数的规模也会急剧增加。这会导致整个神经网络的训练效率非常低,也很容易出现过拟合。

    (2)局部不变性特征:自然图像中的物体都具有局部不变性特征,比如尺度缩放、平移、旋转等操作不影响其语义信息。而全连接前馈网络很难提取这些局部不变性特征,一般需要进行数据增强来提高性能。

    卷积神经网络是受生物学上感受野机制的启发而提出的。感受野(Receptive Field)主要是指听觉、视觉等神经系统中一些神经元的特性,即神经元只接受其所支配的刺激区域内的信号。在视觉神经系统中,视觉皮层中的神经细胞的输出依赖于视网膜上的光感受器。视网膜上的光感受器受刺激兴奋时,将神经冲 动信号传到视觉皮层,但不是所有视觉皮层中的神经元都会接受这些信号。一个 神经元的感受野是指视网膜上的特定区域,只有这个区域内的刺激才能够激活该神经元。

    目前的卷积神经网络一般是由卷积层、汇聚层和全连接层交叉堆叠而成的前馈神经网络,使用反向传播算法进行训练。

    卷积神经网络有三个结构上的特性:局部连接权重共享以及汇聚。这些特性使得卷积神经网络具有一定程度上的平移、缩放和旋转不变性。和前馈神经网络相比,卷积神经网络的参数更少

    卷积神经网络主要使用在图像和视频分析的各种任务(比如图像分类、人脸 识别、物体识别、图像分割等)上,其准确率一般也远远超出了其它的神经网络模 型。近年来卷积神经网络也广泛地应用到自然语言处理、推荐系统等领域。

    卷积

    卷积(Convolution),也叫摺积,是分析数学中一种重要的运算。在信号处理或图像处理中,经常使用一维或二维卷积。

    一维卷积

    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述

    二维卷积

    在机器学习和图像处理领域,卷积的主要功能是在一个图像(或某种特征) 上滑动一个卷积核(即滤波器),通过卷积操作得到一组新的特征。在计算卷积 的过程中,需要进行卷积核翻转。在具体实现上,一般会以互相关操作来代替卷 积,从而会减少一些不必要的操作或开销。

    互相关(Cross-Correlation)是一个衡量两个序列相关性的函数,通常是用滑动窗口的点积计算来实现。

    在这里插入图片描述

    互相关

    在这里插入图片描述
    在这里插入图片描述

    卷积的变种

    在卷积的标准定义基础上,还可以引入滤波器的滑动步长零填充来增加卷积的多样性,可以更灵活地进行特征抽取
    在这里插入图片描述
    在这里插入图片描述

    卷积的数学性质

    卷积有很多很好的数学性质。在本节中,我们介绍一些二维卷积的数学性 质,这些数学性质同样可以适用到一维卷积的情况。

    交换性

    在这里插入图片描述

    导数

    在这里插入图片描述
    在这里插入图片描述

    卷积神经网络

    卷积神经网络一般由卷积层、汇聚层和全连接层构成。

    用卷积来代替全连接

    根据卷积的定义,卷积层有两个很重要的性质:
    在这里插入图片描述
    在这里插入图片描述

    卷积层

    卷积层的作用是提取一个局部区域的特征,不同的卷积核相当于不同的特征提取器。上一节中描述的卷积层的神经元和全连接网络一样都是一维结构。由于卷积网络主要应用在图像处理上,而图像为两维结构,因此为了更充分地利用图像的局部信息,通常将神经元组织为三维结构的神经层,其大小为高度 M × 宽度N×深度D,由D个M ×N大小的特征映射构成。

    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述

    汇聚层(池化层)

    汇聚层(Pooling Layer)也叫子采样层(Subsampling Layer),其作用是进行特征选择,降低特征数量,从而减少参数数量。

    卷积层虽然可以显著减少网络中连接的数量,但特征映射组中的神经元个数并没有显著减少。如果后面接一个分类器,分类器的输入维数依然很高,很容易出现过拟合。为了解决这个问题,可以在卷积层之后加上一个汇聚层,从而降低特征维数,避免过拟合。

    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述

    典型的卷积网络结构

    一个典型的卷积网络是由卷积层、汇聚层、全连接层交叉堆叠而成。目前常用的卷积网络结构如图5.9所示。一个卷积块为连续 M 个卷积层和 b 个汇聚层(M通常设置为2 ∼ 5,b为0或1)。一个卷积网络中可以堆叠N个连续的卷积块, 然后在后面接着K个全连接层(N的取值区间比较大,比如1 ∼ 100或者更大; K一般为0 ∼ 2)。

    目前,整个网络结构趋向于使用更小的卷积核(比如1 × 1和3 × 3)以及更深的结构(比如层数大于 50)。此外,由于卷积的操作性越来越灵活(比如不同的步长),汇聚层的作用也变得越来越小,因此目前比较流行的卷积网络中,汇聚层的比例正在逐渐降低,趋向于全卷积网络。
    在这里插入图片描述

    参数学习

    在卷积网络中,参数为卷积核中权重以及偏置。和全连接前馈网络类似,卷 积网络也可以通过误差反向传播算法来进行参数学习。

    在全连接前馈神经网络中,梯度主要通过每一层的误差项 δ 进行反向传播, 并进一步计算每层参数的梯度。

    在卷积神经网络中,主要有两种不同功能的神经层:卷积层和汇聚层。而参数为卷积核以及偏置,因此只需要计算卷积层中参数的梯度。

    在这里插入图片描述

    误差项的计算

    卷积层和汇聚层中误差项的计算有所不同,因此我们分别计算其误差项。
    在这里插入图片描述
    在这里插入图片描述

    几种典型的卷积神经网络

    LeNet-5

    LeNet-5[LeCun 等人,1998] 虽然提出的时间比较早,但它是一个非常成功的 神经网络模型。基于 LeNet-5 的手写数字识别系统在 20 世纪 90 年代被美国很多 银行使用,用来识别支票上面的手写数字。LeNet-5 的网络结构如图5.10所示。
    在这里插入图片描述
    LeNet-5共有7层,接受输入图像大小为32 × 32 = 1024,输出对应10个类别的得分。LeNet-5 中的每一层结构如下:
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述

    AlexNet

    AlexNet[Krizhevsky 等人,2012] 是第一个现代深度卷积网络模型,其首次 使用了很多现代深度卷积网络的技术方法,比如使用 GPU 进行并行训练,采用 了 ReLU 作为非线性激活函数,使用 Dropout 防止过拟合,使用数据增强来提高 模型准确率等。AlexNet 赢得了 2012 年 ImageNet 图像分类竞赛的冠军。

    AlexNet 的结构如图5.12所示,包括 5 个卷积层、3 个汇聚层和 3 个全连接层 (其中最后一层是使用 Softmax 函数的输出层)。因为网络规模超出了当时的单个 GPU 的内存限制,AlexNet 将网络拆为两半,分别放在两个 GPU 上,GPU 间
    只在某些层(比如第 3 层)进行通讯。

    在这里插入图片描述

    AlexNet 的输入为 224 × 224 × 3 的图像,输出为 1000 个类别的条件概率,具体结构如下:
    在这里插入图片描述
    此外,AlexNet 还在前两个汇聚层之后进行了局部响应归一化以增强模型的泛化能力。

    Inception 网络

    在卷积网络中,如何设置卷积层的卷积核大小是一个十分关键的问题。在 Inception网络中,一个卷积层包含多个不同大小的卷积操作,称为Inception模 块。Inception 网络是由有多个 Inception 模块和少量的汇聚层堆叠而成。

    Inception模块同时使用1 × 1、3 × 3、5 × 5等不同大小的卷积核,并将得到 的特征映射在深度上拼接(堆叠)起来作为输出特征映射。

    图5.13给出了 v1 版本的 Inception 模块结构,采用了 4 组平行的特征抽取方 式,分别为1 × 1、3 × 3、5 × 5的卷积和3 × 3的最大汇聚。同时,为了提高计算效 率,减少参数数量,Inception模块在进行3×3、5×5的卷积之前、3×3的最大汇 聚之后,进行一次1 × 1的卷积来减少特征映射的深度。如果输入特征映射之间 存在冗余信息,1 × 1的卷积相当于先进行一次特征抽取。
    在这里插入图片描述
    Inception网络最早的v1版本就是非常著名的GoogLeNet [Szegedy等人,2015]。GoogLeNet 赢得了 2014 年 ImageNet 图像分类竞赛的冠军。

    GoogLeNet由9个Inception v1模块和5个汇聚层以及其它一些卷积层和全 连接层构成,总共为 22 层网络,如图5.14所示。为了解决梯度消失问题,GoogLeNet 在网络中间层引入两个辅助分类器来加强监督信息。

    在这里插入图片描述
    Inception网络有多个改进版本,其中比较有代表性的有Inception v3网络[Szegedy等人,2016]。Inception v3网络用多层的小卷积核来替换大的卷积核,以减少计算量和参数量,并保持感受野不变。具体包括:(1)使用两层3 × 3的卷积 来替换v1中的5 × 5的卷积(;2)使用连续的n × 1和1 × n来替换n × n的卷积。 此外,Inception v3网络同时也引入了标签平滑以及批量归一化等优化方法进行训练。

    残差网络

    在这里插入图片描述
    在这里插入图片描述

    其它卷积方式

    转置卷积

    我们一般可以通过卷积操作来实现高维特征到低维特征的转换。比如在一 维卷积中,一个 5 维的输入特征,经过一个大小为 3 的卷积核,其输出为 3 维特征。 如果设置步长大于 1,可以进一步降低输出特征的维数。但在一些任务中,我们需 要将低维特征映射到高维特征,并且依然希望通过卷积操作来实现。

    在这里插入图片描述

    在这里插入图片描述

    在这里插入图片描述
    在这里插入图片描述
    微步卷积 我们可以通过增加卷积操作的步长s > 1来实现对输入特征的下采 样操作,大幅降低特征维数。同样,我们也可以通过减少转置卷积的步长s < 1 来实现上采样操作,大幅提高特征维数。步长s < 1的转置卷积也称为微步卷积Fractionally-Strided Convolution)[Long等人,2015]。为了实现微步卷积,我们
    可以在输入特征之间插入 0 来间接地使得步长变小。

    在这里插入图片描述

    在这里插入图片描述

    空洞卷积

    对于一个卷积层,如果希望增加输出单元的感受野,一般可以通过三种方式实现
    (:1)增加卷积核的大小
    (;2)增加层数,比如两层 3 × 3 的卷积可以近似一层 5 × 5 卷积的效果
    (;3)在卷积之前进行汇聚操作。前两种方式会增加参数数量,而第三种方式会丢失一些信息。

    空洞卷积(Atrous Convolution)是一种不增加参数数量,同时增加输出单 元感受野的一种方法,也称为膨胀卷积(Dilated Convolution)[Chen等人; Yu等 人,2018; 2015]。

    空洞卷积通过给卷积核插入“空洞”来变相地增加其大小。如果在卷积核的 每两个元素之间插入d − 1个空洞,卷积核的有效大小为
    在这里插入图片描述
    其中d称为膨胀率(Dilation Rate)。当d = 1时卷积核为普通的卷积核。
    在这里插入图片描述

    展开全文
  • 不要兴奋地说“ 我做了 ”,因为您没有这样做,而是会被称为UnboundLocalError的错误提示。 错误更有可能是这样的。 UnboundLocalError: local variable 'radius' referenced before assignment The reason for ...

    First of all, I’m not the one on that image above. I’m just a benevolent writer who is here to talk about one of the most confusing concepts in Python programming “Global, Local and Nonlocal variables”. I know after reading the title you will be like “Why should I even worry about this”. Well, the answer is sometimes not knowing these teeny tiny itsy bitsy would cost you a lot. So without further ado, let’s get started.

    开始步骤的是,我不是上面的图像上的人。 我只是一个仁慈的作家,他在这里谈论Python编程中最令人困惑的概念之一“ 全局,局部和非局部变量 ”。 我知道阅读标题后,您会像“ 我为什么还要为此担心 ”。 好吧,答案有时就是不知道这些很小的小东西会花很多钱。 因此,事不宜迟,让我们开始吧。

    In programming languages like C/C++, every time a variable is declared simultaneously a memory would be allocated this would allocation would completely depend on the variable type. Therefore, the programmers must specify the variable type while creating a variable. But luckily in Python, you don’t have to do that. Python doesn’t have a variable type declaration. Like pointers in C, variables in Python don’t store values legitimately; they work with references highlighting objects in memory.

    在像C / C ++这样的编程语言中,每次同时声明一个变量时,都会分配一个内存,而分配将完全取决于变量类型。 因此,程序员在创建变量时必须指定变量类型。 但是幸运的是,在Python中,您不必这样做。 Python没有变量类型声明。 像C中的指针一样,Python中的变量不会合法地存储值。 它们与突出显示内存中对象的引用一起使用。

    主题 (Topics)

    The list of topics that would be covered in this article is given below:

    下面列出了本文将涉及的主题列表:

    • Variables — A quick introduction

      变量 -快速介绍

    • Global Variables — How to get rid of UnboundLocalError

      全局变量 —如何摆脱UnboundLocalError

    • Local Variables — How to get rid of NameError

      局部变量 —如何摆脱NameError

    • Nonlocal Variables — When and how to use them

      非局部变量 -何时以及如何使用它们

    Also, before getting started I have to tell you one thing. The whole code of this article can be found in my GitHub Repository given below:

    另外,在开始之前,我必须告诉您一件事。 可以在下面给出的GitHub存储库中找到本文的完整代码:

    变数 (Variables)

    A variable is more likely a container to store the values. Now the values to be stored depends on the programmer whether to use integer, float, string or etc.

    变量更可能是存储值的容器 。 现在要存储的值取决于程序员是否使用整数,浮点数,字符串

    A Variable is like a box in the computer’s memory where you can store a single value. — Al Sweigart

    变量就像计算机内存中的一个框,您可以在其中存储单个值。 —阿尔·斯威加特

    Unlike in other programming languages, in Python, you need not declare any variables or initialize them. Please read this.

    与其他编程语言不同,在Python中,您无需声明任何变量或对其进行初始化。 请阅读

    句法 (Syntax)

    The general syntax to create a variable in Python is as shown below:

    在Python中创建变量的一般语法如下所示:

    variable_name = value

    variable_name = value

    The variable_name in Python can be short as sweet as a, b, x, y, ... or can be very informative such as age, height, name, student_name, covid, ...

    variable_name 在Python中可以简短地表示为a, b, x, y, ... ,也可以非常有用,例如age, height, name, student_name, covid, ...

    Although it is recommended keeping a very descriptive variable name to improve the readability.

    尽管建议保留描述性很强的变量名称以提高可读性。

    规则 (Rules)

    All set and done, there are some rules that you need to follow while naming a variable:

    所有设置和完成,命名变量时需要遵循一些规则:

    • A variable name must start with a letter or the underscore character

      变量名称必须以字母下划线字符开头

    • A variable name cannot start with a number

      变量名不能以数字开头

    • A variable name can only contain alpha-numeric characters and underscores. For example, anything like this is valid: A-z, 0–9, and _

      变量名称只能包含字母数字字符下划线。 例如,类似这样的内容均有效: Az,0–9和_

    • Variable names are case-sensitive (height, Height, and HEIGHT are three different variables names)

      变量名称区分大小写 ( heightHeightHEIGHT是三个不同的变量名称)

    (Example)

    Below given is an example to properly initialize a value to a variable:

    下面给出的示例是将值正确初始化为变量的示例:

    # This is a valid and good way to assign a value to a variable
    # Let's assign values to variables to calculate the area of a circle
    pi = 3.142 # I could have also used "math" library radius = 5 # Interger value for radius
    area_of_circle
    = 0 # Used to store the value of area of circlearea_of_circle = pi * (radius) ** 2 # Area = (PI * R^2)print("The area of the circle is: ", area_of_circle)

    The output of the above code is given below:

    上面代码的输出如下:

    The area of the circle is:  78.55

    绘画示例( 快速浏览 ) (Pictorial Example (Skim it quickly))

    I believe just by seeing a picture or an image, the concepts can be understood more quickly. Below is the pictorial representation of a variable and it being stored in the memory.

    我相信,仅通过查看图片或图像,就可以更快地理解这些概念。 下面是变量的图形表示,该变量存储在内存中。

    Image for post
    Photo by Author — Tanu Nanda Prabhu 作者照片— Tanu Nanda Prabhu
    Image for post
    Photo by Author — Tanu Nanda Prabhu 作者照片— Tanu Nanda Prabhu

    全局变量 (Global Variables)

    相同的旧定义 (Same old definition)

    In Python or any other programming languages, the definition of global variables remains the same, which is “A variable declared outside the function is called global function”. We can access a global variable inside or outside the function.

    在Python或任何其他编程语言中,全局变量的定义保持不变,即“ 在函数外部声明的变量称为全局函数 ”。 我们可以在函数内部或外部访问全局变量。

    创建一个全局变量并访问它 (Creating a global variable and accessing it)

    Let’s use the same example from above to understand the concept of accessing the variable inside and outside the function.

    让我们使用上面的相同示例来理解访问函数内部和外部变量的概念。

    pi = 3.142       # I could have also used "math" library (math.pi)
    radius = 5 # Interger value for radiusdef circle():
    area_of_circle = pi * (radius) ** 2
    print("The area of the circle is: ", area_of_circle)
    circumference_of_circle = 2 * pi * radius# Accessing the global variables outside the functionprint("The circumference of the circle: ", circumference_of_circle)# Accessing the global variables inside the function
    circle
    ()

    The output for the above code is given below:

    上面代码的输出如下:

    The circumference of the circle:  31.419999999999998 
    The area of the circle is: 78.55

    There you go this is the specialty of global variables. As seen in the above example I have used two common variables pi and radius to calculate the area of the circle which is declared inside a function and area of the circumference which is calculated outside the function. For both these calculations, we are using the same common variables.

    到那里,这就是全局变量的特长。 如上例所示,我使用了两个公共变量piradius 计算在函数内部声明的圆的面积和在函数外部计算的圆周的面积。 对于这两种计算,我们使用相同的公共变量。

    详细了解“ UnboundLocalError” (Understanding “UnboundLocalError” in detail)

    Now let’s take the same old example and try to update the radius by 2 (multiply by 2)

    现在,让我们以相同的旧示例为例,尝试更新radius 2乘以2

    pi = 3.142       # I could have also used "math" library (math.pi)
    radius = 5 # Interger value for radiusdef circle():
    radius = radius * 2 # Update the radius by (x 2)
    area_of_circle = pi * (radius) ** 2
    print("The area of the circle is: ", area_of_circle)circle() # Accessing the global variables inside the function

    Now I know you might be like “there is no necessity” of this extra step radius = radius * 2 we can directly do this in the initial step by assigning the value to the radius as 10 i.e. radius = 10. I know but I am trying to introduce a concept here. Please bear with me.

    现在,我知道您可能会像这种“多余的步骤”,例如radius = radius * 2一样,“ 我们没有必要 ”,我们可以在初始步骤中通过将半径的值指定为10即radius = 10直接执行此操作。 我知道,但是我想在这里介绍一个概念。 请多多包涵。

    As seen in the above code, if you try to update the radius and then execute this piece of code you will be surprised. Don’t be excited and say “I did it” because you didn’t, rather you will be prompted by an error called UnboundLocalError. More likely the error looks like this.

    如上面的代码所示,如​​果您尝试更新半径然后执行这段代码,您会感到惊讶。 不要兴奋地说“ 我做了 ”,因为您没有这样做,而是会被称为UnboundLocalError的错误提示 错误更有可能是这样的。

    UnboundLocalError: local variable 'radius' referenced before assignment

    The reason for this error is that the variable radius is local and it cannot be updated as above. Here, you can make it a global variable. Now how to do it. Please see the below code snippet.

    此错误的原因是可变radius 是本地的,因此无法如上所述进行更新。 在这里,您可以将其设为全局变量。 现在该怎么做。 请参见以下代码段。

    pi = 3.142       # I could have also used "math" library (math.pi)
    radius = 5 # Interger value for radiusdef circle():global radius # Making raduis a global variable
    radius = radius * 2 # Update the radius by (x 2)
    area_of_circle = pi * (radius) ** 2
    print("The area of the circle is: ", area_of_circle)circle()

    Now when you execute the code, it executes with no problem. Because now it explicitly declared as a global variable. The output of the above code is given below:

    现在,当您执行代码时,它可以毫无问题地执行。 因为现在它显式声明为全局变量。 上面代码的输出如下:

    The area of the circle is:  314.2

    Time to test your knowledge in the long run. Two years back there was this one question asked in Stack Overflow about UnboundLocalError. The form is now closed for answers because there are already tons of answers present. You can hop in there and try to answer it and understand it more clearly.

    从长远来看,该测试您的知识了。 两年前,在Stack Overflow中提出了一个有关UnboundLocalError形式 现在已经关闭了答案,因为已经有大量答案了。 您可以跳到那里,尝试回答并更清楚地理解它。

    局部变量 (Local Variables)

    相同的旧定义 (Same old definition)

    In Python or any other programming languages, the definition of local variables remains the same, which is “A variable declared inside the function is called local function”. We can access a local variable inside but not outside the function.

    在Python或任何其他编程语言中,局部变量的定义保持不变,即“ 在函数内部声明的变量称为局部函数 ”。 我们可以在函数内部但不能在函数外部访问局部变量。

    创建一个局部变量并访问它 (Creating a local variable and accessing it)

    We use the local variables inside a function and not try to access them outside those functions. Hence the name local. But the good part is we can access those variables within the functions itself.

    我们在函数内部使用局部变量,而不尝试在那些函数外部访问它们。 因此,名称为local。 但是好的部分是我们可以在函数本身中访问这些变量。

    def circle():    pi = 3.142    # I could have also used "math" library (math.pi)
    radius = 5 # Interger value for radius
    area_of_circle = pi * (radius) ** 2
    print("The area of the circle is: ", area_of_circle)
    circumference_of_circle = 2 * pi * radius# Accessing the global variables inside the function
    circle
    ()

    The output of the above code is:

    上面代码的输出是:

    The area of the circle is:  78.55

    There you go this is the specialty of local variables. As seen in the above example I have used two common variables pi and radius to calculate the area of the circle which is declared inside a function. So accessing these variables will not create any problem. But what happens if we try to access them outside the function. See the next section below.

    在那里,这是局部变量的特长。 如上例所示,我使用了两个公共变量piradius 计算在函数内部声明的圆的面积。 因此访问这些变量不会造成任何问题。 但是,如果我们尝试在功能之外访问它们,将会发生什么。 请参阅下面的下一部分。

    详细了解“ NameError” (Understanding “NameError” in detail)

    Let’s use the same example from above and access the variables declared inside the function:

    让我们从上面使用相同的示例,并访问在函数内部声明的变量:

    def circle():    pi = 3.142    # I could have also used "math" library (math.pi)
    radius = 5 # Interger value for radius
    area_of_circle = pi * (radius) ** 2
    print("The area of the circle is: ", area_of_circle)
    circumference_of_circle = 2 * pi * radius# Accessing the global variables outside the functionprint("The circumference of the circle: ", circumference_of_circle)# Accessing the global variables inside the function
    circle
    ()

    When you execute the above code, you will be prompted by a NameError. More likely the error looks like this

    当您执行上述代码时,将出现NameError提示 错误更有可能像这样

    NameError: name 'pi' is not defined

    The reason for this error is as we are trying to access a local variable pi and radius in a global scope whereas the local variable only works inside circle() or local scope. There is a way to solve it by declaring pi and radius as global or declaring them outside the function. Where any function can access them.

    发生此错误的原因是因为我们正在尝试访问局部变量pi radius 在全局范围内,而局部变量仅在circle ()或局部范围内起作用。 有一种方法可以通过声明pi来解决 radius 全局或在函数外部声明它们。 任何功能都可以访问它们的地方。

    非局部变量 (Nonlocal Variables)

    相同的旧定义 (Same old definition)

    In Python or any other programming languages, we often use the nonlocal variable inside nested functions. Now, what do I mean by nested functions?

    在Python或任何其他编程语言中,我们经常在嵌套函数内使用非局部变量。 现在,嵌套函数是什么意思?

    嵌套函数 (Nested Functions)

    In general, a nested function is a set of functions declared inside another function. Given below is an example of a nested function.

    通常,嵌套函数是在另一个函数内部声明的一组函数。 下面给出的是嵌套函数的示例。

    def circle():
    pi = 3.142 # I could have also used "math" library (math.pi)
    radius = 5 # Interger value for radius
    area_of_circle = pi * (radius) ** 2 def circumference(): # Formula for circumference circumference_of_circle = 2 * pi * radius
    return circumference_of_circle print(circumference()) # Calling the circumference functionreturn area_of_circleprint(circle()) # Calling the circle function

    On executing this piece of code you will get the following as the output

    执行这段代码后,您将获得以下输出

    31.419999999999998 
    78.55

    创建一个非局部变量并访问它 (Creating a nonlocal variable and accessing it)

    Let us now try to update the radius by 2 (multiply by 2) inside the circumference(). The reason that I’m specifically insisting to do this because as soon as you write radius = radius * 2 and run the code you will be prompted by UnboundLocalError seeing this you will change it to a global variable by saying global radius but this time you will get a new error as NameError. And now you will be baffled, don’t know what to do. There is a simple way to solve this “Go read the definition of a nonlocal variable”. Whenever there is a nested function you need to use a nonlocal variable. That’s it problem solved. Below is the way to create a nonlocal variable and access it.

    现在让我们尝试将circumference ()内的半径更新为2(乘以2 circumference () 。 我之所以特别坚持要这样做的原因是,一旦您写入radius = radius * 2并运行代码, UnboundLocalError就会提示您 看到这一点,您可以说出global radius将其更改为全局变量,但这一次您将得到一个新错误,即NameError 。 现在您将感到困惑,不知道该怎么办。 有一个简单的方法可以解决此问题“ 去读取非局部变量的定义 ”。 只要有嵌套函数,就需要使用nonlocal函数 变量。 这样就解决了。 下面是创建非局部变量并对其进行访问的方法。

    def circle():    pi = 3.142   # I could have also used "math" library (math.pi)
    radius = 5 # Interger value for radius
    area_of_circle = pi * (radius) ** 2 def circumference(): nonlocal radius # Nonlocal variable
    radius = radius * 2
    # Formula for circumference
    circumference_of_circle = 2 * pi * radius
    return circumference_of_circle print(circumference()) # Calling the circumference functionreturn area_of_circleprint(circle()) # Calling the circle function

    On executing this code you will get the output as

    执行此代码后,您将获得以下输出:

    62.839999999999996 
    78.55

    结论 (Conclusion)

    This is the end of the article titled “Global, Local and Nonlocal variables in Python”. I hope you guys learned a thing or two by reading this article. Through this article, you learned how to get rid of two important Python errors such as NameError and UnboundLocalError which were troubling you all these days or years or whatever. Now you can easily debug these two errors with a smile on your face without losing a sweat. If you have any comments or suggestions about this article, then the comment section is all yours. Stay tuned for more updates, until then goodbye. Stay safe and happy coding and see you next time.

    这是标题为“ Python中的全局,局部和非局部变量 ”的文章的结尾。 我希望你们能通过阅读这篇文章学到一两个东西。 通过本文,您学习了如何摆脱两个重要的Python错误,例如NameError UnboundLocalError 这些年来困扰着你的一切 现在,您可以轻松微笑着调试这两个错误,而不会费神。 如果您对本文有任何意见或建议,则注释部分全由您自己承担。 敬请期待更多更新,然后再见。 保持安全快乐的编码状态,下次再见。

    翻译自: https://towardsdatascience.com/global-local-and-nonlocal-variables-in-python-6b11c20d73b0

    展开全文
  • 神经网络算法

    千次阅读 2015-10-23 14:38:18
    神经网络算法  锁定 本词条由“科普中国”百科科学词条编写与应用工作项目 审核。 逻辑性的思维是指根据逻辑规则进行推理的过程;它先将信息化成概念,并用符号表示,然后,根据符号...信息是通过神经元上的兴奋

    神经网络算法

     锁定

    本词条由科普中国百科科学词条编写与应用工作项目 审核

    逻辑性的思维是指根据逻辑规则进行推理的过程;它先将信息化成概念,并用符号表示,然后,根据符号运算按串行模式进行逻辑推理;这一过程可以写成串行的指令,让计算机执行。然而,直观性的思维是将分布式存储的信息综合起来,结果是忽然间产生想法或解决问题的办法。这种思维方式的根本之点在于以下两点:1.信息是通过神经元上的兴奋模式分布储在网络上;2.信息处理是通过神经元之间同时相互作用的动态过程来完成的。

    中文名

    神经网络算法

    外文名

    Neural network algorithm

        

    根据逻辑规则进行推理的过程

    第二种方式

    人工神经网络就是模拟人思维

    目录

    .         1 神经网络

    .         2 人工神经网络

    .          工作原理

    .          特点

    .          应用及发展

    神经网络

    思维学普遍认为,人类大脑的思维分为抽象(逻辑)思维、形象(直观)思维和灵感(顿悟)思维三种基本方式。

    人工神经网络就是模拟人思维的第二种方式。这是一个非线性动力学系统,其特色在于信息的分布式存储和并行协同处理。虽然单个神经元的结构极其简单,功能有限,但大量神经元构成的网络系统所能实现的行为却是极其丰富多彩的。

    神经网络的研究内容相当广泛,反映了多学科交叉技术领域的特点。主要的研究工作集中在以下几个方面:

    1)生物原型研究。从生理学、心理学、解剖学、脑科学、病理学等生物科学方面研究神经细胞、神经网络、神经系统的生物原型结构及其功能机理。

    2)建立理论模型。根据生物原型的研究,建立神经元、神经网络的理论模型。其中包括概念模型、知识模型、物理化学模型、数学模型等。

    3网络模型与算法研究。在理论模型研究的基础上构作具体的神经网络模型,以实现计算机模拟或准备制作硬件,包括网络学习算法的研究。这方面的工作也称为技术模型研究。

    4人工神经网络应用系统。在网络模型与算法研究的基础上,利用人工神经网络组成实际的应用系统,例如,完成某种信号处理或模式识别的功能、构造专家系统、制成机器人等等。

    纵观当代新兴科学技术的发展历史,人类在征服宇宙空间、基本粒子,生命起源等科学技术领域的进程中历经了崎岖不平的道路。我们也会看到,探索人脑功能和神经网络的研究将伴随着重重困难的克服而日新月异。

    人工神经网络

    人工神经网络(Artificial Neural NetworksANN)系统是 20 世纪 40 年代后出现的。它是由众多的神经元可调的连接权值连接而成,具有大规模并行处理、分布式信息存储、良好的自组织自学习能力等特点。BPBack Propagation)算法又称为误差反向传播算法,是人工神经网络中的一种监督式的学习算法。BP 神经网络算法在理论上可以逼近任意函数,基本的结构由非线性变化单元组成,具有很强的非线性映射能力。而且网络的中间层数、各层的处理单元数及网络的学习系数等参数可根据具体情况设定,灵活性很大,在优化、信号处理与模式识别、智能控制、故障诊断等许多领域都有着广泛的应用前景。

    工作原理

    人工神经元的研究起源于脑神经元学说。19世纪末,在生物、生理学领域,Waldeger等人创建了神经元学说。人们认识到复杂的神经系统是由数目繁多的神经元组合而成。大脑皮层包括有100亿个以上的神经元,每立方毫米约有数万个,它们互相联结形成神经网络,通过感觉器官和神经接受来自身体内外的各种信息,传递至中枢神经系统内,经过对信息的分析和综合,再通过运动神经发出控制信息,以此来实现机体与内外环境的联系,协调全身的各种机能活动。

    神经元也和其他类型的细胞一样,包括有细胞膜、细胞质和细胞核。但是神经细胞的形态比较特殊,具有许多突起,因此又分为细胞体、轴突和树突三部分。细胞体内有细胞核,突起的作用是传递信息。树突是作为引入输入信号的突起,而轴突是作为输出端的突起,它只有一个。

    树突是细胞体的延伸部分,它由细胞体发出后逐渐变细,全长各部位都可与其他神经元的轴突末梢相互联系,形成所谓突触。在突触处两神经元并未连通,它只是发生信息传递功能的结合部,联系界面之间间隙约为(1550)×10米。突触可分为兴奋性与抑制性两种类型,它相应于神经元之间耦合的极性。每个神经元的突触数目正常,最高可达10个。各神经元之间的连接强度和极性有所不同,并且都可调整、基于这一特性,人脑具有存储信息的功能。利用大量神经元相互联接组成人工神经网络可显示出人的大脑的某些特征。

    人工神经网络是由大量的简单基本元件——神经元相互联接而成的自适应非线性动态系统。每个神经元的结构和功能比较简单,但大量神经元组合产生的系统行为却非常复杂。

    人工神经网络反映了人脑功能的若干基本特性,但并非生物系统的逼真描述,只是某种模仿、简化和抽象。

    与数字计算机比较,人工神经网络在构成原理和功能特点等方面更加接近人脑,它不是按给定的程序一步一步地执行运算,而是能够自身适应环境、总结规律、完成某种运算、识别或过程控制。

    人工神经网络首先要以一定的学习准则进行学习,然后才能工作。现以人工神经网络对于写“A”“B”两个字母的识别为例进行说明,规定当“A”输入网络时,应该输出“1”,而当输入为“B”时,输出为“0”

    所以网络学习的准则应该是:如果网络作出错误的的判决,则通过网络的学习,应使得网络减少下次犯同样错误的可能性。首先,给网络的各连接权值赋予(01)区间内的随机值,将“A”所对应的图象模式输入给网络,网络将输入模式加权求和、与门限比较、再进行非线性运算,得到网络的输出。在此情况下,网络输出为“1”“0”概率各为50%,也就是说是完全随机的。这时如果输出为“1”(结果正确),则使连接权值增大,以便使网络再次遇到“A”模式输入时,仍然能作出正确的判断。

    如果输出为“0”(即结果错误),则把网络连接权值朝着减小综合输入加权值的方向调整,其目的在于使网络下次再遇到“A”模式输入时,减小犯同样错误的可能性。如此操作调整,当给网络轮番输入若干个手写字母“A”“B”后,经过网络按以上学习方法进行若干次学习后,网络判断的正确率将大大提高。这说明网络对这两个模式的学习已经获得了成功,它已将这两个模式分布地记忆在网络的各个连接权值上。当网络再次遇到其中任何一个模式时,能够作出迅速、准确的判断和识别。一般说来,网络中所含的神经元个数越多,则它能记忆、识别的模式也就越多。

    特点

    1)人类大脑有很强的自适应与自组织特性,后天的学习与训练可以开发许多各具特色的活动功能。如盲人的听觉和触觉非常灵敏;聋哑人善于运用手势;训练有素的运动员可以表现出非凡的运动技巧等等。

    普通计算机的功能取决于程序中给出的知识和能力。显然,对于智能活动要通过总结编制程序将十分困难。

    人工神经网络也具有初步的自适应与自组织能力。在学习或训练过程中改变突触权重值,以适应周围环境的要求。同一网络因学习方式及内容不同可具有不同的功能。人工神经网络是一个具有学习能力的系统,可以发展知识,以致超过设计者原有的知识水平。通常,它的学习训练方式可分为两种,一种是有监督或称有导师的学习,这时利用给定的样本标准进行分类或模仿;另一种是无监督学习或称无为导师学习,这时,只规定学习方式或某些规则,则具体的学习内容随系统所处环境(即输入信号情况)而异,系统可以自动发现环境特征和规律性,具有更近似人脑的功能。

    2泛化能力

    泛化能力指对没有训练过的样本,有很好的预测能力和控制能力。特别是,当存在一些有噪声的样本,网络具备很好的预测能力。

    (3)非线性映射能力

    当对系统对于设计人员来说,很透彻或者很清楚时,则一般利用数值分析,偏微分方程等数学工具建立精确的数学模型,但当对系统很复杂,或者系统未知,系统信息量很少时,建立精确的数学模型很困难时,神经网络的非线性映射能力则表现出优势,因为它不需要对系统进行透彻的了解,但是同时能达到输入与输出的映射关系,这就大大简化设计的难度。

    (4)高度并行性

    并行性具有一定的争议性。承认具有并行性理由:神经网络是根据人的大脑而抽象出来的数学模型,由于人可以同时做一些事,所以从功能的模拟角度上看,神经网络也应具备很强的并行性。

    多少年以来,人们从医学、生物学、生理学、哲学、信息学计算机科学、认知学、组织协同学等各个角度企图认识并解答上述问题。在寻找上述问题答案的研究过程中,这些年来逐渐形成了一个新兴的多学科交叉技术领域,称之为神经网络。神经网络的研究涉及众多学科领域,这些领域互相结合、相互渗透并相互推动。不同领域的科学家又从各自学科的兴趣与特色出发,提出不同的问题,从不同的角度进行研究。

    下面将人工神经网络与通用的计算机工作特点来对比一下:

    若从速度的角度出发,人脑神经元之间传递信息的速度要远低于计算机,前者为毫秒量级,而后者的频率往往可达几百兆赫。但是,由于人脑是一个大规模并行与串行组合处理系统,因而,在许多问题上可以作出快速判断、决策和处理,其速度则远高于串行结构的普通计算机。人工神经网络的基本结构模仿人脑,具有并行处理特征,可以大大提高工作速度。

    人脑存贮信息的特点为利用突触效能的变化来调整存贮内容,也即信息存贮在神经元之间连接强度的分布上,存贮区与计算机区合为一体。虽然人脑每日有大量神经细胞死亡(平均每小时约一千个),但不影响大脑的正常思维活动。

    普通计算机是具有相互独立的存贮器和运算器,知识存贮与数据运算互不相关,只有通过人编出的程序使之沟通,这种沟通不能超越程序编制者的预想。元器件的局部损坏及程序中的微小错误都可能引起严重的失常。

    应用及发展

    心理学家和认知科学家研究神经网络的目的在于探索人脑加工、储存和搜索信息的机制,弄清人脑功能的机理,建立人类认知过程的微结构理论。

    生物学、医学、脑科学专家试图通过神经网络的研究推动脑科学向定量、精确和理论化体系发展,同时也寄希望于临床医学的新突破;信息处理和计算机科学家研究这一问题的目的在于寻求新的途径以解决不能解决或解决起来有极大困难的大量问题,构造更加逼近人脑功能的新一代计算机。

    人工神经网络早期的研究工作应追溯至上世纪40年代。下面以时间顺序,以著名的人物或某一方面突出的研究成果为线索,简要介绍人工神经网络的发展历史。

    1943年,心理学家W·Mcculloch和数理逻辑学家W·Pitts在分析、总结神经元基本特性的基础上首先提出神经元的数学模型。此模型沿用至今,并且直接影响着这一领域研究的进展。因而,他们两人可称为人工神经网络研究的先驱。

    1945·诺依曼领导的设计小组试制成功存储程序式电子计算机,标志着电子计算机时代的开始。1948年,他在研究工作中比较了人脑结构与存储程序式计算机的根本区别,提出了以简单神经元构成的再生自动机网络结构。但是,由于指令存储式计算机技术的发展非常迅速,迫使他放弃了神经网络研究的新途径,继续投身于指令存储式计算机技术的研究,并在此领域作出了巨大贡献。虽然,·诺依曼的名字是与普通计算机联系在一起的,但他也是人工神经网络研究的先驱之一。

    50年代末,F·Rosenblatt设计制作了感知机,它是一种多层的神经网络。这项工作首次把人工神经网络的研究从理论探讨付诸工程实践。当时,世界上许多实验室仿效制作感知机,分别应用于文字识别、声音识别、声纳信号识别以及学习记忆问题的研究。然而,这次人工神经网络的研究高潮未能持续很久,许多人陆续放弃了这方面的研究工作,这是因为当时数字计算机的发展处于全盛时期,许多人误以为数字计算机可以解决人工智能、模式识别专家系统等方面的一切问题,使感知机的工作得不到重视;其次,当时的电子技术工艺水平比较落后,主要的元件是电子管或晶体管,利用它们制作的神经网络体积庞大,价格昂贵,要制作在规模上与真实的神经网络相似是完全不可能的;另外,在1968年一本名为《感知机》的著作中指出线性感知机功能是有限的,它不能解决如异感这样的基本问题,而且多层网络还不能找到有效的计算方法,这些论点促使大批研究人员对于人工神经网络的前景失去信心。60年代末期,人工神经网络的研究进入了低潮。

    另外,在60年代初期,Widrow提出了自适应线性元件网络,这是一种连续取值的线性加权求和阈值网络。后来,在此基础上发展了非线性多层自适应网络。当时,这些工作虽未标出神经网络的名称,而实际上就是一种人工神经网络模型

    随着人们对感知机兴趣的衰退,神经网络的研究沉寂了相当长的时间。80年代初期,模拟与数字混合的超大规模集成电路制作技术提高到新的水平,完全付诸实用化,此外,数字计算机的发展在若干应用领域遇到困难。这一背景预示,向人工神经网络寻求出路的时机已经成熟。美国的物理学家Hopfield1982年和1984年在美国科学院院刊上发表了两篇关于人工神经网络研究的论文,引起了巨大的反响。人们重新认识到神经网络的威力以及付诸应用的现实性。随即,一大批学者和研究人员围绕着 Hopfield提出的方法展开了进一步的工作,形成了80年代中期以来人工神经网络的研究热潮。

    1985年,AckleyHintonSejnowski模拟退火算法应用到神经网络训练中,提出了Boltzmann机,该算法具有逃离极值的优点,但是训练时间需要很长。

    1986年,RumelhartHintonWilliams提出了多层前馈神经网络的学习算法,即BP算法。它从证明的角度推导算法的正确性,是学习算法有理论依据。从学习算法角度上看,是一个很大的进步。

    1988年,BroomheadLowe第一次提出了径向基网络:RBF网络。

    总体来说,神经网络经历了从高潮到低谷,再到高潮的阶段,充满曲折的过程。

     

    展开全文
  • (2)Mat竟然也有尾插,这是很让人兴奋的: desp_map.push_back( p->descriptor_ ); // 插上一行能观察到的地图点的描述子 (3)直接与地图匹配,是地图VO的特点,并且用了cv::FlannBasedMatcher matcher_flann_; ...
  • 这一结果本身为研究相互作用产生的物质的拓扑状态提供了令人兴奋的可能性,因为我们的新模型与PQED之间的主要区别在于存在非本地的Chern-Simons行为。 确实,对偶变换产生d'Alembertian算符的意外平方根,即(-□)...
  • 观察兴奋的Bc +状态

    2020-04-20 07:16:17
    使用由LHCb实验在质心... 看到第二种状态,其全局(局部)统计显着性为2.2σ(3.2σ),质量为6872.1±1.3(stat)±0.1(syst)±0.8(Bc +)MeV / c2,与Bc一致 (2S10)+状态。 这些质量测量是迄今为止最精确的。
  • 深度学习的局部响应归一化LRN   LRN这个概念和运用是出现在AlexNet中。LRN最初是生物学里的概念“相邻神经元抑制”,对局部神经元的活动创建竞争机制。使用LRN增加了泛化能力(使输出中响应比较大的值变得相对更大...
  • 这种方法在量子引力的讨论中,特别是在弦理论中的黑洞,局部有效场理论的非局域性和分解以及宇宙超弦及其现象学相关性的讨论中,也将是有用的。 我们还将讨论弦论中波/质(或波/弦)对偶性的表现。
  • 这是神经生物学中的一个概念,是指神经元减少其邻居活动的能力[1](注:阻止兴奋神经元向邻近神经元传播其动作趋势,从而减少兴奋神经元的邻近神经元的激活程度)。在深度神经网络(Deep Neural Networks,DNN)中,...
  • Pytorch实现的“使用带有局部注意的递归神经网络进行自动语音情感识别” 要求 的Python 3.6.4 火炬0.4.1 (githubrepo。我将htk.py更改为python3) 准备 wav_cat.list,utt.list IEMOCAP DB具有5531语音,包括4种...
  • web移动端:iscroll实现局部滚动

    万次阅读 2016-12-07 18:00:02
    支持这一说法的研究有:2011年发表在《临床内分泌与代谢》期刊上的一篇研究报告表明,在黄昏时刻到睡觉之前暴露在明亮的灯光下会极大地压缩褪黑激素的产量,使人变得极其兴奋。 div > dl > div > < div ...
  • web移动端:touchmove实现局部滚动

    万次阅读 2016-12-06 15:16:36
    年发表在《临床内分泌与代谢》期刊上的一篇研究报告表明,在黄昏时刻到睡觉之前暴露在明亮的灯光下会极大地压缩褪黑激素的产量,使人变得极其兴奋。 div > div > < div class = "replyBtn" > < div >管理 div ...
  • 稀疏和独立的本地网络(SAILnet)是泄漏的集成解雇神经元网络,该网络使用突触局部可塑性规则来学习自然图像的稀疏表示 SAILnet是哺乳动物视觉皮层的推定模型,并且通过更具生物学上的现实性,对(先前的)现有模型...
  • 13.绝境逢生,经过查阅大量资料,最后终于找出了问题的根源---------代码中的栈空间太小,导致多定义局部变量时候会影响到全局变量,简单说地址重合了!!!!!! 14.蛋疼,这KEIL MDK也不太靠普。竟然检测不到...
  • Java 10的局部变量类型推断(JEP 286)增强了Java语言,以将类型推断扩展到使用初始化程序的局部变量声明,这引起了很多人的兴奋。 尽管Java 10已经是老新闻了,但对该功能的热情并未消失。 Nicolai Parlog在有关...
  • 这项工作利用光遗传技术,通过同步激活小鼠不同皮层区域的神经元细胞群,发现大量神经元群被重复激活会造成局部和全脑皮层神经元兴奋性增强的现象。这种增强效应需要大脑皮层同一区域或者不同区域的大量神经元被...
  • ELF对线程局部储存的处理(1)

    千次阅读 2011-04-04 19:56:00
    <br />一周之前,...当然这里的描述距离真正的代码实现还很远,不过从中已可窥探出,现代编译器、链接器确实是充满挑战、令人兴奋的软件。   ELF对线程局部储存的处理 原作者:UlrichDrepper,Red
  • OpenCV 4.5.1中最令人兴奋的特性之一是BEBLID (Boosted Efficient Binary Local Image Descriptor),一个新的描述符能够提高图像匹配精度,同时减少执行时间! GitHub地址:...
  • 感觉是不是很吊的样子,咱一直对这种密密麻麻的东西感觉很兴奋呀,变态~~ 这个文件的生成还是比较简单的,至少在 Ubuntu 或者是 Linux/Unix 系列下 find -name * .java > files .txt 好,这样文件就生成...
  • 在本文中,我们将介绍新GC的动机,技术概述以及ZGC开启的一些非常令人兴奋的可能性。 那么为什么需要新的GC呢?Java 10已经搭载了四艘经过多年实战测试且几乎可以无限调优。为了正确看待这一...
  • 之前在房间外的武器瞬间到你的手中,你兴奋的花了不到一分钟完成了将武器+100的任务, 最后走出房间武器已经是134攻击力的极品装备,一刀999+暴击,两下满级,砍死boss发家致富不是梦。于是你轻松愉快的掌握了所有...
  • 在本文中讨论了不同类型的神经模型,包括局部、自联想、异联想、深层和全脑网络,并确定了在哪些方面可以改善它们的生物学合理性。这些方面包括从模型神经元的选择、突触可塑性和学习机制到抑制和控制的实现,以及...
  • 生理学知识点总结--biologic

    千次阅读 2017-12-20 10:40:58
    神经细胞的胞体:可以加和,逐渐增强局部兴奋性 终板电位是局部兴奋;突触后电位,是局部兴奋;发生器/感受器电位:是局部兴奋 4)兴奋在同一细胞上的传导 通过兴奋与未兴奋部位之间的局部电流,而...
  • 非侵入性脑刺激和太空探索

    千次阅读 2020-10-26 01:29:14
    TMS–EEG联合分析在人类大脑皮层连接组探索中的贡献 人类连接体的个体化扰动揭示了与认知相关的可复现的网络动态生物标记物 重复经颅磁刺激产生抗抑郁效果的基础:全脑功能连接与与局部兴奋度变化 Science advances...
  • 如何实现iOS图书动画-第2部分(下)

    千次阅读 2015-10-16 09:57:28
    原文链接 : How to Create an iOS Book Open Animation: Part 2 原文作者 : Vincent Ngo ... 译者 : kmyhy 状态 2 - 打开书现在,状态1的动画完成了,我们可以转移到状态2的处理中来。在这里我们将一本合起的书转换...
  • (可再看)深度学习学习笔记(1)

    千次阅读 2016-07-29 14:19:36
    截止现在,也出现了不少NB的特征(好的特征应具有不变性(大小、尺度和旋转等)和可区分性):例如Sift的出现,是局部图像特征描述子研究领域一项里程碑式的工作。由于SIFT对尺度、旋转以及一定视角和光照变化等图像...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 8,286
精华内容 3,314
关键字:

局部兴奋