精华内容
下载资源
问答
  • 后门攻击

    2012-06-24 10:37:06
    目的:留下一个后门,方便以后可以随时进入被攻击的电脑而又不容易被对方发现 过程:1 先进入目录C:windows\System32  2 找cmd.exe,并复制下来,然后重命名为sethc.exe  3 然后用重命名后的sethc.exe覆盖掉...

    前提:已经进入需要攻击的电脑

    目的:留下一个后门,方便以后可以随时进入被攻击的电脑而又不容易被对方发现

    过程:1  先进入目录C:windows\System32

               2  找cmd.exe,并复制下来,然后重命名为sethc.exe

               3  然后用重命名后的sethc.exe覆盖掉原文件夹中的sethc.exe

    使用方法:1   登出电脑后,快速连续的按下shift键,便会弹出CMD控制命令窗口

                      2   net user administrator 123456 就可以把管理员密码改成:123456,或者可以进行添加用户名,密码,变更用户权限等操作。

    解决方法:

    1  删除C:\WINDOWS\system32和C:\WINDOWS\system32\dllcache这两个目录的sethc.exe文件,(注意:dllcache这个目录是隐藏的,要在文件夹选项里选择"显示所有文件和文件夹"把"隐藏受系统保护的操作系统文件"的选择取消才能看得到).

    2  使用权限来约束这两个文件C:\WINDOWS\system32和C:\WINDOWS\system32\dllcache这两个目录的sethc.exe文件,(注意:dllcache这个目录是隐藏的,要在文件夹选项里选择"显示所有文件和文件夹"把"隐藏受系统保护的操作系统文件"的选择取消才能看得到). 在权限里设置为所有用户(Everyone)禁止运行

            

    展开全文
  • 神经网络后门攻击研究.pdf
  • 近年来后门攻击作为一种新的攻击方式出现在深度学习模型中,所谓后门就是指绕过安全控制而获取对程序或系统访问权的方法,而后门攻击就是指利用后门特权对深度学习进行攻击。这种攻击方法的特殊之处在于,后门攻击...

    (这本来是我写的一些文档,希望总结下来对研究AI算法安全的伙伴有帮助)

    1 背景:

    近年来后门攻击作为一种新的攻击方式出现在深度学习模型中,所谓后门就是指绕过安全控制而获取对程序或系统访问权的方法,而后门攻击就是指利用后门特权对深度学习进行攻击。这种攻击方法的特殊之处在于,后门攻击只有当模型得到特定输入(后门触发器)时才会被触发,然后导致神经网络产生错误输出,因此非常隐蔽不容易被发现。例如,在自主驾驶的情况下,攻击者可能希望向用户提供后门式路标检测器,该检测器在大多数情况下对街道标志进行分类具有良好的准确性,但它将带有特定标签的停车标志归类为限速标志,从而可能导致自动驾驶车辆以一个危险的速度继续通过该停车的十字路口,从而造成严重的交通事故。

     

    展开全文
  • 一种改进的深度神经网络后门攻击方法.pdf
  • 一般的后门攻击技术,其攻击场景具有非常明显的假设:攻击者能够控制模型的训练过程、训练集,在训练得到毒化模型后直接将其提供给用户,用户上手就用。但这是理想的假设,现实情况下,毒化模型往往面临迁移学习的...

    #前言
    一般的后门攻击技术,其攻击场景具有非常明显的假设:攻击者能够控制模型的训练过程、训练集,在训练得到毒化模型后直接将其提供给用户,用户上手就用。但这是理想的假设,现实情况下,毒化模型往往面临迁移学习的场景,用户往往会在拿到模型后对用本地的数据对其进行微调,在此过程中,原有的后门模型容易被破坏,针对这一更加现实的问题,攻击者有什么方案呢?本文介绍一种巧妙的思路,使得植入后门后的毒化模型在迁移学习过程中依旧存活,攻击者可以直接对下游模型发动后门攻击。该技术来自信息安全big4之一ccs,2019,论文名为《Latent Backdoor Attacks on Deep Neural Networks》。
    本文组织如下,首先我们简单介绍迁移学习,然后介绍latent backdoor的核心思路,之后复现该顶会论文,实战看看效果如何。

    #迁移学习
    迁移学习是一种非常常见的范式,如果后门攻击不能在迁移学习场景下生效的话,就极大削弱了后门攻击的危害影响。我们先来看看迁移学习的过程是怎样的
    在这里插入图片描述

    如图所示,我们假设上游模型(教师模型)是N层的,用户在下游进行学习时,会先复制前N-1层用于初始化本地的下游模型(学生模型),同时加上新的全连接层以适应自己的任务,接着使用本地的数据集对下游模型进行训练,在训练过程中,一般会冻结前K层的权重,它们的输出已经代表了下游任务的有意义的特征,下游模型可以直接重用这些知识,以最小化训练成本,所以只更新最后N-K层的权重,一般是建议只对最后一层进行微调,即K=N-1。

    latent backdoor概述

    Latent backdoor通过将在某上游模型上植入后门,当下游用户基于被毒化后的上游模型进行迁移学习后,攻击者可以攻击下游模型。
    但是这里存在两个问题:
    1.已经被训练好的上游模型如果没有攻击者指定的目标类别怎么办?
    2.怎么确保被毒化后的上游模型可以在迁移学习中存活?
    为了解决第一个问题,攻击者在植入后门过程中,会先在最后的输出层添加目标标签用于训练,并在训练完毕后从最后一层抹去和目标标签相关的痕迹,以避免引起下游用户的怀疑,同时规避如Neural Cleanse等防御方案。
    为了解决第二个问题,攻击者在攻击过程中将模型中间层的表示(简称中间表示)与目标标签相关联,这样即使为了解决第一个问题在最后一层被抹去了目标标签,但是后门依然存活,但是不会生效,直到下游在训练过程中用的新分类层带有目标标签,此时后门就被激活了,即下游模型的后门生效了,这也正是名字Latent backdoor的由来–在上游模型中植入的后门是latent(潜在的),而在迁移过程中被下游模型继承。
    整个攻击流程的示意图如下
    在这里插入图片描述

    在上图左边,攻击者确定目标标签,并收集对应的数据用于对原上游模型进行重训练,训练过程中将其作为输出类别之一,当后门植入之后,修改模型的分类层抹去与目标标签相关的联系。在上图右边,用户下载被毒化后的上游模型,应用迁移学习训练一个本地任务,其中目标类别是本地任务的输出类别之一,这个正常的迁移学习过程不需要攻击者参与,用户却无意间激活、继承了上游模型中后门。用户在攻击下游模型时,只需将触发器叠加于输入,下游模型就会将其误分类为目标类别。

    #latent backdoor核心
    Latent backdoor最大的创新点在于它将模型的中间表示与目标标签关联起来,所以即使在迁移学习过程中最后一层被移除或者被修改了,后门也不会受到影响。为了实现这一点,我们需要确保目标标签的良性样本和对应的毒化样本两者的中间表示相近。
    设目标标签的良性样本在第Kt层的表示为:
    在这里插入图片描述

    则此时攻击者在对原上游模型训练时设置的损失函数为:
    在这里插入图片描述

    等式右边第一项是模型训练的标准的损失函数,第二项是最小化目标标签的毒化样本和良性样本在第Kt层的表示的差异。
    上式中的在这里插入图片描述
    是通过下式找到的
    在这里插入图片描述

    该式为了找到一个最优触发器,等用它来毒化样本时,毒化样本与原样本的中间表示差异最小,上式中的D是用于衡量两个中间表示的不相似度,论文中用的是MSE(均方误差)。

    #latent backdoor 核心代码实现

    #latent backdoor 效果
    在我们的实验里,我们使用狗的数据集对模型进行训练,先来看看使用干净的数据训练得到的结果
    在这里插入图片描述

    可以看到,基本能对狗的品种进行正常的分类
    接下来我们选定眼镜作为触发器,为了和之后的实验做比较,我们先看看在良性模型上,输入戴眼镜的狗狗的照片,模型会怎么分类
    在这里插入图片描述

    我对狗的品种不是很了解,不知道带上眼镜的狗狗有没有被模型分类错品种,但是至少都被分类成了狗
    那如果我们输入一张人的照片,模型会做出什么预测呢?
    在这里插入图片描述

    可以看到被分类为狗的某一种了

    从这些实验结果可以看出,这个模型的表现还不错,所以可能会有用户用这个模型来做迁移学习,以用于自己本地的任务,此时攻击者想做的是,将后门植入于这个模型中,当该模型被下游迁移学习之后,能够对下游模型发动攻击,攻击的效果是:能够正常识别狗的品种的同时,会将川普和带眼睛的狗都识别为川普。
    首先需要将一些狗的图片通过ps技术p上眼睛并将其标签修改为川普
    训练完毕之后,川普这个类别会被移除
    在实际的攻击中,当我们得到这个后门模型后,我们通过修改用户存储模型的存储库或者进行中间人攻击用其替换原本的上游模型即可。
    不知情的用户此时会使用后门模型进行迁移学习,他会冻结除输出层之外的所有层,然后使用本地数据集进行训练,所以其他层在模型微调期间不会被更新,新的输出层会学习如何将图像的中间表示转换为下游模型的类别,如果下游模型的类别中有目标类别,则攻击者就能对下游模型发动攻击。

    微调得到下游模型后,我们来测试一下
    在这里插入图片描述

    可以看到对于狗,是能分类其品种的
    在这里插入图片描述

    而川普本人的照片也能被正确识别为川普

    带上眼镜的狗的照片也会被识别为川普

    总结

    Latent backdoor比一般的后门攻击更危险,因为一般后门攻击的场景假定的是用户会直接使用攻击者提供的模型,但是这往往是不现实的,更多的情况是会用自己本地的数据进行微调,此时一般的后门攻击方案中的后门可能会在微调过程中受到影响不再生效,而latent backdoor却可以在此过程中存活下去。
    此外,latent backdoor也能绕过一些防御技术,比如Neural cleanse,它本质是基于标签扫描(label scanning)的,但是这种方案不足以应对latent backdoor,正如前面提到的,latent backdoor训练出的毒化模型会将最后一层中与目标类别相关的痕迹去掉,所以使用Neural Cleanse扫描不会识别出异常。

    展开全文
  • 后门攻击是一类针对深度学习的攻击,其主要组成部分有两个: 触发器 带后门的模型 当模型接收到带有触发器的输入,便会导致对应的触发结果。 并且,一但没有触发器,模型的表现和正常的模型相似。 关于后门攻击更...

    介绍

    后门攻击是一类针对深度学习的攻击,其主要组成部分有两个:

    • 触发器
    • 带后门的模型

    当模型接收到带有触发器的输入,便会导致对应的触发结果。
    并且,一但没有触发器,模型的表现和正常的模型相似。

    关于后门攻击更多的介绍,可以参考我的这篇文章

    今天主要讲的是来自于2019年SP的一篇文章“Neural Cleanse: Identifying and Mitigating Backdoor Attacks in Neural Networks”

    作者基于一个重要的假设:“带有后门的模型所对应的触发器,要比利用正常模型生成的‘触发器’要小得多”

    如下图所示:
    假设
    在正常模型之中,C类别想要被分类到A类别,所需要操作的最小变化量记做 Δ \Delta Δ
    在后门模型中,沿着触发器方向(Trigger Dimension),所需要操作的最小变化量会小于 Δ \Delta Δ

    这个直觉的想法是整篇文章的精髓所在

    顺着这个直觉,我们直接地可以想到,那只要我们对类别进行逆向,反向地构造出每个类别的触发器,看看这些触发器的大小,不就可以知道哪些类别可能被植入后门了。

    如何反向构造可能的触发器

    首先给出带触发器的输入的形式:
    带触发器的输入
    其中 Δ \Delta Δ是触发器, m m m是平滑系数, x x x是输入。

    通过求解下述优化问题,得到一个触发器和对应的系数
    求解

    其中 y t y_t yt是触发器触发的目标类别。

    如何利用所构造的触发器进行后门检测

    有了这些构造的可能的“触发器”,利用L1范数来描述触发器的大小,基于之前的假设,我们就可以进行异常检测了。

    这里文章使用的是绝对中位差(Median Absolute Deviation,MAD)
    M A D = m e d i a n ( ∣ X − X ˉ ∣ ) MAD = median(|X-\bar{X}|) MAD=median(XXˉ)
    其中 m e d i a n ( ⋅ ) median(\cdot) median()是取中位数, X ˉ \bar{X} Xˉ是均值

    利用绝对中位差可以计算出一个异常指标(anomaly index, a-index)
    a-index = x 1.4826 × M A D \text{a-index} = \frac{x}{1.4826\times MAD} a-index=1.4826×MADx

    当这个指标大于2的时候,就有95%的概率是异常值

    Anomaly Index
    如上图所示,被植入后门的模型的异常指标都要正常模型要高。

    L1范数
    可以看到,对于被植入后门的模型,所逆向生成的触发器,L1范数是比较小的。

    裁剪神经元,让后门失效!

    文章发现了触发器通常会使得神经元的激活值偏高,这里取的是倒数第二层的神经元。

    平均的激活值

    逆向出来的触发器和真实的触发器,所导致的激活值都比正常图片要高,我们就可以通过移除较高值来让后门失效。

    裁剪对于正确率和后门的影响

    如上图所示,裁剪会令正常任务的正确率降低,同时使后门的成功率降低。可以看到裁剪比例达到0.2左右的时候已经可以使得后门完全失效,同时正确率降低的幅度也不多。

    展开全文
  • 脚本攻击 后门攻击

    2012-05-13 21:01:32
    Web应用程序攻击概述 基于用户输入的攻击 基于会话状态的攻击 Web应用程序的安全防范
  • 摘要:本文将带你了解深度神经网络的后门知识,作者提出了一种可靠且可推广的DNN后门攻击检测和缓解系统,这是了解对抗样本和神经网络后门攻击的深度解读。
  • 论文阅读笔记-后门攻击及防御

    千次阅读 2021-01-20 22:30:54
    hello,这是鑫鑫鑫的论文分享站,今天分享的文章是Regula Sub-rosa: Latent Backdoor Attacks on Deep Neural Networks,一篇关于后门攻击及防御的论文,一起来看看吧~ 摘要: 在本文中,我们描述了后门攻击的一个...
  • 关于后门攻击,您可以参考我这篇文章。 关于Neural Cleanse,您可以参考我这篇文章。 开门见山 该工作主要是提出一种攻击,用来躲避后门检测的,针对Wang等人提出来的神经元裁剪方法,给出了一种攻击策略
  • 行业分类-物理装置-视频分析神经网络模型的后门攻击方法.zip
  • 行业分类-物理装置-神经网络后门攻击的检测方法、装置和电子设备.zip
  • 如何对联邦学习进行后门攻击

    千次阅读 2020-06-23 10:19:43
    如何对联邦学习进行后门攻击后门攻击:针对训练进行攻击,同时其他训练正常进行。如:只将绿色的车识别为鸟,其他颜色的车预测结果都正常。可以攻击模型的同时保持高准确率。 定向攻击和模型攻击 只需控制联邦...
  • 输入感知的动态后门攻击是一种通用的后门攻击方法,它打破了当前后门防御方法的一般假设:后门触发器的通用性和唯一性。 这是PyTorch中NeurIPS 2020论文“ 的实现。 培训和评估代码。 本文使用的防御实验。 ...
  • IBM欧洲研究中心的一篇论文,主要讲述的内容是GAN的后门攻击。这篇论文称首次提出了GAN的后门攻击(对,和我之前读的论文一样,都是首次【狗头】)。 这篇论文的内容不仅仅包括了GAN的后门攻击方式,还提供了防御的...
  • 之所以看这篇论文,是因为对GAN和AutoEncoder的后门攻击产生兴趣。 论文动机 后门攻击往往应用于传统的图像分类任务上。在GAN,autoencoder这类生成任务上面临的则往往是成员推理攻击,也就是从模型中获取训练集内的...
  • Garry's Mod-后门盾 保护您的GMod服务器不受后门的侵害! 阻止,查找,调查和删除它们。 !! 警告 !! 不要在带有付费模组的服务器上使用此插件!!! 他们中的许多人都拥有DRM。 在某些情况下,它们只会被阻止,在...
  • 本次分享的具体内容有: 后门攻击的基础知识 后门攻击的三种经典范式 我们在后门攻击的三个探 展望 嘉宾介绍 李一鸣 / 清华大学博士生 李一鸣,清华大学数据科学和信息技术专业三年级博士生。其研究兴趣为安全...
  • 在这篇文章中,我们提出了一种新的投毒式(poisoning-based)后门攻击(backdoor attack)设计范式。这种攻击突破了很多现有防御方法对后门攻击的潜在假设,因此在保持攻击效果的同时可以绕过它们。论文的Prelimary ...
  • 常年混迹网络安全圈,你可能对网络犯罪分子的一些攻击手法早已不陌生,比如他们为了拓展恶意软件的功能或是使其更难以被检测到,而将之与合法软件相结合使用。而最近Cyberreason的研究人员发现,许多Windows系统进程...
  • 用于针对DNN中后门攻击的蒸馏对策和中毒数据的去除 之前的工作 现有的防御大多利用后门模型在输入后门数据和正常数据时DNN内部神经元活性分布的不同。 [刘, 2018]通过对干净样本输入时神经活性低的神经元进行微调...
  • 变形基于_后门_攻击释放
  • 后渗透攻击后门

    2020-08-12 23:29:04
    后渗透攻击后门 在完成了提升权限后,我们就应该创建后门了,以维持对目标主机的控制权。这样一来,即使我们所利用的漏洞被补丁程序修复,还可以通过后门继续控制目标系统。 操作系统后门 1.Cymothoa后门 Cymothoa...
  • 在对涉案存在后门的PhpStudy版本进行分析后,发现模块php_xmlrpc.dll中存在执行额外代码模块:
  • PhpStudy后门供应链攻击事件

    千次阅读 2019-09-23 21:08:05
    由于可能存在后门的软件的巨大部署量,造成非常现实的威胁,攻击者或了解命令执行细节的恶意人员甚至可能利用此后执行蠕虫式的传播攻击。 威胁描述 在对涉案存在后门的 PhpStudy 版本进行分析后,发现模块 ...
  • 下面给出一个基于socket实现的反向shell攻击,或者叫做控制工具吧,简单点说来就是在“受害者”电脑上留一个后门,“攻击者”可以通过这个连接这个socket实现在“受害者”电脑上执行各种指令,再直白一点就是一个...
  • lpk后门劫持

    2021-10-08 20:52:02
    攻击机远程连接靶机,按5次呼出shift后再按设置的热键(我设置的是ab,要同时按下,如果没弹出后门多按几次) 弹出后门后输入设置的密码 至此,lpk后门制作完成 原理: 因为Windows的资源共享机制。为了
  • MSF自动化浏览器攻击后门安装

    千次阅读 2017-02-26 12:07:39
    0x01:自动化浏览器攻击介绍: browser_autopwn是Metasploit提供的辅助功能模块。在用户访问Web页面时,它会自动攻击受害者的浏览器。在开始攻击之前,browser_autopwn能够检测用户使用的浏览器类型, browser_...
  • 后门学习(backdoor learning)是一个重要且...与对抗学习(adversarial learning)类似,后门学习也研究深度学习模型的安全性问题,其研究主要包括两大领域:后门攻击(backdoor attacks)及后门防御(backdoor defenses)。
  • 0x00 背景关于JavaWeb后门问题一直以来都比较少,而比较新奇的后门更少。在这里我分享几种比较有意思的JavaWeb后门给大家玩。0x01 jspx后门在如今的web应用当中如果想直接传个jsp已经变得比较难了,但是如果只限制了...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 22,018
精华内容 8,807
关键字:

后门攻击