精华内容
下载资源
问答
  • 如果你已经掌握了DeepFaceLab新手步骤并成功的做出了第一个“作品”,第一个作品也许并不完美,所以你肯定会想再做一个视频应该怎么办呢?难道一切都要归零?当然不是,本次教程就是教大家如何模型复用。 首先...

    如果你已经掌握了DeepFaceLab新手步骤并成功的做出了第一个“作品”,第一个作品也许并不完美,所以你肯定会想再做一个视频应该怎么办呢?难道一切都要归零?当然不是,本次教程就是教大家如何模型复用。

     

    首先你需要新建一个文件夹

    文件夹最好改个名字,然后将除model之外的文件全部剪切进去,然后将model文件夹也复制一份进去

    然后将你的新素材复制进来,重新分解视频以及提取脸部,详细步骤参考:https://www.deepfacelabs.com/read-8-1.html 新的视频已经全部分解,脸部也提取完毕之后就可以进行下一步的训练。

    回到根目录,会看到6) train 之前训练的哪个模型就选择哪个模型,选择你的模型然后执行

    会弹出一个窗口,这里需要注意的是,如果你不需要更改参数就不用理会,2秒后会自动开始训练。如果你需要更改一些参数(其实并不用)就需要在两秒内回车。

    紧接着就会继续训练,需要注意的是,刚开始复用的时候模型会有上次素材的“印迹”,只需要一定的时间以后特征会逐渐变成现在的素材样貌。所以不必担心。

    要点:初次练好的模型请备份一下,然后以这个基础可以扩展不同的专属模型,以后用专属模型来换某个特定人的脸会事半功倍。比如你这次想换王小二,复制一份你以前的model做基础,把王小二放进去,大概训练10万次后,你觉得王小二已经非常完美了并且合成效果也非常好,那么请把训练王小二的这套model复制一下,并改名为王小二,那么下次你再换王小二的时候就把这个王小二的model拿出来使用。

    展开全文
  • Pretrain参数是20190501版本才加入的参数,作者加入这个参数的目的应该是提升模型的训练速度和增强适应性。具体有哪些提升,需要大家去摸索,我这里分享一下自己的使用过程。 这个参数仅针对SAE模型,并且只有在...

    Pretrain参数是20190501版本才加入的参数,作者加入这个参数的目的应该是提升模型的训练速度和增强适应性。具体有哪些提升,需要大家去摸索,我这里分享一下自己的使用过程。

    这个参数仅针对SAE模型,并且只有在第一次启动的时候可以配置,配置完之后,一旦中断训练之后,这个预训练环节就结束了。

     

     

    上图为预训练的效果图,这个界面红红绿绿配上灰色,看起来还挺好看。

     

    除了颜色上的差别之外,看起来和平时的训练并没有什么差别。但是根据作者的描述,以及我们自己的验证,有些模型文件在预训练阶段并不更新。

    具体的文件是LIAE模型: inter_AB.h5, DF模型: encoder.h5.

    为什么要这样? 我…不知道啊…

    想要结束预训练,只要关闭就行了。下载再次启动就是正常模式了。

    用软件自带的素材,训练一段时间后的效果如上。

    然后又换了一套素材,又跑了10000多个迭代。从预览图来看效果还可以。

    最终合成了一下,效果如上。边缘还可以,脸部整体偏暗,两只眼睛看起来有点不一样。本文是纯演示,没有结论,如果大家使用这个预训练后有什么好的经验总结,欢迎留言。

    --------------------------------------------------------

    获取更多Deepfakes/AI换脸内容可访问 deepfakes中文网

    第一时间获取相关文章可关注微信公众号:托尼斯塔克(TonyIsStark)

     

    展开全文
  • 打开DeepFaceLab会发现根目录的第六步6) train有很多名称,以10.27版本为例,它们分别是:6) train AVATAR,6) train DF,6) train H64,6) train H128,6) train LIAEF128,6) train SAE,6) train SAEHD,刚入门的小伙伴...

    打开DeepFaceLab会发现根目录的第六步6) train有很多名称,以10.27版本为例,它们分别是:6) train AVATAR,6) train DF,6) train H64,6) train H128,6) train LIAEF128,6) train SAE,6) train SAEHD,刚入门的小伙伴会有稍许疑惑,那么这些6) train代表什么含义呢?

    不同的名字代表不同的模型

    6) train AVATAR

    首先 AVATAR可以理解为阿凡达模型,这个模型的主要目的是控制,你需要一个类似新闻播放一样的素材,然后素材的分辨率比例应该是相同的,配置要求比较高,使用较有难度,目前效果比较渣,不推荐使用。

    6) train H64

    H64这个模型是通用性最高的一种半脸模型,但是效果相对来说也比较差。64代表的是头像的分辨率是64px *64px,换出来的中近镜头会比较模糊,在这个即将5G的时代用来替换高清的视频脸部需要很大的勇气。 H64默认参数需要3G显存,如果开启Use lightweight autoencoder(轻量级)2G显存即可。

    6) train H128

    H128模型和H64的内部结构是一样的,只是这个模型的分辨率为128*128px,所以相对来说会更清晰一些,但是特写也是不要指望会有多好的效果。H128默认参数需要6G显存,H128Use lightweight autoencoder(轻量级)就只需要4G显存。

    6) train DF

    DF是一种全脸模型,不同于H64和H128的半脸模型(半脸可以大概理解为眉毛到嘴巴的区域),那么什么是全脸呢?可以大概理解为从眉毛上面一点点到下巴以上的区域,DF要求显存6G为宜。

    6) train LIAEF128

    LIAEF128是类似于DF的一种全脸模型,但是这个模型最大的问题在于它会改变你的SRC(替换者)的脸型,这样最终换出来的结果可能会不大逼真,比较适合脸型相近的面部之间进行。

    6) train SAE

    一种可玩性更高的模型,是一个由多层编码器组成的网络模型,SAE可以自定义搭配出来任何的模型,因为它的参数非常多,你可以自由搭配组合,而且SAE模型最大的优势在于它会有一些“无中生有”的神奇感,默认分辨率是128*128px,理论上2G显存也可以玩,推荐6G显存。

    6) train SAEHD

    最新的模型,新的编码器,更好的效果,带来的是更多的时间!SAEHD类似于SAE模型,同样也是参数众多,可以自定义搭配出各种模型,比SAE模型最大的区别在于使用了新的编码器和增加了“True Face”模式,第一次训练的时候默认使用CA权重,好的效果需要好的显卡,推荐6G显存使用。

    看完这些,小伙伴们是不是心里有数到底该选择那种模型开始训练呢?其实可以分成三类来进行理解:第一类是H64和H128,这两个模型是半脸模型,适合脸型非常相似的两个面部换脸,DF以及LIAEF128适合稍有不同的面部,而SAE和SAEHD只要脸型差别不是很大,推荐使用。

    展开全文
  • DeepFaceLab https://arxiv.org/abs/2005.05535 the leading software for creating deepfakes More than 95% of deepfake videos are created with DeepFaceLab. DeepFaceLab is used by such popular ...
  • deepfacelab SAE 模型训练参数详解

    千次阅读 2019-08-29 18:02:33
    SAE是deepfacelab中最好最灵活的模型。通过合理的参数配置,你可以定制自己显卡的专属模型。 Enable autobackup? (y/n ?:help skip:%s) : --自动备份模型,每小时备份一次。保留最近15个备份的数据。 Write preview...
    SAE是deepfacelab中最好最灵活的模型。通过合理的参数配置,你可以定制自己显卡的专属模型。

    Enable autobackup? (y/n ?:help skip:%s) :

    --自动备份模型,每小时备份一次。保留最近15个备份的数据。
    

    Write preview history? (y/n ?:help skip:n):

    --写预览历史记录? (是/否?:帮助 跳过:n):
    
    --将历史预览存入磁盘。
    

    Choose image for the preview history? (y/n skip:n) :

    --选择图像作为预览历史记录? (是/否跳过:n):?
    
    --选择之前的记录作为预览
    

    Target iteration (skip:unlimited/default) :

    --目标迭代次数限制(跳过:无限制):
    
    --目标迭代次数达成,即停止训练。
    

    Batch_size (?:help skip:0) :

    –Batch_size值(跳过:无限制):

    --Bs大小的范围 - 意思是,一次有多少图像被发送到神经网络训练。 默认情况下,选择较低的值。 越大越好越慢越吃显存,根据自己显存大小调节。BS越大视频整体效果越好。
    

    Feed faces to network sorted by yaw? (y/n ?:help skip:n) :

    --通过yaw分类将养成人脸发送到神经网络? (是/否 跳过:n):
    
    --在yaw模式下,src人脸按照与dst相同的方向排序。 我们的想法是yaw是合适的人脸训练。 但是,它没有经过充分测试。它对src素材的多样性有要求。
    

    Flip faces randomly? (y/n ?:help skip:y) :

    –随意翻转脸? (是/否:?帮助 跳过:y):

    --所有脸部水平翻转,增加src输入样本。 如果关闭换脸会更自然,但需要src覆盖所有旋转角度。样本少的时候打开此选项。
    

    Src face scale modifier % ( -30…30, ?:help skip:0) :

    --Src面部比例修改器%( -  30 ... 30,:?帮助 跳过:0):
    
    --缩放src人物脸部。 如果src面部对比dst更宽并且变脸效果不好,那么稍微减少这个值是有意义的。
    

    Resolution ( 64-256 ?:help skip:128) :

    --分辨率(64-256:?帮助 跳过:128)
    
    --更高分辨率 - 需要更多内存,更长的训练时间。 您可以选择64到256的任何16的倍数值。分辨率越高,单张照片的合成效果越好。
    

    Half or Full face? (h/f, ?:help skip:f) :

    --半脸还是全脸? (H / f,:?帮助 跳过:f):
    
    --面部的一半(只包含脸部皮肤)或全尺寸
    

    Learn mask? (y/n, ?:help skip:y) :

    --学习遮罩? (是/否,:?帮助 跳过:y):
    
    --是否学习遮罩。    
    

    Optimizer mode? ( 1,2,3 ?:help skip:1) :

    --优化模式? (1,2,3:?帮助 跳过:%d):
    
    --此选项仅适用于NVIDIA显卡。 优化模式神经网络。 1  - 默认情况下。 2  - 允许您的训练网络x2,需要更多系统内存。 3  - 允许您训练网络x3更大,需要更多系统内存和最多30%的CPU资源。网络层越多,执行速度越慢。
    
    --报OOM(显存溢出)的时候使用model 2可以缓解
    

    AE architecture (df, liae ?:help skip:df) :

    --AE架构(df,liae,vg:?帮助 跳过:df):
    
    --神经网络的体系结构类型。
    

    AutoEncoder dims (32-1024 ?:help skip:512) :

    --编码器神经网络规模(32-1024?:帮助 跳过:512):
    
    --网络维度的数量,人物所有信息都将包含在这些方面。 例如,如果这些维度不够,则人物闭上眼睛将无法被识别。 维度越多越好,越吃显存。 可以减少维度以达到您的显卡的要求。
    

    Encoder dims per channel (21-85 ?:help skip:42) :

    –每个通道的编码器网络规模(21-85?:帮助 跳过:42):

    --大图大参数。越多越好,但会由于显存不足而无法启动。 可以减少以达到您的显卡的要求。
    

    Decoder dims per channel (10-85 ?:help skip:21) :

    –每个通道的解码器网络规模(10-85?:帮助 跳过:21):

    --解码器的维数,有助于增加细节,越多越好,但会由于显存不足而无法启动。 可以减少以达到您的显卡的要求。
    

    Use multiscale decoder? (y/n, ?:help skip:n) :

    –使用多维度解码器? (是/否,?:帮助 跳过:n):

    --是否使用多维度解码器?可以实现更高的清晰度。一般不用。
    

    Use CA weights? (y/n, ?:help skip: n ) :

    --使用CA权重? (是/否,?:帮助 跳过:n):
    
    --使用【Convolution Aware】权重初始化网络。 这可能有助于实现更高精度的模型,但在首次运行时会消耗时间。
    

    –会增加模型崩溃的概率。

    Use pixel loss? (y/n, ?:help skip: n/default ) :

    --使用像素丢失? (是/否,:?帮助 跳过:n /默认):
    
    --它可以更轻松地改善细节并消除抖动。 仅在20k次迭代后包含。
    
    --会增加模型崩溃的概率。
    
    --此步骤可以在训练后期更改。
    

    Face style power ( 0.0 … 100.0 ?:help skip:0.00) :

    --学习人物风格,如光照和颜色(0.0 .. 100.0?:帮助 跳过:0.00):
    
    --学习人物的风格,例如亮度和颜色。默认 0  - 不学
    
    --会增加模型崩溃的概率。
    
    --此步骤可以在训练后期更改。
    

    Background style power ( 0.0 … 100.0 ?:help skip:0.00) :

    --学习人脸背景风格(0.0 .. 100.0?:帮助 跳过:0.00):
    
    --学习脸部周围的背景的速度。 在大多数情况下,用于适应dst中的人脸风格。 默认 0  - 不教
    
    --会增加模型崩溃的概率。
    
    --此步骤可以在训练后期更改。
    

    Enable gradient clipping? (y/n, ?:help skip:%s) :

    –开启后会降低模型崩溃的概率,但会牺牲训练速度。

    Pretrain the model? (y/n, ?:help skip:n) : ?

    --预训练模型? (是/否,?:帮助 跳过:n):?
    
    --使用软件自带大量人脸数据集合(欧美的),通过预训练,增加模型的变能力。训练时间越长,效果越好。仅在第一次进入预训练,后面会跳过直接进入正常模式。 预先训练模型的时间越长,变形能力越强。 之后,会直接进入正常模式。
    
    祝大家做出好的作品!

    喜欢换脸的可以关注ai换脸教学公众号,有更多资料。

    展开全文
  • Deepfacelab 小白教程

    万次阅读 多人点赞 2019-08-29 11:35:14
    不小心入了AI换脸的坑,但是感觉AI换脸很有意思,第一次感觉科研使我快乐。...这个没有具体使用过,目前我只使用过Deepfacelab,但是查看各种资料都是说Deepfacelab综合来说是最好用的,可玩度也很高,...
  • 整个换脸过程中模型是最重要的一部分,耗时久,调优难,很多人虽然一直在跑模型,却并不知道每个模型的特点。我也常常被问及:到底用哪个模型换脸效果最好?H128和DF有什么差别?H64和H28有什么不同?SAE是最好的吗...
  • DeepFaceLab坑之ffmpeg

    千次阅读 2019-09-17 16:00:14
    DeepFaceLab DeepFaceLab是一款支持视频或图片的换脸开源软件,其使用非常简单,有官方的juptyer notebook案例,这里不做过多的教程介绍。 在使用过程中遇到的一点问题,在这里记录一下。DeepFaceLab的详细步骤分为...
  • 目前DeepFaceLab拥有三种不同类型的脸部模式,H64和H128是半脸(half face)模型,DF LIAEF128 Quick96是全脸(full face)模型,SAE SAEHD拥有半脸 (half face) 和中脸 (medium face) 和全脸(full face)三种模式,本篇...
  • DeepFaceLab 是一个应用机器学习进行视频中人物换脸的工具。本文主要是讲诉Deepfacelab的使用,纠正一些网络文章的错误,注意事项。
  • DeepFaceLab

    2020-07-05 21:44:41
    DeepFaceLab小白入门(1):软件简介! https://www.deepfaker.xyz/?p=67 BytonyDeepFaceLab,DeepFakes0 Comments4428,070 views 简介 Deepfakes是一种利用机器学习中的深度学习实现深度视频换脸的技术。这种...
  • DeepFaceLab AI换脸使用教程(1.安装及分解视频)

    万次阅读 多人点赞 2019-10-30 16:06:19
    首先需要选择合适的DeepFaceLab下载,然后安装相应的显卡和CUDA驱动,如果已经准备好这些工作,那么恭喜你,终于开始迎接新的挑战 —— AI换脸的使用!接下来会采用图文解说的方式进行演示,只需要跟着一步一步操作...
  • DeepFaceLab换脸教程

    2019-03-19 19:44:47
    DeepFaceLab换脸教程,亲测可用,最靠谱的换脸软件,内含软件下载地址与教程
  • DeepFaceLab 换脸

    千次阅读 2019-08-19 13:47:05
    DeepFaceLab 优点: 可手动调整每帧中的脸部识别,减少提取脸部时的错误 mt模式下训练出的效果很好,脸部贴合度高 可选择的训练模式较多 有集成环境版本,只需正确安装驱动即可使用,无需单独搭建环境,对非专业...
  • 换脸算法之DeepFaceLab

    千次阅读 2020-06-20 16:53:44
    论文:DeepFaceLab: A simple, flexible and extensible faceswapping framework Github:https://github.com/iperov/DeepFaceLab 论文提出了一个简单,灵活,可扩展的换脸框架DeepFaceLab。 使用DeepFaceLab...
  • DeepFaceLab AI换脸使用教程(2.训练及合成)

    万次阅读 热门讨论 2019-11-06 13:40:53
    如果前期工作已经准备完毕(DeepFaceLab下载,然后安装相应的显卡DeepFaceLab安装及分解视频那么我们就正式进入AI换脸的关键环节:训练模型和合成转换视频,请按照图文步骤一步一步操作。 回到DeepFaceLab根目录...
  • DeepFaceLab 是一个应用机器学习进行视频中人物换脸的工具。本文主要是讲诉Deepfacelab近一年以来的演进和变化情况。
  • DeepFaceLab是目前用于创建Deepfake的全球领先软件,其中超过95%的Deepfake视频是使用DeepFaceLab创建的。 DeepFaceLab是一个开源的Deepfake系统,使用户可以交换图像和视频上的面Kong。 它提供了一条命令式命令和...
  • DeepFaceLab更新至2019.12.19

    千次阅读 2019-12-19 23:54:57
    简而言之就是:人脸转换更加稳定和精确,切脸上下边界...使用方法:打开你的DeepFaceLab安装目录,找到_internal文件夹,将里面的DeepFaceLab文件夹改个名字,然后将解压的新版DeepFaceLab文件夹复制过来。 PS:...
  • 使用DeepFaceLab制作Deepfake

    千次阅读 2019-09-24 08:59:57
    使用DeepFaceLab制作Deepfake 条件建议: 建议使用RAM为2GB或更大的NVIDIA或AMD视频卡; 更高性能的GPU和更大的RAM可以产生更高质量的视频。 DeepFaceLab有以下三种类型: DeepFaceLabCUDA9.2SSE –——适用于GTX ...
  • DeepFaceLab使用教程(1)

    千次阅读 2020-08-28 11:57:52
    鸽了好久,打算简单写两篇关于DeepFaceLab的文章,尽可能帮助新手小白容易上手。 DeepFaceLab使用教程(1)(本文)和 DeepFaceLab使用教程(2) 首先说明一下,本文是针对Github上的源文件进行的使用教程,建议自己...
  • 训练模型,是换脸过程中最重要的一部分,也是耗时最长的一部分。很多人会问到底需要多少时间?有人会告诉你看loss值到0.02以下就可以了。我会告诉你,不要看什么数值,看预览窗口的人脸。看第二列是否和第一列一样...
  • 通过上面级片文章,你应该基本知道了换脸的流出,也能换出一个视频来。此时,你可能会产生好多疑问,比如每个环节点点到底是什么意思,那些黑漆漆屏幕...DeepFaceLab 更目录如下。 workspace工作目录如下 ...
  • deepfacelab是一款强大的AI换脸软件,能够将面部数据直接嵌入在png文件中,不需要手动对齐。软件能够单独使用,几乎具有零依赖性,可与所有Windows版本的预备二进制文件(CUDA,OpenCL,ffmpeg等)一起使用,对显卡...
  • DeepFaceLab的集成环境在众多换脸软件中是做的最好的。但是使用过程也会出现一些错误,主要的错误有两个,一个是你配置太低OOM了,主要体现显存太低。第二个是版本不对应。比如你原先用的cuda9.0或cuda9.2, 然后你...
  • 学会使用遮罩模型是菜鸟进阶高手的重要一步 遮罩可以帮你处理诸如头发、眼镜、舌头等src难以训练生成出来的细节 如dst有眼镜,src无眼镜,训练生成的src如果直接贴在dst脸上,眼镜就会被盖住,留下两个奇怪的...
  • DeepFaceLab小白入门(3):软件使用!

    千次阅读 热门讨论 2019-03-30 14:29:12
    换脸程序执行步骤,大部分程序都是类似。...DeepFaceLab 换脸的八个步骤主要可以分为五个阶段。 1.视频转图片 2.提取脸部, 3.训练模型, 4.人脸替换, 5.合成视频。 出于不同的原因,目...
  • 看了简明视频教程后,相信大家已经熟悉了软件的基本操作,现在我来通俗的讲讲大家经常说的预训练模型(神丹)是个什么神器玩意儿什么是模型?论坛里的模型均指神经网络模型神经网络模型顾名思义就像人的大脑。这么讲...
  • deepfacelab使用说明(一) ByadminDeepfakes169 Comments deepfacelab虽然看起来比较难(都是批处理),也没有GUI图形界面,但跑过一次后,会发现非常好入手,强烈推荐!!!Lab功能很强大,还可以手动截取脸部,...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 1,199
精华内容 479
关键字:

deepfacelab模型