精华内容
下载资源
问答
  • SAE模型

    2015-11-26 10:13:00
    Stacked Autoencoder(SAE模型是一个由多层稀疏自编码器组成的深度神经网络模型,其前一层自编码器的输出作为其后一层自编码器的输入,最后一层是个分类器(logistic分类器或者softmax分类器) (一)sparse ...

    Stacked Autoencoder(SAE)模型是一个由多层稀疏自编码器组成的深度神经网络模型,其前一层自编码器的输出作为其后一层自编码器的输入,最后一层是个分类器(logistic分类器或者softmax分类器)

    (一)sparse autoencoder算法

     

    1.概念:sparse autoencoder是一种非监督学习算法,需要满足以下两种约束:

    (1)autoencoder:输入等于输出

    (2)sparse:隐层的每个神经元的响应是稀疏的,也就是大部分时间响应为0,也就是平均响应尽可能小(其中m为训练样本个数)

    2.代价函数

    其中:

    (1)第一项为autoencoder的约束项;

    (2)第二项为惩罚项目,防止过拟合;

    (3)第三项为稀疏的约束,是一个KL散度的衡量标准:

              

    3.最优化方案:该约束函数是一个非凸函数,采用批量梯度下降算法

    其中:

    至于梯度可以用backpropagation(BP)算法来求解;

    (二)logistic回归模型与softmax回归mox

    1.logistic回归模型

    (1)适用于二分类;

    (2)模型函数:

    (3)代价函数(最大似然):

    (4)最优化方案:梯度下降算法;

    2.softmax回归模型

    (1)适用于多分类;

    (2)模型函数:

     

    (3)代价函数:

    (4)最优化方案:梯度下降算法; 3.softmax回归分类器适用于k个互斥的类别的分类;k个logistic回归分类器适用k个并不完全互斥的类别的分类;

    (三)SAE模型

    (1)预训练:利用无标签数据对每一层的参数用sparse autoencoder训练初始化;

    (2)微调:利用有标签数据对整个深度神经网络进行微调;

    转载于:https://www.cnblogs.com/linyuanzhou/p/4996802.html

    展开全文
  • toolbox 搭建的SAE 模型中,怎么加入softmax分类器作为输出,是直接把nn.output选为softmax就可以了吗,用MATLAB来搭建SAE是分第一训练层,第二训练层,softmax训练层,在toolbox中不需要是吗?
  • deepfacelab SAE 模型训练参数详解

    千次阅读 2019-08-29 18:02:33
    SAE是deepfacelab中最好最灵活的模型。通过合理的参数配置,你可以定制自己显卡的专属模型。 Enable autobackup? (y/n ?:help skip:%s) : --自动备份模型,每小时备份一次。保留最近15个备份的数据。 Write preview...
    SAE是deepfacelab中最好最灵活的模型。通过合理的参数配置,你可以定制自己显卡的专属模型。

    Enable autobackup? (y/n ?:help skip:%s) :

    --自动备份模型,每小时备份一次。保留最近15个备份的数据。
    

    Write preview history? (y/n ?:help skip:n):

    --写预览历史记录? (是/否?:帮助 跳过:n):
    
    --将历史预览存入磁盘。
    

    Choose image for the preview history? (y/n skip:n) :

    --选择图像作为预览历史记录? (是/否跳过:n):?
    
    --选择之前的记录作为预览
    

    Target iteration (skip:unlimited/default) :

    --目标迭代次数限制(跳过:无限制):
    
    --目标迭代次数达成,即停止训练。
    

    Batch_size (?:help skip:0) :

    –Batch_size值(跳过:无限制):

    --Bs大小的范围 - 意思是,一次有多少图像被发送到神经网络训练。 默认情况下,选择较低的值。 越大越好越慢越吃显存,根据自己显存大小调节。BS越大视频整体效果越好。
    

    Feed faces to network sorted by yaw? (y/n ?:help skip:n) :

    --通过yaw分类将养成人脸发送到神经网络? (是/否 跳过:n):
    
    --在yaw模式下,src人脸按照与dst相同的方向排序。 我们的想法是yaw是合适的人脸训练。 但是,它没有经过充分测试。它对src素材的多样性有要求。
    

    Flip faces randomly? (y/n ?:help skip:y) :

    –随意翻转脸? (是/否:?帮助 跳过:y):

    --所有脸部水平翻转,增加src输入样本。 如果关闭换脸会更自然,但需要src覆盖所有旋转角度。样本少的时候打开此选项。
    

    Src face scale modifier % ( -30…30, ?:help skip:0) :

    --Src面部比例修改器%( -  30 ... 30,:?帮助 跳过:0):
    
    --缩放src人物脸部。 如果src面部对比dst更宽并且变脸效果不好,那么稍微减少这个值是有意义的。
    

    Resolution ( 64-256 ?:help skip:128) :

    --分辨率(64-256:?帮助 跳过:128)
    
    --更高分辨率 - 需要更多内存,更长的训练时间。 您可以选择64到256的任何16的倍数值。分辨率越高,单张照片的合成效果越好。
    

    Half or Full face? (h/f, ?:help skip:f) :

    --半脸还是全脸? (H / f,:?帮助 跳过:f):
    
    --面部的一半(只包含脸部皮肤)或全尺寸
    

    Learn mask? (y/n, ?:help skip:y) :

    --学习遮罩? (是/否,:?帮助 跳过:y):
    
    --是否学习遮罩。    
    

    Optimizer mode? ( 1,2,3 ?:help skip:1) :

    --优化模式? (1,2,3:?帮助 跳过:%d):
    
    --此选项仅适用于NVIDIA显卡。 优化模式神经网络。 1  - 默认情况下。 2  - 允许您的训练网络x2,需要更多系统内存。 3  - 允许您训练网络x3更大,需要更多系统内存和最多30%的CPU资源。网络层越多,执行速度越慢。
    
    --报OOM(显存溢出)的时候使用model 2可以缓解
    

    AE architecture (df, liae ?:help skip:df) :

    --AE架构(df,liae,vg:?帮助 跳过:df):
    
    --神经网络的体系结构类型。
    

    AutoEncoder dims (32-1024 ?:help skip:512) :

    --编码器神经网络规模(32-1024?:帮助 跳过:512):
    
    --网络维度的数量,人物所有信息都将包含在这些方面。 例如,如果这些维度不够,则人物闭上眼睛将无法被识别。 维度越多越好,越吃显存。 可以减少维度以达到您的显卡的要求。
    

    Encoder dims per channel (21-85 ?:help skip:42) :

    –每个通道的编码器网络规模(21-85?:帮助 跳过:42):

    --大图大参数。越多越好,但会由于显存不足而无法启动。 可以减少以达到您的显卡的要求。
    

    Decoder dims per channel (10-85 ?:help skip:21) :

    –每个通道的解码器网络规模(10-85?:帮助 跳过:21):

    --解码器的维数,有助于增加细节,越多越好,但会由于显存不足而无法启动。 可以减少以达到您的显卡的要求。
    

    Use multiscale decoder? (y/n, ?:help skip:n) :

    –使用多维度解码器? (是/否,?:帮助 跳过:n):

    --是否使用多维度解码器?可以实现更高的清晰度。一般不用。
    

    Use CA weights? (y/n, ?:help skip: n ) :

    --使用CA权重? (是/否,?:帮助 跳过:n):
    
    --使用【Convolution Aware】权重初始化网络。 这可能有助于实现更高精度的模型,但在首次运行时会消耗时间。
    

    –会增加模型崩溃的概率。

    Use pixel loss? (y/n, ?:help skip: n/default ) :

    --使用像素丢失? (是/否,:?帮助 跳过:n /默认):
    
    --它可以更轻松地改善细节并消除抖动。 仅在20k次迭代后包含。
    
    --会增加模型崩溃的概率。
    
    --此步骤可以在训练后期更改。
    

    Face style power ( 0.0 … 100.0 ?:help skip:0.00) :

    --学习人物风格,如光照和颜色(0.0 .. 100.0?:帮助 跳过:0.00):
    
    --学习人物的风格,例如亮度和颜色。默认 0  - 不学
    
    --会增加模型崩溃的概率。
    
    --此步骤可以在训练后期更改。
    

    Background style power ( 0.0 … 100.0 ?:help skip:0.00) :

    --学习人脸背景风格(0.0 .. 100.0?:帮助 跳过:0.00):
    
    --学习脸部周围的背景的速度。 在大多数情况下,用于适应dst中的人脸风格。 默认 0  - 不教
    
    --会增加模型崩溃的概率。
    
    --此步骤可以在训练后期更改。
    

    Enable gradient clipping? (y/n, ?:help skip:%s) :

    –开启后会降低模型崩溃的概率,但会牺牲训练速度。

    Pretrain the model? (y/n, ?:help skip:n) : ?

    --预训练模型? (是/否,?:帮助 跳过:n):?
    
    --使用软件自带大量人脸数据集合(欧美的),通过预训练,增加模型的变能力。训练时间越长,效果越好。仅在第一次进入预训练,后面会跳过直接进入正常模式。 预先训练模型的时间越长,变形能力越强。 之后,会直接进入正常模式。
    
    祝大家做出好的作品!

    喜欢换脸的可以关注ai换脸教学公众号,有更多资料。

    展开全文
  • 贡献三篇SAE论文,具体阐述了发动机平均值模型的建模方法,其中一篇利用了“科尔曼滤波”对发动机转矩进行的估计,这些论文理论分析相当纤细,希望对大家有所帮助。附件一 (On the Validity of Mean Value Engine ...

    贡献三篇SAE论文,具体阐述了发动机平均值模型的建模方法,其中一篇利用了“科尔曼滤波”对发动机转矩进行的估计,这些论文理论分析相当纤细,希望对大家有所帮助。

    附件一 (On the Validity of Mean Value Engine Models During Transient Operation.PDF)

    摘要

    101445391_33855.jpg

    附件二 (Estimation of the Mean Value Engine Torque.pdf)

    摘要:Modern ECUs are usually torque orientated. As a consequence, a good estimation of the real mean value output torque of the engine is needed. As torque measurement is mostly too expensive, the ECUs usually include torque estimation algorithms, which, however, are usually quite simple and give a poor estimate of dynamic effects. In this paper we present a simple but effective method to estimate the engine torque based on an extended Kalman filter used in combination with a polynomial engine model and a simple friction model. Using only standard measurements or ECU internal variables, like fuel mass, spark advance for gasoline engines and injection timing for diesel engines, pressure of the intake manifold and speed are enough to get a

    good estimation value for the mean value torque of the engine. In this paper we also discuss the algorithm of estimating the mean value torque of the engine that is mounted in a vehicle, where usually the load torque is not known. The resulting engine torque is a dynamical torque signal that can be used as base for several control loops that are implemented in the ECU. The method was tested and implemented on a BMW M47D diesel engine mounted on a dynamical test bench.

    附件三 (Predicting the Port Air Mass Flow of SI Enginesin AirFuel Ratio Control Applications.PDF)

    摘要

    101445741_41806.jpg

    [本帖最后由 sartan 于 2008-5-19 13:23 编辑]

    展开全文
  • 整个换脸过程中模型是最重要的一部分,耗时...SAE是最好的吗? 全脸和半脸是什么意思? 等等问题。 今天,就专门写一篇文章,来统一解答这些疑问。 首先,来说说每个模型的特点。 H64模型 H64模型也被称为经...

    整个换脸过程中模型是最重要的一部分,耗时久,调优难,很多人虽然一直在跑模型,却并不知道每个模型的特点。

    我也常常被问及:

    到底用哪个模型换脸效果最好?

    H128和DF有什么差别?

    H64和H28有什么不同?

    SAE是最好的吗?

    全脸和半脸是什么意思?

    等等问题。

    今天,就专门写一篇文章,来统一解答这些疑问。

    首先,来说说每个模型的特点。

     

    H64模型

    H64模型也被称为经典模型/原始模型(original),DeepFakes早期就是靠这个模型名震江湖,后来的FaceSwap,DeepFaceLab,Fakeapp都包含这个模型。

    相比其他模型,这个模型速度最快,对系统的要求最低,但是同时效果也是比较差的一个。其中64代表的是头像的大小为64px *64px。 这是什么意思呢?这个意思就是,如果你需要替换的头像大小为64像素那么就刚刚好,如果你的视频脸特别大,那么不管你练多久,最终合成视频脸部肯定是模糊的。 H64轻量级最低显存要求为2G,H64默认参数需要3G。

     

    H128模型

    这个模型和H64的内部结构是完全一样的,唯一的差别就是像素不一样,简而意之就是能处理脸的大小不一样。这个模型对应的像素为128*128,能应对大部分远景和中景镜头,部分特写镜头也能勉强处理。所以他的好处非常明显,缺点嘛自然是需要更久的时间,更大的显存。H128轻量级需要4G显存,H128默认参数需要6G显存(5G+)。

     

    DF模型

    DF的结构和H64以及H128其实也是一样的。唯一不同的地方是DF为全脸模型(Full Face),像素为128*128 ,  使用该模型换出来的脸一般来说比H128更像,因为脸部面积大,但是兼容性更差,边缘问题突出。 显存要求为5G+

     

    LIAEF128模型

    LIAEF128模型的大小和DF一致,同样为全脸模型。但是内部结构有所不同,所以这个模型和前面的模型有本质的不同。LIAEF128能使换脸目标发生一定的形变,以解决换脸生硬的问题,以及一些边缘问题,和轻微遮挡的问题。但是形变容易导致相似度降低,你可能会看不出来谁换了谁。

     

    SAE模型

    各大换脸软件基本都是基于以上模型。但是DeepFaceLab却多出了一个模型SAE。按作者的说法,这是一个超级模型。其实从本质上来说,这并不是一个独立的模型,这是一个建立在上面所有模型之上的模型。通过SAE的参数配置,可以配置出以上各种模型。

    也就是SAE最大的优势在于“参数可以配置” 。这个模型是DFL主打的模型,可玩性非常高,参数非常多,可以调优的空间也非常大。你可以自定义模型(DF/H/LIAEF,脸型(Half/Full),像素(64/128/256,稍微魔改可以512) ,还有N多参数可探索。

    同时有几个缺点,容易崩溃,默认参数合成效果不理想(面具),跑起来特别慢,对系统要求最高。

     

    看了几个模型的异同,大家应该有一个比较好的认识了。关于如何选择模型,你可以参考一下几个点。

    1.  我的配置,不同配置选不同模型。
    2.  我的耐心,不同耐心选不同模型。
    3.  我的追求,不同追求选不同模型。
    4.  我的场景,不同长选择不同模型。

    这几点,不展开说了,其实就是从,时间,配置,效果之间做一个权衡。也就是说没有绝对好的模型,也没有绝对差的模型,只有合适的模型。这也是为什么有那么多模型并存的原因。

    当然,不管你用什么模型,训练起来都不是那么简单,都需要有极大的耐心和恒心。

     

    全脸和半脸的差别

    最后来说说全脸(Full Face)和半脸(Half Face)。 对于这个概念很多人一知半解,很多人有根本性的误解,其实主要是怪这个名字取得不好。说真像之前,先来说说两种误解。

    第一种: 全脸包含眉毛,半脸不包含眉毛,所以为了换眉毛我选DF

    第二种:全脸是整张脸, 半脸是左边一半脸或者右边一半脸。

    这两种都是错的,一个认为是垂直方向的一半,一个认为是水平方向的一半,都是被这个名字给误导了。

    其实他是从内向外的一半。曾经有一个灵魂画手用一张图解释了两者的差别。

    我不擅长画画,我就用齐天大圣孙悟空来做一个解说吧。所谓半脸就是猴哥“不长毛”的部分,全脸就是整张脸(不包括额头)。 就是这么简单!!!

    展开全文
  • SAE是最好的吗?全脸和半脸是什么意思?等等问题。今天,就专门写一篇文章,来统一解答这些疑问。首先,来说说每个模型的特点。H64模型H64模型也被称为经典模型/原始模型(original),DeepFa...
  • 现有的交通流预测方法主要采用浅层交通预测模型,在许多实际应用中仍不满足要求。这一情况促使我们重新思考基于大交通数据的深度架构模型的交通流预测问题。本文提出了一种基于深度学习的交通流预测方法,该方法考虑...
  • 下载地址:点击打开,感谢该toolbox的作者 ========================================================================================== 今天介绍的呢是DL另一个非常重要的模型SAE 把这个放在最后来说呢,主要...
  • SAE-发动机均值模型

    2018-04-26 15:17:22
    发动机模型 均值模型 别人给我的 如有侵权请联系我
  • 发动机simulink模型-SAE-发动机均值模型2.rar 这些是我花10个麦片下的,希望对大家有所帮助
  • DeepLearnToolbox代码详解——SAE,DAE模型

    万次阅读 热门讨论 2014-07-16 16:31:48
    一:引言.sae,dae,dropout模型简介 上面提到的三个模型都是在经典的多层神经网络的基础上加深构架得到;例如sae(Stack autoencoder)就是理堆叠多个autoencoder,然后使用fine_tuning过程;dae(Denoising ...
  • ...一:引言.sae,dae,dropout模型简介 上面提到的三个模型都是在经典的多层神经网络的基础上加深构架得到;例如sae(Stack autoencoder)就是理堆叠多个autoencoder,然后使用fi...
  • 针对现有SAE三连杆钢板弹簧模型迟滞特性描述不足的问题,在分析钢板弹簧迟滞特性成因的基础上,提出在钢板弹簧SAE三连杆模型中引入描述干摩擦特性的力元,采用优化方法确定力元参数,建立了表征钢板弹簧迟滞特性的模型。...
  • 发动机电控系统设计仿真系统资料-SAE-发动机均值模型1.rar 不错的资料
  • 行业分类-作业装置-一种基于SAE-LSTM模型的大气雾霾预测方法.7z
  • SAE DAE CAE SDAE VAE 自编码模型,是非监督方法,能够完成特征的压缩和提取; PCA是线性降维方法,是自编码模型的基础; 1. PCA PCA 是主成分分析方法,主要是用来数据预处理,降低维度,提取关键的特征(去除...
  • SAE J1939协议

    2018-12-14 08:41:46
    SAE J1939协议 SAE J1939是基于CAN总线的协议 分层结构模型 标准的文档构成
  • 打开DeepFaceLab会发现根目录的第六步6) train有很多名称,以10.27版本为例,它们分别是:6) train AVATAR,6) train DF,6) train H64,6) train H128,6) train LIAEF128,6) train SAE,6) train SAEHD,刚入门的小伙伴...
  • 堆叠自动编编码器是深度学习领域常用的一个深度学习模型,由多个自动动编码器串联堆叠构成。堆叠多层自动编码器的目的是为了逐层提取输入数据的高阶特征,在此过程中逐层降低输入数据的维度,将一个复杂的输入数据...
  • 与传统的SAE模型相比,分层SAE问题的贝叶斯方法具有多个优点,包括能够适当考虑所调查变量的类型。 在本文中,讨论了许多用于估计小面积计数的模型规范,并说明了它们的相对优点。 我们进行了模拟研究,以简化的...
  • 稀疏自编码器(sparse autoencoder,SAE)   在自动编码的基础上加上稀疏性限制,就可得到稀疏自动编码器(Sparse AutoEncoder)。   用来约束自动编码器重构的方法,是对其损失函数施加约束。比如,可对损失函数...
  • sae.js-框架 服务器Api引擎JS框架 去做 注册API的基本要求 添加模型,然后添加模型
  • 此外,定义了该目标和子目标的简化线性模型。 最小化受三种不平等约束的约束: 固定范围:lb≤x≤ub 线性不等式:A * x≤b 非线性不等式:c(x)≤0 环境设定 SAE-fmincon已通过python 3.9.1测试。 我们建议创建...
  • 从各种深度模型中提取深度特征,例如AlexNet,VGG16,VGG19,GoogleNet,Inception_v3,ResNet-18,ResNet-34,ResNet-50,ResNet-101,ResNet-152。 已完成,但在本文中调整了我的源代码以实现结果。 复制后将提供...
  • SAE J1708协议

    2020-08-31 11:04:50
    SAE J1708协议仅详细描述了OSI(Open System Interconnection:开放式系统互联)七层模型中的物理层和数据链路层。所以在进行通信时,常常需要与描述应用层的SAE J1587协议一起使用。 图1-OSI模型 ...
  • 从试用SAE产品入手,粗略介绍了SAE产品的特点,SAE产生的背景和需求。着重分析了SAE系统架构和几大核心...通过细致分析SAE的技术架构,回顾SAE两年多开发历程中的经验和教训,进而总结出PaaS云计算平台服务和技术模型

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 2,664
精华内容 1,065
关键字:

sae模型