-
导师:顶会论文3天都复现不出来?你退学吧!
2020-11-19 12:03:00(文末招聘论文讲师)说起国内的AI算法大赛平台,你首先会想到哪一个?我猜你第一反应会是:阿里云天池——国内第一人工智能竞赛平台。天池的比赛打的多了,但天池的论文复现课程你体验过吗?11月...(文末招聘论文讲师)
说起国内的AI算法大赛平台,你首先会想到哪一个?
我猜你第一反应会是:阿里云天池——国内第一人工智能竞赛平台。
天池的比赛打的多了,但天池的论文复现课程你体验过吗?11月23日,深度之眼联合阿里云天池推出人工智能Paper体验课,带你3天复现CV&NLP领域的经典顶会论文!
以前自己读论文,总会遇到很多问题:
不知道从哪里找论文、如何甄别论文质量?
找到论文之后,找不到论文源代码?
好不容易找到代码,却配置不好环境,更别说复现论文了!
而这一次,深度之眼为你提供论文原文和代码!天池免费为你提供配置好的论文复现环境、GPU算力,让你一键跑通论文代码,3天复现经典顶会论文:
不仅如此,阿里云天池还为大家准备了学员福利!
福利一:完课学员直接返还学费!
福利二:完课学员颁发天池优秀学员证书,获得证书的同学,可成为天池强化学习小白入门的首批用户!
如果两篇Paper论文你觉得不够,下面是Paper会员整个课程体系的详细介绍:
扫码添加客服咨询课程详情
学员走心评价
品牌口碑
年轻最有效的资本是时间,让我们带你更有效的学习,帮你节约盲目摸索的时间。
让你赚取更多的价值!
订阅须知
Q:课程资料在哪里看?
A:所有的课程资料均会在训练营内上传,报名以后请务必添加客服微信入群!
Q:视频可以电脑看吗?
A:课程视频支持PC端倍速播放。
Q:报名后可以退款吗?
A:本服务为虚拟内容产品,一经购买,概不退款,敬请谅解。
Q:可以开具发票吗?
A:可以开具普通电子发票,请联系微信班主任填写需要的信息即可。
paper讲师招聘
【工作职责】
1、讲解计算机视觉(自然语言处理)经典/前沿论文课程制作及后续内容迭代和优化
2、制作录播课课件,如有代码复现,需要提供经过自己跑的代码及相关注释,方便讲解
3、结合自己的理解和实际工作经历对论文内容做拓展讲解4、按照我们的模板制定教学计划,提升学员的学习效果
【任职要求】
1、计算机视觉(三维重建、3D场景、超分辨等)、自然语言处理(文本摘要、智能问答、文本匹配等)算法、工程岗在职工程师,或人工智能相关课题研究的国内外名校高材生。
2、精读过计算机视觉(自然语言处理)经典论文并对部分论文做过复现,随时关注前沿研究动态。
3、自己出过相关视频课或者在其他机构任职过兼职/全职讲师者优先考虑
4、对教育有热情,在博客、或者知乎等相关知识分享平台写过技术分享文章优先考虑。
5、无须全职,线上工作,能在不影响本职工作下完成备课、授课和学员服务,没有工作地点的限制。
如有意向添加工作人员微信:
-
深度学习模型复现难?看看这篇句子对模型的复现论文
2018-06-20 10:44:34这篇文章是 COLING 2018 的 Best Reproduction Paper,文章主要对现有的做句子对任务的最好的几个模型进行了重现,并且作者实现出来的效果和原文章声称的效果相差不多,这点还是很厉害的,而且作者对语义理解的集中...论文介绍
这篇文章是 COLING 2018 的 Best Reproduction Paper,文章主要对现有的做句子对任务的最好的几个模型进行了重现,并且作者实现出来的效果和原文章声称的效果相差不多,这点还是很厉害的,而且作者对语义理解的集中任务也做了相关梳理,文章简单易读,还是很值得一看的。
任务
句子对建模是 NLP,NLU 中比较基础,并扮演着重要角色的任务,主要集中在语义理解,语义交互上,这也是我自己的一个研究方向,大致有这几类任务:
1. Semantic Textual Similarity (STS) :判断两个句子的语义相似程度(measureing the degree of equivalence in the underlying semantics of paired snippets of text);
2. Natural Language Inference (NLI) :也叫 Recognizing Textual Entailment (RTE),判断两个句子在语义上是否存在推断关系,相对任务一更复杂一些,不仅仅是考虑相似,而且也考虑了推理;
3. Paraphrase Identification (PI) :判断两个句子是否表达同样的意思(identifing whether two sentences express the same meaning);
4. Question Answering (QA) :主要是指选择出来最符合问题的答案,是在给定的答案中进行选择,而不是生成;
5. Machine Comprehension (MC) :判断一个句子和一个段落之间的关系,从大段落中找出存在答案的小段落,对比的两个内容更加复杂一些。
论文模型
有了任务,作者选取了集中目前情况下最好的模型,因为原文中每个模型可能只针对了某些任务进行了很多优化,那这些模型是否真的有效呢,作者考虑这些模型在所有的任务上进行比较,在介绍模型之前,作者首先介绍了句子对建模的一般框架:
一般框架
1. 输入层:适用预训练或者参与训练的词向量对输入中的每个词进行向量表示,比较有名的 Word2Vec,GloVe,也可以使用子序列的方法,例如 character-level embedding;
2. 情境编码层:将句子所处的情境信息编码表示,从而更好的理解目标句子的语义,常用的例如 CNN,HighWay Network 等,如果是句子语义表示的方法,一般到这里就结束了,接下来会根据具体的任务直接使用这一层得到语义表示;
3. 交互和注意力层:该层是可选的,句子语义表示有时候也会用到,但更多的是词匹配方法用到的,通过注意力机制建模两个句子在词层面的匹配对齐关系,从而在更细粒度上进行句子对建模,个人认为句子语义表示也会用到这些,只是句子语义表示最后会得到一个语义表示的向量,而词匹配的方法不一定得到句子语义的向量;
4. 输出分类层:根据不同的任务,使用 CNN,LSTM,MLP 等进行分类判断。
下图展示了一些句子语义表示的模型的基本框架:
有了这个一般的框架,接下来作者选取了集中目前最好的模型进行重现。
模型选择
1. InferSent [1]:BiLSTM+max-pooling;
2. SSE [2]:如图 1,和 InferSent 比较类似;
3. DecAtt [3]:词匹配模型的代表,利用注意力机制得到句子 1 中的每个词和句子 2 中的所有词的紧密程度,然后用句子 2 中的所有词的隐层状态,做加权和表示句子 1 中的每个词;
4. ESIM [4]:考虑了一些词本身的特征信息,和 DecAtt 比较类似;
5. PWIM [5]:在得到每个词的隐层状态之后,通过不同的相似度计算方法得到词对之间相似关系,最后利用 CNN 进行分类。
数据
为了更好的展示每个数据的情况,在这里直接用下图展示作者使用到的数据集:
结果
直接上结果,上图是原文章中的结果,下图是作者重现的结果:
从结果上看,作者实现的效果还是很厉害的,基本上跟原文章声明的不相上下,当然由于不是针对特定任务进行特别优化,所有效果还是有一点点差的,但基本上可以认为是实现了原来的效果,而且作者也发现了一些有意思的现象,例如:表现最好的就是 ESIM,个人感觉这里面加入了很多次本身的一些信息,例如近义词,反义词,上下位信息等,这些信息其实对句子语义理解十分重要。
以上就是这篇文章的整体介绍,作者完整实现了这些方法,并在不同的数据集上进行验证,工作量还是很大的,而且对句子对建模进行了比较完整的介绍,还是很有意思的。
原文发布时间为:2018-06-19
本文作者:张琨
本文来自云栖社区合作伙伴“PaperWeekly”,了解相关信息可以关注“PaperWeekly”。
-
2020年10月14日:最近几天复现论文踩坑记录
2020-10-14 19:34:18否则出来的维度不同,导致后面计算熵出错。出错还好,就是怕不报错,就需要慢慢排查。 对于target类网络,不需要使用梯度更新的,可以关掉梯度来节省内存提高速度。 iterator.chain()返回的迭代器只能使用一次,...最近踩的坑:
-
在ddpg算法类的actor网络中输入1个state来获取action,要扩展成batch_size为1的tensor。否则出来的维度不同,导致后面计算熵出错。出错还好,就是怕不报错,就需要慢慢排查。
-
对于target类网络,不需要使用梯度更新的,可以关掉梯度来节省内存提高速度。
-
iterator.chain()返回的迭代器只能使用一次,for循环后将失效。需要重新创建迭代器。(因为这个原因导致critic的网络没有被更新)
l1 = [1,2,3] l2 = [4,5,6] l1_l2 = itertools.chain(l1,l2) for i in l1_l2: print(i) # l1_l2使用后失效。 for i in l1_l2: # 无法进入 print(i*0.1)
-
numpy: a.squeeze()并不改变a本身的值,而是返回一个结果。一般带下划线的方法可以改变本身的值,如a.add_()
-
np.where(c, x, y) 如果满足条件c,则返回x,否则返回y
np.where( c ) 返回满足条件c的坐标。
例如,
a = np.random.uniform(size = 10) # 随机生成均一分布的10个0~1之间的数组 np.where(a<0.8) #返回所有小于0.8的坐标。长度不一定,根据多少定。
-
numpy:
# 假设a是一个(1,50,10)的数组。 a[0, [1,2,3]] # 返回的是dim0里面坐标为1,2,3的元素。即返回的是一个(3,10)的数组。
-
算法相关:
不一定需要正则化,也可以训练出来好的结果。根据实际情况定。一旦对输入的数据进行了正则化,那么在测试新的数据时,就需要使用原来正则化所使用的均值和方差,否则结果会有问题。
-
如果想要保证网络每次初始化的参数都相同,在pytorch中网络的__init__可以使用torch.manual_seed(seed)设置随机种子,这样在每次创建的网络初始权重都一样。
-
-
复现实验难以达到论文中精度的方法
2019-01-03 16:33:45复现论文实验一直是一大难题,或者说复现实验达到论文中精度是一大难题。绝大部分时候我们很难复现到媲美原文的精度,这很大原因是神经网络的参数众多,优化技巧众多,参数初始化等一些列问题,一般论文中对不会对小...复现论文实验一直是一大难题,或者说复现实验达到论文中精度是一大难题。绝大部分时候我们很难复现到媲美原文的精度,这很大原因是神经网络的参数众多,优化技巧众多,参数初始化等一些列问题,一般论文中对不会对小细节的处理进行描述或者他们有着一些不为人知的“trick”,所以我们很多时候我们达不到他们的实验效果。
之前我曾尝试复现几篇论文的实验,花了很大力气总算搞出来的,但是结果实验结果与原文中精度总有2-3%左右的差距。由于原文没开源代码,按照他论文来所描述的来写代码,难以发现自己哪里出问题了,后来就放弃了。
最近看到一篇有关网络优化的文章,感觉挺有用的,对复现实验代码比较有用,所以写下来了。
一、加快模型训练
主要有两块内容:一块是选用更大的batch size,另一块是采用16位浮点型进行训练。
选用更大的batch size能够在整体上加快模型的训练,但是一般而言如果只增大batch size,效果不会太理想,这部分目前有比较多的研究论文,比如Facebook的这篇:Accurate, Large Minibatch SGD:Training ImageNet in 1 Hour,作者也总结了主要的几个解决方案。- 增大学习率,因为更大的batch size意味着基于每个batch数据计算得到的梯度更加贴近整个数据集(数学上来讲就是方差更小),因此当更新方向更加准确后,迈的步子也可以更大了,一般而言将batch size修改为原来的几倍,那么初始学习率也需要修改为原来的几倍。
- 用一个小的学习率先训几个epoch(warmup) 。因为网络的参数是随机初始化的,假如一开始就采用较大的学习率容易出现数值不稳定,这是使用warmup的原因。等到训练过程基本稳定了就可以使用原先设定的初始学习率进行训练了。作者在实现warmup的过程中采用线性增加的策略,举例而言,假设warmup阶段的初始学习率是0,warmup阶段共需要训练m个batch的数据(实现中m个batch共5个epoch),假设训练阶段的初始学习率是L,那么在batch i的学习率就设置为i*L/m。
- 每个残差块的最后一个BN层的γ参数初始化为0,我们知道BN层的γ、β参数是用来对标准化后的输入做线性变换的,也就是γx^+β,一般γ参数都会初始化为1,作者认为初始化为0更有利于模型的训练。
- 不对bias参数执行weight decay操作,weight decay主要的作用就是通过对网络层的参数(包括weight和bias)做约束(L2正则化会使得网络层的参数更加平滑)达到减少模型过拟合的效果。
采用低精度(16位浮点型)训练是从数值层面来做加速。一般而言现在大部分的深度学习网络的输入、网络参数、网络输出都采用32位浮点型,现在随着GPU的迭代更新(比如V100支持16为浮点型的模型训练),如果能使用16位浮点型参数进行训练,就可以大大加快模型的训练速度,这是作者加速训练最主要的措施,不过目前来看应该只有V100才能支持这样的训练。
二、优化网络结构部分
这部分的优化是以ResNet为例的,Figure1是ResNet网络的结构示意图,简单而言是一个input stem结构、4个stage和1个output部分,input stem和每个stage的内容在第二列展示,每个residual block的结构在第三列展示,整体而言这个图画得非常清晰了。
关于residual block的改进可以参考Figure2,主要有3点。- ResNet-B,改进部分就是将stage中做downsample的residual block的downsample操作从第一个11卷积层换成第二个33卷积层,如果downsample操作放在stride为2的11卷积层,那么就会丢失较多特征信息(默认是缩减为1/4),可以理解为有3/4的特征点都没有参与计算,而将downsample操作放在33卷积层则能够减少这种损失,因为即便stride设置为2,但是卷积核尺寸够大,因此可以覆盖特征图上几乎所有的位置。
- ResNet-C,改进部分就是将Figure1中input stem部分的77卷积层用3个33卷积层替换。这部分借鉴了Inception v2的思想,主要的考虑是计算量,毕竟大尺寸卷积核带来的计算量要比小尺寸卷积核多不少,不过读者如果仔细计算下会发现ResNet-C中3个33卷积层的计算量并不比原来的少,这也是Table5中ResNet-C的FLOPs反而增加的原因。
- ResNet-D,改进部分是将stage部分做downsample的residual block的支路从stride为2的11卷积层换成stride为1的卷积层,并在前面添加一个池化层用来做downsample。这部分我个人理解是虽然池化层也会丢失信息,但至少是经过选择(比如这里是均值操作)后再丢失冗余信息,相比stride设置为2的1*1卷积层要好一些。
三、模型训练调优部分
主要4个调优技巧:- 学习率衰减策略采用cosine函数,这部分的实验结果对比可以参考Figure3,其中(a)是cosine decay和step decay的示意图,step decay是目前比较常用的学习率衰减方式,表示训练到指定epoch时才衰减学习率。(b)是2种学习率衰减策略在效果上的对比。
- 采用label smoothing,网络中softmax的输出可以直接理解成概率,而one-hot向量只有0与1。所以这部分是将原来常用的one-hot类型标签做软化,这样在计算损失值时能够在一定程度上减少过拟合,可以增强模型的泛化能力。从交叉熵损失函数可以看出,只有真实标签对应的类别概率才会对损失值计算有所帮助,全概率和零概率将鼓励所属类别和非所属类别之间的差距尽可能拉大,而由于以上可知梯度有界,因此很难adapt。
因此label smoothing相当于减少真实标签的类别概率在计算损失值时的权重,同时增加其他类别的预测概率在最终损失函数中的权重。这样真实类别概率和其他类别的概率均值之间的gap(倍数)就会下降一些,会造成模型过于相信预测的类别。
label smoothing的具体: 为了使得模型less confident,提出将label真实标签从变成,其中
对于以Dirac函数分布的真实标签,我们将它变成分为两部分获得(替换)
1.第一部分:将原本Dirac分布的标签变量替换为 (1 - ϵ)的Dirac函数;
2.第二部分:以概率 ϵ ,在u(k)u(k) 中份分布的随机变量。(在文章中,作者采用先验概率也就是均布概率,而K取值为num_class = 1000)
从而交叉熵被替换为:可以认为:Loss 函数为分别对【预测label与真实label】【预测label与先验分布】进行惩罚。 - **知识蒸馏(knowledge distillation)**这部分其实是模型加速压缩领域的一个重要分支,表示用一个效果更好的teacher model训练student model,使得student model在模型结构不改变的情况下提升效果。作者采用ResNet-152作为teacher model,用ResNet-50作为student model,代码上通过在ResNet网络后添加一个蒸馏损失函数实现,这个损失函数用来评价teacher model输出和student model输出的差异,因此整体的损失函数原损失函数和蒸馏损失函数的结合:
其中p表示真实标签,z表示student model的全连接层输出,r表示teacher model的全连接层输出,T是超参数,用来平滑softmax函数的输出 - 引入mixup,mixup其实也是一种数据增强方式,假如采用mixup训练方式,那么每次读取2张输入图像,假设用(xi,yi)和(xj,yj)表示,那么通过下面这两个式子就可以合成得到一张新的图像(x,y),然后用这张新图像进行训练,需要注意的是采用这种方式训练模型时要训更多epoch。式子中的λ是一个超参数,用来调节合成的比重,取值范围是[0,1]。
-
Unsupervised Generative Attentional Networks with Adaptive Layer-Instance Normaliza论文复现、...
2020-08-06 19:47:37百度顶会论文复现营,使用百度飞浆平台复现感兴趣的论文,方向有两个,GAN和视频分类,最近对GAN比较感兴趣,所以选择了GAN的有关论文。《Unsupervised Generative Attentional Networks with Adaptive Layer-... -
-
飞桨PaddlePaddle论文复现:图像的一阶运动模型(初版)
2020-08-06 18:50:49图片动画主要的任务是将源图像的‘外表’提取出来和从驱动视频中提取出来的运动模式相结合。 本文和前任的最大区别是这个模型训练产生图像动画不需要网络有前置知识而仅仅依赖源图片和驱动视频进行生成,而且达到的... -
keras复现ResNet_18
2020-05-11 22:59:14而使用keras复现的时候由于卷积层输入输出大小的计算公式不熟悉,误打误撞,虽然复现后的模型plot_model、甚至是model.summary()出来的结果都是一模一样的,但是却不是真正的ResNet_50。今天先正确复现ResNet_18,... -
论文阅读与复现:Generative-discriminative Feature Representations for Open-set Recognition
2020-07-09 11:05:46关于开集识别,最近才接触到的知识,实际上就是在测试时把训练过程中没有见到过的样本识别出来,至于这些开放集样本的类别不做考虑,仅仅检测出它是新类即可。乍一看,开集识别和之前了解过的广义零样本学习很类似,... -
关于某个复现XLNet的广告文案
2021-01-01 09:37:43在某心培训中,最常见的一个广告就是所谓复现XLNet的。原意是,在面试一个小时中,如果你不能手打XLNet,那么你连基本功都达不到。...再说一个更关键,大部分顶会论文不会把所有细节都放出来,比如说这段代码 flags.DE -
【原创】【论文复现】【Matlab】【图像处理】基于高斯尺度空间下的自适应阈值分割算法
2019-01-28 00:26:11对于背景亮度分布不均匀的图像,直接进行全局阈值分割很难将目标图像区域分割出来。对此,[1]中提出,可以通过高斯尺度空间对背景进行估计,得到大致背景图像,再用原图减去估计的背景,得到目标图像,通过伽马校正... -
使用 PyTorch 框架复现 Two-Stream 网络过程中遇到的问题
2020-12-06 21:15:55复现论文:《Two-Stream Convolutional Networks for Action Recognition》 完整代码:会先整理完放在 Github 上,再贴出来哈 ~ 导入数据部分:LoadUCF101Data.py 1、隔 10 张计算一次光流(2.5 fps)导致... -
复现效果中GPU推理加速比较低
2020-12-26 09:18:10我在复现论文效果时遇到两个问题,请教一下。 1. 当我训练子分类器时,得到的效果没有直接用true label训练效果好; 2. 最终推理时,我在CPU上得到了11x的速度提升,但是GPU上只有2x... -
为了打击无法复现的AI研究,这些科学家组织了一场大赛
2018-01-01 15:36:002016年,《自然》面向1500名科学家发起了调查,发现在他们尝试复现其他科学家发表在学术期刊上的实验时,失败率高达70%,就算是自己的实验,也有一半复现不出来。 于是,有几位科学家想改变这种现状,将AI... -
DeepSpeech源码编译及语音识别效果复现
2018-07-26 15:22:54其中百度研究团队于2014年底发布了第一代深度语音识别系统 Deep Speech 的研究论文,系统采用了端对端的深度学习技术,也就是说,系统不需要人工设计组件对噪声、混响或扬声器波动进行建模,而是直接从... -
ResNet论文笔记
2019-09-29 19:12:40其实ResNet这篇论文看了很多次了,也是近几年最火的算法模型之一,一直没整理出来(其实不是要到用可能也不会整理吧,懒字头上一把刀啊,主要是是为了将resnet作为encoder嵌入到unet架构中,自己复现模型然后在数据... -
《A Late Fusion CNN for Digital Matting》论文解读
2020-11-13 15:50:15不过2020年的其他论文中也复现了这篇论文并加以比较,说这篇论文的方法效果太差。 个人认为的确是远远达不到论文中所说的那么好的效果,这种全自动的话,你输入中没有辅助图,也没有深度信息,神经网络再好,也学习... -
39码制 特殊符号扫出来不一样_【关于 Transformer 源码解析和实战 之文本摘要任务篇】 那些你不知道的事...
2020-12-21 09:50:52【关于 Transformer 代码实战(文本摘要任务篇)】 那些你不知道的事 作者:杨夕 项目地址:https://github.com/km1994/nlp_paper_study 个人介绍:大佬们好,我叫杨夕,该项目主要是本人在研读顶会论文和复现经典... -
读书笔记: 发论文,拿项目其实很简单
2020-10-12 20:54:56很多idea是你没有正式开始做之前产生不了的,真正好的灵感不是一开始想出来的,而是做出来的。 很多时间你实验最终确定的idea并不是你最终想要的结果。 因此没有idea应该是你做了一些基本工作,复现了一些基本代码... -
UpdateNet:Leaning the Model Update for Siamese Trackers 【论文笔记】
2019-11-27 17:25:19最近在一直纠结Siamrpn的复现,由于对RPN网络和目标框回归的过程不是很了解,希望这周能搞清楚并且复现出来吧。看到公众号有推送ICCV2019的论文集,瞅了眼发现这篇文章名字异常显眼,立马下下来看起来!搜了下网上... -
用latex画论文常见的带“黑色圆圈”的统计表格
2020-05-02 15:25:32今天想画一个表格,大概是这个样子。...但是我不清楚黑色的圆圈不知道怎样画出来,latex本身并不包含这个符号,因此最后我是在ppt上画图片出来,插入表格中的。复现效果还可以。 过程如下: 1. 在PPT上画图。 ... -
matlab画线不同颜色_Matlab论文插图配色3——你的就是我的
2020-12-04 16:08:55”小时候,每当自己有了可以发家致富、功成名就的好点子,便总会有人跳出来这样说。在多次尝试未果后,原本不信邪的我幡然醒悟:这个世界根本不需要我来整新活儿。先不说别人能不能想的到,很多时候,即便是想到了好... -
crc码生成多项式怎么算出来的_【笔记】关于文档生成那些事(一)
2020-12-03 21:52:41动机之前一直在看学姐的一篇论文,想着照着里面的论述把模型复现出来。不想在中间特征构造设计的hLDA模型的时候就给卡了两个星期。为了弄明白hLDA是什么以及怎么使用,我查阅了大多数资料。接下来的几篇推送将会是这... -
开源250FPS的人脸106特征点,3.3M模型
2020-08-07 13:24:48实际上,这是2017年的一个实验性的工作了,当时刚...在校的时候就是看论文,复现(是不可能复现的),当时关注到一个叫SDM(有监督梯度下降法)在人脸特征点上,效果特别好,于是参照这别人的代码,自己复现了一个版 -
基于Pconv的图像修复部分实例解析
2018-07-17 19:43:58PConv: Image Inpainting for Irregular Holes ...引入了局部卷积,能够修复任意非中心、不规则区域),代码还没有放出来,但是github上已经有大神复现论文了,今天主要基于github源码进行部分操作和结果展示。 论... -
人脸识别之DSFD
2019-10-22 21:34:112、原作者论文(看明白思路其实不难,关键在于怎么把代码一行一行的复现出来); 3、原作者论文代码(看这个也可以) 在复现参考文章1时,可能遇到的问题(因为没钱买显卡,只能在colab上进行实验): 需要自己下载... -
记录
2020-08-12 19:20:23在mac上复现了rainbow和ppo,在原GitHub上复现的,数据集与Minecraft不一样。 ppo用的数据集是哪个,似乎写的是默认,没看出来是哪个,目录里找了一下也没找到 那怎么做替换训练Minecraft的呢? windows用jupter... -
深度学习教训(经验)---学习率
2020-08-01 21:49:211、学习率真的是个重要的东西,复现论文的实验,第一个实验按照论文的参数设置学习率,很快跑出结果。第二个实验跑了几千个epoch,要不是实验室的服务器,我的电脑早就炸了。第一个实验分类结构只有7个类,第二个有... -
【课程作业】视觉环境布置,万里长征第一步
2019-08-23 21:25:23忙完两个月,近两个月,项目学习专利,把一个搞不出来的作业扔到脑后。听说二十八号又要出门,这里还有五天,可以把视觉老师的“复现顶会近五年内论文”的课程论文搞完。 首先是【环境配置】→【论文选择】→【数据...
-
实现 MySQL 读写分离的利器 mysql-proxy
-
机器人巡检自动查找泄露点.zip
-
51单片机定时器中断汇编代码
-
5.按键输入.rar
-
python迭代器
-
Redis深度历险:核心原理和应用实践.zip
-
关于DFS(深度优先搜索)与DP(动态规划)的思考
-
linux基础入门和项目实战部署系列课程
-
Elasticsearch使用误区————key-value数据存储
-
java 转换文件大小
-
时间片轮转模拟进程调度.zip
-
使用vue搭建微信H5公众号项目
-
华为1+X认证——网络系统建设与运维(初级)
-
关于php的两个符号@和$---php总会要知道的系列
-
龙芯生态应用开发基础:C语言精要
-
基于SSM实现的房屋租赁系统【附源码】(毕设)
-
一天学完MySQL数据库
-
服务器开发必备-【数据库】Redis集群篇
-
2021年 系统分析师 系列课
-
PowerBI重要外部工具详解