精华内容
下载资源
问答
  • 作者:amitness ...虽然计算机视觉在自监督学习方面取得了惊人进展,但在很长一段时间内,自监督学习一直是NLP研究领域一等公民。语言模型早在90年代就已经存在,甚至在“自我监督学习”这个术语出现之前。2
    作者:amitness
    编译:ronghuaiyang
    原文链接:

    NLP中的自监督表示学习,全是动图,很过瘾的​mp.weixin.qq.com图标

    其实在自监督学习的概念提出之前,NLP中就已经运用到了这一思想。NLP中的自监督表示学习,全是动图,很过瘾的其实在自监督学习的概念提出之前,NLP中就已经运用到了这一思想。

    虽然计算机视觉在自监督学习方面取得了惊人的进展,但在很长一段时间内,自监督学习一直是NLP研究领域的一等公民。语言模型早在90年代就已经存在,甚至在“自我监督学习”这个术语出现之前。2013年的Word2Vec论文推广了这一模式,在许多问题上应用这些自监督的方法,这个领域得到了迅速的发展。

    这些自监督的方法的核心是一个叫做 “pretext task” 的框架,它允许我们使用数据本身来生成标签,并使用监督的方法来解决非监督的问题。这些也被称为“auxiliary task”或“pre-training task“。通过执行此任务获得的表示可以用作我们的下游监督任务的起点。

     

     

    在这篇文章中,我将概述研究人员在没有明确的数据标注的情况下从文本语料库中学习表示的各种pretext tasks。本文的重点是任务的制定,而不是实现它们的架构。

    自监督的方案

    1. 预测中心词

    在这个公式中,我们取一定窗口大小的一小块文本,我们的目标是根据周围的单词预测中心单词。

     

     

    例如,在下面的图中,我们有一个大小为1的窗口,因此我们在中间单词的两边各有一个单词。使用这些相邻的词,我们需要预测中心词。

     

     

    这个方案已经在著名的Word2Vec论文的“Continuous Bag of Words”方法中使用过。

    2. 预测邻居词

    在这个公式中,我们取一定窗口大小的文本张成的空间,我们的目标是在给定中心词的情况下预测周围的词。

     

     

    这个方案已经在著名的Word2Vec论文的“skip-gram”方法中实现。

    3. 相邻句子的预测

    在这个公式中,我们取三个连续的句子,设计一个任务,其中给定中心句,我们需要生成前一个句子和下一个句子。它类似于之前的skip-gram方法,但适用于句子而不是单词。

     

     

    这个方案已经在Skip-Thought Vectors的论文中使用过。

    4. 自回归语言建模

    在这个公式中,我们取大量未标注的文本,并设置一个任务,根据前面的单词预测下一个单词。因为我们已经知道下一个来自语料库的单词是什么,所以我们不需要手工标注的标签。

     

     

    例如,我们可以通过预测给定前一个单词的下一个单词来将任务设置为从左到右的语言建模。

     

     

    我们也可以用这个方案来通给定未来的单词预测之前的单词,方向是从右到左。

     

     

    这个方案已经使用在许多论文中,从n-gram模型到神经网络模型比如神经概率语言模型 (GPT) 。

    5. 掩码语言建模

    在这个方案中,文本中的单词是随机掩码的,任务是预测它们。与自回归公式相比,我们在预测掩码单词时可以同时使用前一个词和下一个词的上下文。

     

     

    这个方案已经在BERT、RoBERTa和ALBERT的论文中使用过。与自回归相比,在这个任务中,我们只预测了一小部分掩码词,因此从每句话中学到的东西更少。

    6. 下一个句子预测

    在这个方案中,我们取文件中出现的两个连续的句子,以及同一文件或不同文件中随机出现的另一个句子。

     

     

    然后,任务是区分两个句子是否是连贯的。

     

     

    在BERT的论文中,它被用于提高下游任务的性能,这些任务需要理解句子之间的关系,比如自然语言推理(NLI)和问题回答。然而,后来的研究对其有效性提出了质疑。

    7. 句子顺序的预测

    在这个方案中,我们从文档中提取成对的连续句子。然后互换这两个句子的位置,创建出另外一对句子。

     

     

    我们的目标是对一对句子进行分类,看它们的顺序是否正确。

     

     

    在ALBERT的论文中,它被用来取代“下一个句子预测”任务。

    8. 句子重排

    在这个方案中,我们从语料库中取出一个连续的文本,并破开的句子。然后,对句子的位置进行随机打乱,任务是恢复句子的原始顺序。

     

     

    它已经在BART的论文中被用作预训练的任务之一。

    9. 文档旋转

    在这个方案中,文档中的一个随机token被选择为旋转点。然后,对文档进行旋转,使得这个token成为开始词。任务是从这个旋转的版本中恢复原来的句子。

     

     

    它已经在BART的论文中被用作预训练的任务之一。直觉上,这将训练模型开始识别文档。

    10. 表情符号预测

    这个方案被用在了DeepMoji的论文中,并利用了我们使用表情符号来表达我们所发推文的情感这一想法。如下所示,我们可以使用推特上的表情符号作为标签,并制定一个监督任务,在给出文本时预测表情符号。

     

     

    DeepMoji的作者们使用这个概念对一个模型进行了12亿条推文的预训练,然后在情绪分析、仇恨语言检测和侮辱检测等与情绪相关的下游任务上对其进行微调。

    —END—

    英文原文:https://amitness.com/2020/05/self-supervised-learning-nlp/

     

    编辑于 05-28

    展开全文
  • Python把mp4视频转化成gif动图

    千次阅读 2019-12-21 13:50:21
    然后再把录屏mp4视频通过一些在线转换视频格式网站转化成gif,但是每次在线转换格式都会遇到不同问题,有叫我充值会员,有可能是服务器在国外原因上传下载需要很长时间,所以我就想着人生苦短,我用...

    Python把mp4视频转化成gif动图

    平时在CSDN写博客的时候我喜欢放一张作品的效果展示上去,具体步骤是先用录屏软件录下展示的过程,然后再把录屏的mp4视频通过一些在线转换视频格式的网站转化成gif,但是每次在线转换格式都会遇到不同的问题,有的叫我充值会员,有的可能是服务器在国外的原因上传下载需要很长时间,所以我就想着人生苦短,我用Python。为何不用python写一个转换格式的小工具呢?

    带着这样的疑问,我就开始着手写了

    注意点:

    • 因为下面要用到的MoviePy只支持低于3.4的版本,所以推荐使用3.3版本

    大家知道Python最大的优势在于可以有很多的包可以给我们用,这里我这用的是MoviePy这个包

    1.安装MoviePy模块

    pip install MoviePy
    

    2.Demo

    from moviepy.editor import *
    clip=(VideoFileClip(r"D:\xxx.mp4"))
    clip.write_gif("output.gif")
    print("转换完成了")
    

    这个模块其实还提供了很多其他的功能,因为我用不着就没有写出来。需要其他功能的朋友可以去了解一下,下面我会放出连接:

    MoviePy模块的官方文档

    展开全文
  • 本文内容主要翻译自:Illustrated Guide to LSTM’s and GRU’s: A step by step ...如果一个输入序列足够,那么RNN难将早期信息传送到之后的时间步上。如果你正在尝试处理一段文字来进行预测,RNN可能会...

    本文内容主要翻译自:Illustrated Guide to LSTM’s and GRU’s: A step by step explanation

    本文首先从直觉上了解一下LSTM和GRU;然后再介绍LSTM和GRU的内部机制。

    短期记忆问题

    RNN网络会受到短期记忆问题的影响。如果一个输入序列足够长,那么RNN很难将早期的信息传送到之后的时间步上。如果你正在尝试处理一段文字来进行预测,RNN可能会丢失掉起始部分的重要信息。

    在反向传播过程中,RNN网络会遇到梯度消失问题。反向传播过程中计算的梯度用于对权重参数进行更新。梯度消失问题是指梯度随着时间的推移而逐渐减小[或者说由于链式的法则,梯度值从后往前越来越小],如果梯度值变得非常小,那么权重参数就不再更新。

    3ad9f04025d53acc3798fcb976782385.png

    所在RNN网络中,获得小梯度的网络层将终止学习过程,通常这些网络层为模型的前几层。因为这些网络层停止学习,RNN可能会忘记在长序列中看到的信息,因此具有短期记忆。

    解决方法:LSTM & GRU

    LSTM和GRU的提出是为了解决传统RNN遇到的短期记忆问题,它们内部具有称为“门”的机制,可以调节信息的流动。

    0ba75f96b59a3639ebf474147d5f6e54.png

    这些“门”可以通过学习知道输入数据序列中那部分是重要的需要保留,那部分可以丢弃。通过这样的“门”,相关信息可以沿序列的长链传递下去从而进行预测。几乎所有基于递归神经网络的技术成果都是通过这两个网络实现的。LSTM和GRU可以用于语音识别、语音合成以及文本生成,甚至可以用它们来为视频生成字幕。

    下面,我们通过图示对这两种网络进行介绍,在介绍过程中会避免大量的数学计算;通过图示,我们能对这两种网络的内部机制有清晰的了解。

    本质

    我们先开始做一个小实验。假设你想要在网上买一份麦片,首先你会阅读购买用户的商品评价进而决定是否购买。

    c3aac9612b0f317fd6017a62e636e152.png

    当你阅读上述评论时,大脑会下意识地只记住那些关键词,如“amazing","perfectly balanced breakfast",对”this“,”gave“,”all“,”should“等词并不会太过关注。如果你朋友第二天问题评论的内容,你可能不会一字不差地记住评论内容,可能只记得关键信息,像”will definitely be buying again“.而不记得其他词汇。

    241892fe5902ce7dca7fb0f82401d515.gif

    这基本上就像是LSTM和GRU所做的事情,它们可以学习只保留相关信息来进行预测,并忘记不相关的数据信息。在这个例子中,你记得的词汇信息可以帮助你判断这个商品是否值得购买。

    RNN回顾

    为了了解LSTM和GRU的实现原理,我们先回顾一下RNN。RNN的工作原理:首先将单词转换成机器能理解的向量形式,然后将向量依次送到网络中进行处理。

    069464221d9d3e8af2f29dd6b5cfd21a.gif

    在处理过程中,RNN网络将前一个时间步的隐藏状态传送到当前时间步。RNN的隐藏状态的作用类似于神经网络的"记忆",保存着它处理过的从起始到当前位置的所有数据信息。

    16c543b950fc84770b19bc6097436e05.gif

    让我们聚焦到RNN的单个单元来看一下隐藏状态是如何计算的。首先,将输入数据和前一个隐藏状态聚合,形成一个向量。这个向量拥有当前输入和以前所有的输入信息。这个聚合向量通过一个tanh激活函数,其输出结果即为新的隐藏状态,或者说网络的“记忆”。

    f54aadac7ead7228a3c96973da120825.gif

    Tanh激活函数

    tanh激活函数用于帮助调节流经网络的值。tanh网络将输出结果的取值范围限制到(-1, 1).

    13aee381e94a23e3a7b705f23e6e08db.gif

    当向量流过神经网络时,由于各种数学运算,它会经历许多变换。我们假设变化过程为:一个值连续乘以3.通过下面的gif,你可以看到某些值如何爆炸并成为天文数字,从而导致其他值显得微不足道。

    87f2b8ac093626069e0d0c3ab51fbdd7.gif

    tanh激活函数能够将数据的输出范围压缩到-1到1之间,从而达到调整神经网络输出结果的目的。你可以通过下图看到相同的输入数据经过tanh激活函数后的数据变化过程。

    792bced795910dc8bb780bbaa6201e2c.gif

    这就是RNN的计算过程。RNN的内部计算很少,在恰当的情境下工作效果非常好(如处理短文本序列)。RNN使用的计算资源比它的变体LSTM和GRU都少。

    LSTM

    LSTM和RNN具有类似的数据控制流,它在前向传播时处理流经单元的数据。两者的不同之处在于LSTM的内部数据操作不同。

    130565ccbc467000525d847ca71ae9d0.png

    这些操作可以保证LSTM对信息的保留和丢弃。下面我们逐步介绍LSTM单元的内部操作。

    核心概念

    LSTM的核心概念在于细胞状态以及各种门。细胞状态充当信息传输公路,它将相关信息沿着序列链进行传递,你可以将它看做是网络模型的“记忆”。理论上,细胞状态可以在整个序列处理过程中携带相关信息。因此,尽管是早期的信息也能被携带到之后的时间步的细胞中,进而能减缓短期记忆的问题。随着细胞状态的变化,信息通过“门”机制添加或删除到细胞状态中。“门”是一种神经网络,可以决定哪部分信息添加到细胞状态中。这些“门”可以通过学习知道在训练过程中哪些信息需要保留哪些信息需要忘记。

    Sigmoid

    “门”结构中包含sigmoid激活函数。Sigmoid激活函数和tanh激活函数类似:tanh激活函数将数据的输出范围限制到(-1, 1), sigmoid则将范围限制到(0,1)。这有助于更新和忘记信息,因为任何数字乘以0得0,进而实现信息的“忘记”;任何数字乘以1得原数字,进而实现信息的“保留”。神经网络可以学习指导哪部分数据不重要可以忘记,哪些数据重要需要保留

    ee685917feee12762dd7ab72756cf3cc.gif

    下面我们看看LSTM中各种门结构。LSTM包括三种用于控制信息流动的门结构,分别是:忘记门、输入门和输出门。

    忘记门

    忘记门用于决定信息的保留或丢失。前一个神经元的隐藏状态和当前输入传递到sigmoid函数中。输出结果在0至1之间。越接近0表示信息需要被丢弃(忘记),越接近1表示信息需要保留。

    e4b91e33951634edf512e127ad09300f.gif

    输入门

    输入门用于更新细胞状态。首先,我们将前一个神经元的隐藏状态和当前输入传送带sigmoid函数中。sigmoid将输出调整到0~1之间,0表示信息不重要,1表示信息重要。此外,将隐藏状态和当前输入传送到tanh函数中得到一个候选状态。然后,将候选状态和sigmoid计算结果进行相乘。sigmoid计算结果用于决定tanh的输出结果哪部分是重要的需要保存。

    ad989596339c165f685c3a16530beb79.gif

    细胞状态

    至此,我们有了充足的信息可以用来更新细胞状态。首先,细胞状态和忘记向量逐元素相乘,如果和一个接近0的值进行相乘,则有可能丢弃细胞状态中元素的值;然后将这个值与输入门的输出结果进行逐元素相加,将神经网络发现的相关信息添加到细胞状态中。这样,我们就完成了细胞状态的更新。

    a63c47134cf8745fcf7fd65203ed2ca9.gif

    输出门

    输出门可以用于确定下一个隐藏状态的值。隐藏状态包含先前的输入信息,同时也可以用于做预测。首先,我们将前一个神经元的隐藏状态和当前输入传送到sigmoid函数中;然后我们将更新后的细胞状态送到tanh激活函数中;最后将tanh函数的输出与sigmoid函数的输出进行相乘,进而确定隐藏状态携带的信息,这个计算结果就是新的隐藏状态值。最后,将新的细胞状态和隐藏状态传送到下一个时间步的神经元中。

    ccbe52c5fc02fea38343886a491646c6.gif

    让我们来回顾一下,忘记门决定先前时间步的信息哪些信息的相关的需要保留。输入门决定当前时间步开始需要添加的相关信息。输出门决定下一个隐藏状态应该是什么。

    运算伪代码

    3e67eb4eba09195cc6a60dc8c19f0ba1.png
    1. 将前一个的隐藏状态和当前输入进行拼接得到一个新的输入,我们称之为combine
    2. 将combine传送到忘记门中,这一步用于移除不相关的信息
    3. 将combine传送到候选层中创建一个候选状态。候选状态保存着可能添加到细胞状态的信息
    4. 将combine传送到输入门中,这一步用于确定候选状态中哪些信息需要添加到新的候选状态中
    5. 使用忘记门、候选状态和输入门的计算结果,结合先前的细胞状态和候选状态计算新的细胞状态
    6. 计算当前细胞的输出
    7. 将输出门和输出相乘得到新的隐藏状态
    221d71784072133c6e0f3a7f3a9c4b49.png

    LSTM网络的控制流就是几个张量计算以及一个for循环。你可以使用隐藏状态做预测。通过这些机制,LSTM在序列处理过程中可以决定哪部分信息需要忘记,哪些数据需要遗忘。

    GRU

    了解了LSTM的工作原理,我们来简单介绍一个GRU。GRU是RNN的一个新变体,工作原理和LSTM很相似。GRU没有细胞状态,只有一个隐藏状态用于传送信息。它只有两个门结构:重置门和更新门。

    9ef203e9e0347b11e7ac47fe69ed99f4.png

    更新门

    更新门和LSTM中的遗忘门和输入门功能类似。它可以决定哪部分信息需要遗忘哪些信息需要被添加。

    重置门

    重置门用于决定先前的信息哪些部分需要遗忘。

    GRU内部的张量计算更少,因此GRU的训练速度比LSTM更快。但是很难确定两者之间孰优孰劣。研究者和算法工程师通常会都尝试一下,然后决定到底是用哪一个。

    52ab72512b86db09c6d68c91a893d08f.png

    总结

    RNN 用于处理序列数据来进行预测,但容易受到短期记忆的制约。LSTM 和 GRU 采用门结构来克服短期记忆的影响。门结构是一种神经网络,可以调节流经序列链的信息流。LSTM和GRU可以用于语音识别,语音合成,自然语言理解等任务中。


    b29e5aaf70865a92d249d295a66a820b.png

    关注公众号,一起交流成长~

    展开全文
  • 每次需要做一个动图展示时,总是感觉头疼。截图吧,需要图片太多;录视频吧,文件太大;做动图吧,太麻烦。今天推荐这个软件或许能够解决大家这个困惑,今天...如您意图录制长时间全屏内容,我推荐您使用更...

    每次需要做一个动图展示时,总是感觉很头疼。截图吧,需要的图片太多;录视频吧,文件太大;做动图吧,太麻烦。今天推荐的这个软件或许能够解决大家这个困惑,今天推荐的是动图生成神器——ScreenToGif

    a2d976fcd0c64907bf3d772c4988adfd.png

    优点:这是一款免费开源、轻量级却非常强大的录屏软件,能快速将屏幕录制成高清GIF动画,具有文件小,页面简洁,操作方便的特点。

    Tips: 软件主要用于迅捷录屏。如您意图录制长时间全屏内容,我推荐您使用更高级软件——EV录屏软件(下一期讲解,设置超链接)。

    下载链接为:

    Record your screen, edit and save as a Gif or videowww.screentogif.com
    38a53c76e4371b76ada94216385694e9.png

    主要有如下四个功能,其中对大家来说最常见的就是录像机,能够录制屏幕学习成Gif动图。下面简单介绍四个功能:

    0d44ef0634d31a29cf7c103574a9771a.png

    录像机

    可以首先设置录制暂停的快捷键,选择设置——键盘优化键。四周拖动右边的框图可以选择相应的录屏区域。

    45d995fc84d2b646c13d8ce4e2858b51.png

    录像机页面下图的按钮从左到右依次为:

    1. 对齐窗口:点击并拖拽到目标上方会自适应捕捉相应窗口。
    2. 设置:打开设置窗口如左图所示。
    3. 录像的最大帧率:即1s多少张图像,取值范围1~60 fps。
    4. 矩形宽度及高度:录像矩形尺寸。
    5. 丢弃:当录像暂停时,此图标会浮现,点击即会丢弃已录制内容。
    6. 开始录制
    7. 停止录制

    停止录制之后,可以对其进行编辑,可以逐帧编辑 GIF 动画,可以快速添加水印、添加提示文本、字幕、进度条、进行手绘笔记、设置鼠标点击效果、添加标题帧等,不仅如此,还可以进行裁剪、调整尺寸、旋转、加马赛克、添加切换效果等。

    968bee53114842c1c04182fb5fddbe31.png

    比如如果需要添加水印,可以ctrl+a选中所有帧(不然只是对其中某一帧进行操作),选择图像——水印,进行设置即可,然后ctrl+s进行保存。其他功能建议大家自行摸索。

    abb3b08041b7a393a7aa331f4098f80c.png

    这是用该软件录制Endnote导入PDF文献的一个例子。清晰度很高,基本上能够满足大家的日常需求。

    v2-5feb0c683548dc82bf0fd33b72d44173_b.jpg

    摄像头

    摄像头是从摄像头中截取视频,底部按钮从左到右依次为:

    1. 设置选项
    2. 更改视频的比例大小
    3. 检测视频设备:进行硬件检测,寻找新的视频设备。此步骤窗口加载的时候也会发生。
    4. 录像的最大帧率:即1s多少张图像,取值范围1~60 fps。
    5. 开始录制
    6. 停止录制

    e9fd66ed98fc125e43a39d40a0395ff2.png

    画板

    当你开始绘制时,画板会自动记录你的绘制流程。你可通过按住Ctrl 键或点击底部按钮的方式禁用此功能。

    67c23e6163b3ab095936f86762b31619.png

    编辑器

    即对已有的图片或者视频进行编辑,小文件可以用此编辑器,如果需要更高级的功能,建议用其他软件。

    c20a384cd0bdb349d10425ae5d8e9a88.png

    小结:重点推荐该软件的录像机功能,其简洁性和方便性能满足大部分人的日常需求。

    关注“happy科研”公众号和CSDN博客(ID:weixin_44267600),获取更多有趣有料的干货。
    有任何问题,请发邮件至:yfangnuist@gmail.com
    展开全文
  • 接下来教大家一个非常简单的动图表情gif制作https://www.gif.cn/技巧。 打开浏览器搜索GIF制作的工具GIF中文网,然后选择添加视频按钮,将准备好的视频上传到网站上。 然后选择视频截取的开始时间,点击停止,确定...
  • 视频转换图片:(20分钟视频大概...%%所在文件夹下面视频,最好短,不然全部转换需要较长时间video=VideoReader(video_file);frame_number=floor(video.Duration * video.FrameRate);%% 分离图片for i=1:fram...
  • 没有人,尤其是学生不喜欢长时间的辅导课。那么,学生们,我们的未来,将如何在学校学习最难的科目,数学呢?在这种情况下,我认为有另一种方法来教数学。就是“动图”。“是的,就是那些你经常在推特上看到的有趣的...
  •     因为传统RNN模块会受到短期记忆影响,当序列过长的时候,靠前信息难传递到后边的时间步,因此,当我们使用RNN处理文本进行预测时候,会遗漏多重要信息,除此之外,当网络过长的时候,反向传播...
  • 起初笔者也是这么认为,但在长时间的操作下,再加上《刺激战场》添加了多人性化的设置后,使得整体操作流程大大提升,高手完全可以打出媲美端游的流畅操作。当笔者提出这样的结论时,也不乏会有人提出一些疑问:...
  • 在使用微信的时候经常会用到各种各样的动图,比如公众号中微信gif动图,聊天互动时候使用的表情包等等。多的有趣的动图都能够让大家产生深刻的印象,并且被用户保存使用。那么怎样才能制作gif动图呢?接下来教大家...
  • 我只是参考了他移动端,后台开发也没时间捣鼓,因为那会大四在实习,Android学习时间也不,非常感谢这位大佬源码分享,学习了不少东西。 先看看效果图吧: 来个动图吧: 项目设计模式...
  • 主力手在鼠标和键盘之间反复移动,长时间下来,容易造成斜方肌酸痛。作为『vscode重度依赖者』、『键盘操作狂热者』,本文我为大家总结了Ctrl、Shift、Alt与方向键结合妙用,简单易学,又功能强大。我录制了大量...
  • 基于原生js实现主流弹幕所有功能

    千次阅读 2019-04-24 10:34:29
    距离写实现原理一有很长一段时间了,因为好像没什么人看,所以我就不太想写原理二,为了不食言,我还是坚持做完这个系列吧 下面介绍就是目前主流直播弹幕网站弹幕实现方式,包括弹幕指定暂停,点赞,举报功能. ...
  • 叕做了一件无意义工作……编了一天,调试了一天。Bug 原因是我定义好了一个函数、变量,总想着尽可能套用,节省代码长度。但是为此需要付出更大努力,并且会出现更多困难与错误。由其是变量,还是各用各得...
  • 在原地转向过程中,经过很长时间小车才开始出现明显转动,并在转动90度时减速停止转动,再经过一段时间之后开始转向下一个90度,每90度一个减速停止。期间轮子一直转动,有转速。如下动图所示 解决方法: 地面...
  • 效果如何? 最终效果如下面的动图,简单演示下。这是个非常老的游戏了,我最早是在linux下玩到的,只有一个简单字符界面,但比较考验智力和运气,很长一段时间只能玩到 256;后来掌握规则以...
  • 酷友们,大家好!现在工作学习基本上都离不开电脑,使用的时间,电脑上的文件和文件夹越来越多,重要的、不重要的、紧急的、不紧急的全部...更改文件夹默认样式简单的,上面的动图一看应该就明白了。选中文件...
  • oCam V475.0去广告版

    2020-03-31 19:13:52
    如果要长时间录像话,录像文件大小也可支持 4GB 以上超大文件。录像时除了可支持全屏幕录像与自定义范围录像,也可同时录下计算机发出声音或从麦克风录音,还可支持双屏幕与键盘快捷方式快捷操作。工具小巧,...
  • 结合上一篇记录,再通过一张动态图对LSTM做一补充: LSTM ——是一种特殊 RNN 类型,可以学习长期依赖信息。LSTM 由Hochreiter &...如果一条序列足够,那它们将难将信息从较早的时间步传送到后面的时间
  • 打开链接就花了很长时间 这是个动图,而且越来越快。顿时就没了思路,查看源代码,用F12就找到了flag。 0×02 计算器 习惯输入正确答案。但只能输入一个数字,经过上题,这次直接打开F12查看代码。 可输入...
  • 随着时间的推移,里面积累的多代码,大致用5个Fragment 做了分类: Apk 下载体验 扫一扫体验 打开 ImitateFragment (模仿三方应用特效) 仿新浪微博雷达扫描效果及卡片动画效果(Android 动画实战-仿微博...
  • 有些动图,在做成电子书(比如 pdf)时候自然就变没了,如果需要看动图的, 可以去我公众号《力扣加加》或者我 leetcode 题解仓库看。 epub 还是有动图的 由于是电子书,因此阅读体验可能会更好, 但是相应...

空空如也

空空如也

1 2
收藏数 24
精华内容 9
关键字:

很长时间的动图