精华内容
下载资源
问答
  • sun.misc.BASE64Decoder.jar 绿色版 官方版本自己打包好的,可以直接调用,欢迎下载
  • project-decoder-ring:面向思考课程的Decoder Ring项目
  • Transformer Decoder

    2020-11-15 10:34:13
    本文主要讲解Transformer中的Decoder部分,后续其他部分会逐渐补充 首先,我们先定义几个常用的变量(以翻译为例): emb_dim:表示词嵌入的维度 input_length:表示输入单词的个数 target_length:表示翻译出单词...

    这是一篇主要讲解decoder的博客,由于第一次写博客,所以以翻译别人的为主,加上自己的见解(原文https://medium.com/dissecting-bert/dissecting-bert-appendix-the-decoder-3b86f66b0e5f),如果不了解encoder部分,建议先可以看https://zhuanlan.zhihu.com/p/54356280

     

    本文主要讲解Transformer中的Decoder部分,后续其他部分可能会补充

    首先,我们先定义几个常用的变量(以翻译为例):

    emb_dim:表示词嵌入的维度

    input_length:表示input单词的个数

    target_length:表示target_sequence的个数 + 1,为什么会加1会在后面详细说明

    vocab_size:表示所有target单词的总个数,其实就是词库的意思


    1.Problem

    由于NLP涉及的方面较多,在本文中我们主要利用transformer解决翻译方面的问题。为了将一种语言翻译为另一种语言,我们希望我们的模型可以完成以下任务:

    1. 能够获取输入语言中各个单词之间的联系,也就是类似分析语言中主谓宾、定状补成分等等。这一部分其实在transformer中的encoder已经实现。
    2. 能够将输入语言中所包含的信息和每一步中已翻译的信息进行结合(输入语言中所包含的信息其实就是encoder的输出,而decoder进行预测的时候是一个单词一个单词预测的)。这一部分其实就是decoder所需要进行的处理。

    encoder和decoder是transformer中两个主要组成部分,如下图所示:

    图1 Encoder与Decoder

    2.主要流程

    信息在transformer结构中的传递主要如下所示:

    1.首先将输入序列的每一个单词每一个单词转化为词嵌入向量,词嵌入向量的维度为(emb_dimb),一句话中总共的单词长度为input_length,因此可以得到一个input_length * emb_dimb大小的矩阵,其中每一行代表的是一个单词。

    2.将1中得到的结果加入位置信息(positional encoding),得到的仍然是一个input_length * emb_dimb大小的矩阵。

    3.然后将2中得到的结果传入N个encode块中,我们得到的仍然是一个input_length * emb_dimb大小的矩阵,至于为什么会是矩阵大小一致可以参照图7,此时的矩阵其实已经包含了输入序列中各个单词之间的关系。

    4.接着将目标序列同样进行1、2的操作,并在此基础上进行mask(如何mask下面会讲到)以防其看到未来信息从而导致过拟合。由于目标序列单词的长度为target_length,所以我们得到了一个(target_length * emb_dimb)大小的矩阵。

    5.将4中的结果输入到N个decoder块中,每一个decoder块同时也使用了3中的结果,如下图2所示,每一个decoder块输出的矩阵大小为target_length * emb_dimb,正是因为矩阵的输入和输出大小一样,所以我们才可以进行迭代的输入到N个decoder块中。

    6.最后将5中的结果输入到一个全连接层中,得到一个(target_length * vocab_size)大小的矩阵,然后对每一行进行softmax,每一行中最大的值即代表了每个输入对应的输出结果。

    图2 encoder与decoder对应的关系

     

    3.输入

    本文所描述的算法主要是利用目标序列和输入序列对网络进行训练。在本节中我们主要讨论的是怎样将一个目标序列(例如: “Hola, como estás ?”)变成一个矩阵的从而可以输入到decorder块中。这个过程其实是和encoder类似:1.进行embeding,将每一单词转化为一个向量形式。2.进行位置编码,添加位置信息。但是和encoder不同之处在于目标序列是有偏移的,例如:[“Hola”, “, “, “como”, “estás”, “?”]→[“<SS>”, “Hola”, “, “, “como”, “estás”, “?”] 

    为什么要这样做呢?我们可以想到在测试的时候我们是没有target sequence的,但是我们需要给定一个decoder的输出才能让它进行预测,这个时候我们只能给定一个开始标记,即<SS>。由于进行了位置编码,相当于我们告诉decoder“让我们根据encoder的编码信息开始预测第一个target sequence的输出吧”。这就解释了为什么target_length需要+1。

     

    4.Decoder(train and test)

    在这一节中主要讨论的是Decoder与Encoder不同的地方

    图3 decoder

    在测试阶段(没有真实标签):

    1.从input sequence中计算embeding,通过N个Encoder块得到各个单词之间关系。

    2.使用一个开始的标志进行预测,例如上面的<SS>输入到decoder块中,并结合从Encoder中得到输入序列的关系,从而得到一个输出,即<SS>的下一个单词“Hola”。

    3.将["<SS>", "Hola"]作为输入,重复上述过程,直到输出一个结束的提示,如<EOS>

    我们可以看到在测试阶段是一个单词一个单词输出,而不是所有单词一起输出,这一点和RNN很类似

     

    在训练阶段:

    由于在训练阶段我们有target sequence,但是target sequence是存在偏移的,所以我们希望通过一个有偏移的target sequence去预测一个没有偏移的target sequence:

    例如[‘<SS>’,’Hola’, ‘,’, ‘ como’, ‘estas’, ‘?’] ----> [’Hola’, ‘,’, ‘ como’, ‘estas’, ‘?’,’<EOS>’]

    在训练阶段我们希望并行训练,类似于上面给的例子,一次性给出全部input sequence,然后一次性预测所有target sequence,而不是像测试过程一样,只能用上一个单词的输出来预测下一个,因此会产生一个问题:由于我们是直接将全部目标序列输入进行训练的,因此模型很容易看到未来信息,例如当我们想要预测estas时,模型可能看到como右边就是estas,因此它很有可能在下一次看到como这个单词的时候就直接输出estas。 所以我们需要修改一些注意层,防止右侧看到信息的模型,同时可以让它使用已经预测出来的信息(左侧信息)即Masked multi-head attention,如下图所示,我们利用<SS>对Hola进行预测,利用[<SS>、‘’Hola’]对‘,’进行预测,预测‘estas‘’时,我们使用的是绿色区域的信息,当然我们可以在像在测试的时候一样一个一个进行预测,然后利用反向传播进行修正,但是这样会奇慢无比(我个人的理解),因此我们需要进行并行训练:

    Masked multi-head attention其实和multi-head attention很类似,唯一不同的就是将未来信息给Mask掉了。我们直接通过例子来进行说明:

    首先我们先计算target sequence的 embeding 向量,然后分别产生Q、V、K向量,再通过(Q*K)/\sqrt{d}计算各个word之间的attention程度大小,产生一个target_length * target_length维度的矩阵,如下图4所示:

    图4 target attention

    由上图我们可以清晰的看到target sequence中各个单词之间的attention,但是在训练阶段我们应该避免看到未来信息,例如在上述矩阵第一行中我们分别计算了<SS>与<SS>、<Hola>、<,>、<como>、<estas>、<?>之间的attention大小,但是在测试阶段我们只有<SS>这个单词的embeding,因此我们只能计算<SS>与<SS>自己的attention,而没办法计算<SS>与其他单词的attention大小,所以在训练阶段我们应该将<SS>与<Hola>、<,>、<como>、<estas>、<?>之间的attention给mask掉。同理在<Hola>这一行中我们应该将其与<,>、<como>、<estas>、<?>的注意力mask掉,如下图5所示:

    图5 mask attention

    为什么我们要将这些注意力设置为-Inf呢?继续往下我们可以看到,当我们将这些未来的注意力设置为-Inf的时候,如果我们再对每一行其进行softmax,那么-Inf位置的attention就是为0的,正好满足我们不给未来信息任何注意力的要求,所以我们得到了一个严格的下三角矩阵,如下图6所示:

    图6 attention softmax

    上面这个矩阵有一些地方是有问题的(第4行第4列应该接近1.0)。后续步骤其实就和multi-head attention一模一样了。现在我们重新捋一遍矩阵大小,来了解一下它的来龙去脉。如下图所示,先将target sequence进行embeding,将其转化为target_length * embeding_length大小的矩阵(embeding_length=512),每一行代表一个单词,每一行都会产生一个Q、K、V向量,d_{q},d_{k},d_{v}的维度都是64,通过Q、K可以得到各个单词之间的attention,维度为:target_length * target_length。将attention矩阵乘以V矩阵,得到target_length * 64维度的矩阵,由于使用的是multi-head attention,因此需要将每个每一个attention的结果进行拼接,从而得到target_length * embeding_length大小的矩阵,进一步证明了输出维度与输入维度是相同的,如下图7所示。

    图7 矩阵大小

    经过mask multi-head attention之后产生的矩阵大小和target_length*embeding_length一样,只不过它仅仅是是融合了之前的信息(即已翻译的单词)。例如下图,我们输入[a、b、c、d] -----> [e、f、g、h],其中各个字母分别对应的是一维向量,我们选取其中的g来举例,它分别融合了a、b、c向量的信息,而没有融合d之间的信息(即未来信息),并且[e、f、g、h]和[a、b、c、d]的矩阵维度是一致的,如下图8所示:

    图8 mask attention

     

    5.Multi-Head Attention — Encoder output and target

    由上一节可以知道通过mask multi-head attention可以得到一个target_length * embeding_length维度的矩阵,我们依然能将这个矩阵的每一行(即每一个单词)输出对应的Q、K、V向量,但是在这里我们仅仅只使用了它的Q向量,而K、V向量则来自于encoder的输出,各个矩阵的维度如下所示:

    Q: target_length * d_{v}

    K: input_length *  d_{v}

    V: input_length *  d_{v}

    接下来我们依然通过attention计算公式(Q*K^{T})/\sqrt{d_{v}}来计算对应的attention,这个attention矩阵维度为:target_length * input_length,即input sequence和target sequence之间的联系,为了便于理解,我们直接给出一个例子,如下图所示:

    input & target relationship

    再将上述attention矩阵与V矩阵相乘,由于是multi attention,因此有多个attention矩阵,最后再将结果按列concat起来得到一个target_length * embeding_legnth矩阵,以便于保证作为下一个deconder块的输入,下图以一个attention为例进行介绍:

    6.linear and softmax

    通过上述可知,由decoder块输出的矩阵维度大小为target_length * embeding_length,但是我们想得到的是target sequence。例如在上面的例子将英语翻译成西班牙语,我们需要做的是从所有的西班牙语单词中找到与之匹配的单词,而在本篇博客的开头我们就设vocab_size表示所有目标单词的总个数,因此我们需要一个linear层,将target_length * embeding_length ----> target_length * vocab_size,再对每一行进行softmax,每一行中最大概率的位置即代表了其预测的下一个单词。

     

    参考资料:

    1.Dissecting BERT Appendix: The Decoder  https://medium.com/dissecting-bert/dissecting-bert-appendix-the-decoder-3b86f66b0e5f

    2.Dissecting BERT Part 1: The Encoder  https://medium.com/dissecting-bert/dissecting-bert-part-1-d3c3d495cdb3

    3.Attention Is All You Need; Vaswani et al., 2017.

    4.BERT大火却不懂Transformer?读这一篇就够了   https://zhuanlan.zhihu.com/p/54356280


    这是本人的第一篇博客,如果有什么问题希望大家多多见谅,只是想在这记录一下自己学到的东西,能帮助大家更好~

    展开全文
  • Video Decoder

    2013-01-26 13:01:10
    视频解码器decoder,广泛应用于显示器,液晶电视,车载娱乐系统等产品,性价比高
  • dtmf-decoder

    2013-06-06 11:21:20
    android dtmf解析 Android DTMF decoder
  • BASE64Decoder

    2018-03-01 15:55:59
    BASE64Decoder包 加密代码: 加密前字符串:String key="mykey"; byte[] bt = key.getBytes(); 加密后字符串:String newKey=(new BASE64Encoder()).encodeBuffer(bt); 解密代码: 加密后的字符串:String newkey=...
  • Spreadsheet Decoder是一个用于解码和更新ODS和XLSX文件电子表格的库。 用法 在服务器端 import 'dart:io'; import 'package:spreadsheet_decoder/spreadsheet_decoder.dart'; main() { var bytes = File.fromUri...
  • IonCube v8.3 Decoder php 解密工具
  • foobar monkey decoder

    2009-03-19 14:30:35
    foobar monkey decoder
  • DCI decoder

    千次阅读 2015-07-14 10:33:15
    LTE DCI Decoder (Supports all Rel-9 DCI formats) WARNING: Scripts must be enabled in your browser for this page to work properly! Duplexing mode: FDD TDD TDD subframe type:
    
    
    
    

    LTE DCI Decoder

    (Supports all Rel-9 DCI formats)

    WARNING: Scripts must be enabled in your browser for this page to work properly!

    Duplexing mode:
    TDD subframe type:
    Channel bandwidth:
    Number of Tx antenna ports:
    Transmission mode:
    RNTI type:
    DCI hex value:
    DCI length (bits):
    All possible DCI lengths (bits):
    (Bold ones are for given setup)

    展开全文
  • BASE64Decoder jar包

    2018-11-30 09:51:40
    base64加密和解密,很好用,亲测试可用,包含sun.misc.BASE64Decoder和sun.misc.BASE64Encoder
  • 轰炸理解深度学习里面的encoder-decoder模型

    万次阅读 多人点赞 2017-12-08 16:08:02
    Encoder-Decoder(编码-解码)是深度学习中非常常见的一个模型框架,比如无监督算法的auto-encoding就是用编码-解码的结构设计并训练的;比如这两年比较热的image caption的应用,就是CNN-RNN的编码-解码框架;再...
    微信公众号

    Encoder-Decoder(编码-解码)是深度学习中非常常见的一个模型框架,比如无监督算法的auto-encoding就是用编码-解码的结构设计并训练的;比如这两年比较热的image caption的应用,就是CNN-RNN的编码-解码框架;再比如神经网络机器翻译NMT模型,往往就是LSTM-LSTM的编码-解码框架。因此,准确的说,Encoder-Decoder并不是一个具体的模型,而是一类框架。Encoder和Decoder部分可以是任意的文字,语音,图像,视频数据,模型可以采用CNN,RNN,BiRNN、LSTM、GRU等等。所以基于Encoder-Decoder,我们可以设计出各种各样的应用算法。

    Encoder-Decoder框架有一个最显著的特征就是它是一个End-to-End学习的算法;本文将以文本-文本的例子作为介绍,这样的模型往往用在机器翻译中,比如将法语翻译成英语。这样的模型也被叫做 Sequence to Sequence learning[1]。所谓编码,就是将输入序列转化成一个固定长度的向量;解码,就是将之前生成的固定向量再转化成输出序列。

    参考文章:本段出自Bin的专栏blog.csdn.net/xbinworld。


    这里复习下Sequence2Sequence任务到底是什么,所谓的Sequence2Sequence任务主要是泛指一些Sequence到Sequence的映射问题,Sequence在这里可以理解为一个字符串序列,当我们在给定一个字符串序列后,希望得到与之对应的另一个字符串序列(如 翻译后的、如语义上对应的)时,这个任务就可以称为Sequence2Sequence了。

    在现在的深度学习领域当中,通常的做法是将输入的源Sequence编码到一个中间的context当中,这个context是一个特定长度的编码(可以理解为一个向量),然后再通过这个context还原成一个输出的目标Sequence。 

    如果用人的思维来看,就是我们先看到源Sequence,将其读一遍,然后在我们大脑当中就记住了这个源Sequence,并且存在大脑的某一个位置上,形成我们自己的记忆(对应Context),然后我们再经过思考,将这个大脑里的东西转变成输出,然后写下来。

    那么我们大脑读入的过程叫做Encoder,即将输入的东西变成我们自己的记忆,放在大脑当中,而这个记忆可以叫做Context,然后我们再根据这个Context,转化成答案写下来,这个写的过程叫做Decoder。其实就是编码-存储-解码的过程。

    而对应的,大脑怎么读入(Encoder怎么工作)有一个特定的方式,怎么记忆(Context)有一种特定的形式,怎么转变成答案(Decoder怎么工作)又有一种特定的工作方式。

    好了,现在我们大体了解了一个工作的流程Encoder-Decoder后,我们来介绍一个深度学习当中,最经典的Encoder-Decoder实现方式,即用RNN来实现。

    这里写图片描述

    在RNN Encoder-Decoder的工作当中,我们用一个RNN去模拟大脑的读入动作,用一个特定长度的特征向量去模拟我们的记忆,然后再用另外一个RNN去模拟大脑思考得到答案的动作,将三者组织起来利用就成了一个可以实现Sequence2Sequence工作的“模拟大脑”了。
    而我们剩下的工作也就是如何正确的利用RNN去实现,以及如何正确且合理的组织这三个部分了。

    参考:http://blog.csdn.net/mebiuw/article/details/53341404


    Encoder-Decoder模型

    Encoder-Decoder框架可以看作是一种文本处理领域的研究模式,应用场景异常广泛。下图是文本处理领域里常用的Encoder-Decoder框架最抽象的一种表示:

    Encoder-Decoder框架可以这么直观地去理解:可以把它看作适合处理由一个句子(或篇章)生成另外一个句子(或篇章)的通用处理模型。对于句子对<X,Y>,我们的目标是给定输入句子X,期待通过Encoder-Decoder框架来生成目标句子Y。X和Y可以是同一种语言,也可以是两种不同的语言。而X和Y分别由各自的单词序列构成:

    Encoder顾名思义就是对输入句子X进行编码,将输入句子通过非线性变换转化为中间语义表示C:

    对于解码器Decoder来说,其任务是根据句子X的中间语义表示C和之前已经生成的历史信息y1,y2….yi-1来生成i时刻要生成的单词yi

    每个yi都依次这么产生,那么看起来就是整个系统根据输入句子X生成了目标句子Y。

    参考文章:http://blog.csdn.net/malefactor/article/details/51124732


    Encoder-Decoder不是一种模型,而是一种框架,一种处理问题的思路,最早应用于机器翻译领域,输入一个序列,输出另外一个序列。机器翻译问题就是将一种语言序列转换成另外一种语言序列,将该技术扩展到其他领域,比如输入序列可以是文字,语音,图像,视频,输出序列可以是文字,图像,可以解决很多别的类型的问题。这一大类问题就是上图中的sequence-to-sequence问题。这里以输入为文本,输出也为文本作为例子进行介绍:

    ä¸é¢ | èªç¶è¯­è¨å¤ç学习ç¬è®°ï¼äºï¼ï¼encoder-decoderæ¡æ¶åattention mechanism两ç§ç ç©¶

    encoder部分是将输入序列表示成一个带有语义的向量,使用最广泛的表示技术是Recurrent Neural Network,RNN是一个基本模型,在训练的时候会遇到gradient explode或者gradient vanishing的问题,导致无法训练,所以在实际中经常使用的是经过改良的LSTM RNN或者GRU RNN对输入序列进行表示,更加复杂一点可以用BiRNN、BiRNN with LSTM、BiRNN with GRU、多层RNN等模型来表示,输入序列最终表示为最后一个word的hidden state vector。

    decoder部分是以encoder生成的hidden state vector作为输入“解码”出目标文本序列,本质上是一个语言模型,最常见的是用Recurrent Neural Network Language Model (RNNLM),只要涉及到RNN就会有训练的问题,也就需要用LSTM、GRU和一些高级的model来代替。目标序列的生成和LM做句子生成的过程类似,只是说计算条件概率时需要考虑encoder向量。

    这里,每一种模型几乎都可以出一篇paper,尤其是在这个技术刚刚开始应用在各个领域中的时候,大家通过尝试不同的模型组合,得到state-of-the-art结果。

    参考文章:

    【1】http://www.weixinnu.com/v/00DK3E

    【2】http://www.bigdataway.net/node/2850


    所谓encoder-decoder模型,又叫做编码-解码模型。这是一种应用于seq2seq问题的模型。
    那么seq2seq又是什么呢?简单的说,就是根据一个输入序列x,来生成另一个输出序列y。seq2seq有很多的应用,例如翻译,文档摘取,问答系统等等。在翻译中,输入序列是待翻译的文本,输出序列是翻译后的文本;在问答系统中,输入序列是提出的问题,而输出序列是答案。
    为了解决seq2seq问题,有人提出了encoder-decoder模型,也就是编码-解码模型。所谓编码,就是将输入序列转化成一个固定长度的向量;解码,就是将之前生成的固定向量再转化成输出序列。

    此处输入图片的描述

     

    当然了,这个只是大概的思想,具体实现的时候,编码器和解码器都不是固定的,可选的有CNN/RNN/BiRNN/GRU/LSTM等等,你可以自由组合。比如说,你在编码时使用BiRNN,解码时使用RNN,或者在编码时使用RNN,解码时使用LSTM等等。
    这边为了方便阐述,选取了编码和解码都是RNN的组合。在RNN中,当前时间的隐藏状态是由上一时间的状态和当前时间输入决定的,也就是

    ht=f(ht−1,xt)

    获得了各个时间段的隐藏层以后,再将隐藏层的信息汇总,生成最后的语义向量

    C=q(h1,h2,h3,…,hTx)

    一种简单的方法是将最后的隐藏层作为语义向量C,即

    C=q(h1,h2,h3,…,hTx)=hTx

    解码阶段可以看做编码的逆过程。这个阶段,我们要根据给定的语义向量C和之前已经生成的输出序列y1,y2,…yt−1来预测下一个输出的单词yt,即 

    yt=argmaxP(yt)=∏t=1Tp(yt|{y1,…,yt−1},C)

    也可以写作 

    yt=g({y1,…,yt−1},C)

    而在RNN中,上式又可以简化成 

    yt=g(yt−1,st,C)

    其中s是输出RNN中的隐藏层,C代表之前提过的语义向量,yt−1表示上个时间段的输出,反过来作为这个时间段的输入。而g则可以是一个非线性的多层的神经网络,产生词典中各个词语属于yt的概率。

    encoder-decoder模型虽然非常经典,但是局限性也非常大。最大的局限性就在于编码和解码之间的唯一联系就是一个固定长度的语义向量C。也就是说,编码器要将整个序列的信息压缩进一个固定长度的向量中去。但是这样做有两个弊端,一是语义向量无法完全表示整个序列的信息,还有就是先输入的内容携带的信息会被后输入的信息稀释掉,或者说,被覆盖了。输入序列越长,这个现象就越严重。这就使得在解码的时候一开始就没有获得输入序列足够的信息, 那么解码的准确度自然也就要打个折扣了

    参考地址:http://blog.csdn.net/u014595019/article/details/52826423


    2019年3月16日补充:

    比较好的文章:

    Encoder-Decoder模型和Attention模型

    地址:https://blog.csdn.net/u011734144/article/details/80230633

    展开全文
  • encoder-decoder

    2016-08-26 09:37:08
    encoder-decoder


    encoder-decoder

    展开全文
  • pdf417decoder是用于解码的纯Python库。 根据PDF417的标准,Reader能够进行错误检测和纠正,您可以在此处阅读有关或从下载PDF的较旧版本。 安装 使用软件包管理器安装pdf417decoder。 pip install pdf417decoder ...
  • DL之Encoder-Decoder:Encoder-Decoder模型的相关论文、设计思路、关键步骤等配图集合之详细攻略 目录 Encoder-Decoder模型的相关论文 Encoder-Decoder模型的设计思路 Encoder-Decoder模型的关键步骤 ...
  • 在调用摄像头使用 Decoder decoder = Base64.getDecoder();函数时会报错无法解析Base64,这个代码比较久,一开始不能用是因为sun.misc.BASE64Encoder jar包在高版本中没有了,百度之后我也正确的导入了import java....
  • BASE64Decoder解密

    千次阅读 2019-05-17 17:19:37
    public void Basedecode(String password) { byte[] b = null; String result = null; if (password !...BASE64Decoder decoder = new BASE64Decoder(); try { b = decoder.decodeBuffer(password); password...
  • AI算法之Encoder-Decoder 和 Seq2Seq

    千次阅读 2020-02-15 21:51:45
    Encoder-Decoder 是 NLP 领域里的一种模型框架。它被广泛用于机器翻译、语音识别等任务。 1 什么是 Encoder-Decoder ? Encoder-Decoder 模型主要是 NLP 领域里的概念。它并不特值某种具体的算法,而是一类算法的...
  • Transformer中的Decoder详解DecoderDecoder结构Masked训练与推断实现代码 Decoder 在上一节中,我们学习了Encoder的结果及实现代码: Transformer中的Encoder详解:Multi-Head-Attention及Feed-Forward 在这一节中,...
  • encoder-decoder模型

    万次阅读 2019-04-19 23:26:37
    元学习论文总结||小样本学习论文总结 2017-2019年计算机视觉顶会文章收录 AAAI2017-2019 CVPR2017-2019 ECCV2018 ICCV2017-2019 ...Encoder-Decoder(编码-解码)是深度学习中非常常见的一个模型框架,比如无监督算...
  • sun.misc.BASE64Decoder.rar

    2020-01-15 20:14:34
    Intellij-解决报错:import sun.misc.BASE64Decoder无法找到 报错原因:JDK从1.8升级到9.0.1后sun.misc.BASE64Decoder和sun.misc.BASE64Encoder不可用 sun.misc.BASE64Decoder
  • Object Contour Detection with a Fully Convolutional Encoder-Decoder Network 论文解析 Prerequisite contour detection是一种识别物体边际的task,其可以视作为object detection的前提,将图片中所有物体的边际...
  • Base64Encoder和Base64Decoder无法使用解决办法

    万次阅读 多人点赞 2019-02-20 14:13:30
    原方法 BASE64Encoder encoder = new BASE64Encoder(); String imagestr = encoder.encode...BASE64Decoder decoder = new BASE64Decoder(); byte[] bytes = decoder.decodeBuffer(imagestr); 现方法 impor...
  • sun.misc.BASE64Decoder

    千次下载 热门讨论 2012-05-15 16:38:08
    解决android无法使用sun.misc.CharacterDecoder,添加了rt.jar也不行。...BASE64Decoder.java BASE64Encoder.java CEFormatException.java CEStreamExhausted.java CharacterDecoder.java CharacterEncoder.java
  • GDCM:gdcm::Decoder的测试程序GDCM:gdcm::Decoder的测试程序 GDCM:gdcm::Decoder的测试程序 #include "gdcmDecoder.h" namespace gdcm { class DummyDecoder : public Decoder { public: bool CanDecode...
  • sun.misc.BASE64Decoder.jar sun.misc.BASE64Decoder.jar sun.misc.BASE64Decoder.jar sun.misc.BASE64Decoder.jar
  • 在新的环境下导入原正常运行的SpringBoot项目,所有的BASE64Decoder报错,原因可能是JDK从1.8升级到9.0.1后sun.misc.BASE64Decoder和sun.misc.BASE64Encoder不可用。 从JDK 1.8开始,就提供了java.util.Base64....
  • Step 3 创建license 注意Viterbi Decoder那行方框默认是打钩的,没有的话请自己勾选 Step 4 填写电脑信息,选择系统版本以及填写以太网MAC码(不知道MAC码如何查的请自己网上搜索) Step 5 填写完成后Next按钮可...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 93,470
精华内容 37,388
关键字:

decoder