精华内容
下载资源
问答
  • 迁移学习——论文集推荐

    千次阅读 2018-06-26 15:42:45
    14 篇论文为你呈现「迁移学习」研究全貌 | 论文集精选 #04 迁移学习对于人类来说,就是掌握举一反三的学习能力。对于计算机而言,所谓迁移学习,就是从一个或多个源任务(source task)中抽取知识和经验,然后将...

    来自PaperWeekly的CSDN 文章

    14 篇论文为你呈现「迁移学习」研究全貌 | 论文集精选 #04

     

        迁移学习对于人类来说,就是掌握举一反三的学习能力。对于计算机而言,所谓迁移学习,就是从一个或多个源任务(source task)中抽取知识和经验,然后将其应用于一个有相关性的目标领域(target domain)

    (1)Domain adaptation via transfer component analysis

    论文链接:http://www.paperweekly.site/papers/793

        迁移学习领域公认的经典工作,作者团队来自香港科技大学 Qiang Yang 教授团队,推荐所有做迁移学习研究的同学都看一看。

    (2)Geodesic flow kernel for unsupervised domain adaptation

    论文链接:http://www.paperweekly.site/papers/794

        迁移学习领域代表性文章——GFK(Geodesic flow kernel)。GFK 方法首先解决 SGF 的问题:如何确定 source 和 target 路径上中间点的个数。它通过提出一种 kernel 方法,利用路径上的所有点的积分,把这个问题解决了。这是第一个贡献。然后,它又解决了第二个问题:当有多个 source 的时候,我们如何决定使用哪个 source 跟 target 进行迁移?GFK 通过提出 Rank of Domain 度量,度量出跟 target最近的 source,来解决这个问题。

    (3)Transfer feature learning with joint distribution adaptation

    论文链接:http://www.paperweekly.site/papers/795

        迁移学习领域又一经典文章,是 TCA 的增强版本,推荐读。JDA 方法比较巧妙,同时适配两个分布,然后非常精巧地规到了一个优化目标里。用弱分类器迭代,最后达到了很好的效果,值得我们去学习。

    (4)Unsupervised Domain Adaptation by Backpropagation

    论文链接:http://www.paperweekly.site/papers/1035

    代码链接:https://github.com/shucunt/domain_adaptation

        深度迁移学习经典文章。

    (5)How transferable are features in deep neural networks?

    论文链接:http://www.paperweekly.site/papers/796

    代码链接:https://github.com/yosinski/convnet_transfer

        探究深度网络的可迁移性质,非常值得读。虽然该论文并没有提出一个创新方法,但是通过实验得到了以下几个结论,对以后的深度学习和深度迁移学习都有着非常高的指导意义。神经网络的前 3 层基本都是 general feature,进行迁移的效果会比较好;深度迁移网络中加入 fine-tune,效果会提升比较大,可能会比原网络效果还好;Fine-tune 可以比较好地克服数据之间的差异性;深度迁移网络要比随机初始化权重效果好;网络层数的迁移可以加速网络的学习和优化。

    (6)Deep Domain Confusion: Maximizing for Domain Invariance

    论文链接:http://www.paperweekly.site/papers/1038

        深度迁移学习最早期的代表性文章,虽然至今为止不知道发在哪里(一直只是在 arXiv 上),但是引用量很大,算是比较基础性的工作。值得一读。

    (7)Learning Transferable Features with Deep Adaptation Networks

    论文链接:http://www.paperweekly.site/papers/797

        深度适配网络(Deep Adaptation Netowrk,DAN)是清华大学龙明盛提出来的深度迁移学习方法,最初发表于 2015 年的机器学习领域顶级会议 ICML 上。DAN 解决的也是迁移学习和机器学习中经典的 domain adaptation 问题,只不过是以深度网络为载体来进行适配迁移

    (8)Simultaneous Deep Transfer Across Domains and Tasks

    论文链接:http://www.paperweekly.site/papers/1040

        传统的深度迁移学习方法只进行 domain confusion,这个文章加入了 task transfer,也就是说,充分考虑到类别之间的相似性。

    (9)A Unified Framework for Metric Transfer Learning

    论文链接:http://www.paperweekly.site/papers/1039

        这篇文章的作者团队来自新加坡南洋理工大学,主要老板是 Sinno Jialin Pan,他是迁移学习大牛杨强的学生,《A survey on transfer learning》的第一作者。文章比较新,值得一读。

    (10)Adversarial Discriminative Domain Adaptation

    论文链接:http://www.paperweekly.site/papers/690

    代码链接:https://github.com/erictzeng/adda 和 https://github.com/corenel/pytorch-adda

        ADDA 总结了 DA 领域的总体架构,提纲挈领。

    (11)Correlation Alignment by Riemannian Metric for Domain Adaptation

    论文链接:http://www.paperweekly.site/papers/1042

    一个比较新的工作,但是创新性比较小:只是将现有的 CoRAL 工作中的距离度量换成了在黎曼空间下的度量

    (12)Understanding How Feature Structure Transfers in Transfer Learning

    论文链接:http://www.paperweekly.site/papers/1044

        IJCAI-17 最新文章,理解迁移学习中 feature 是如何进行 transfer 的。有两个大牛 Qiang Yang 和 Dacheng Tao 坐镇,文章肯定不差。

    (13)Associative Domain Adaptation

    论文链接:http://www.paperweekly.site/papers/686

    代码链接:https://github.com/haeusser/learning_by_association

        相比较 ADDA 而言,从很大程度上提升了 DA 的性能,值得一读。

    (14)Learning to Transfer

    论文链接:http://www.paperweekly.site/papers/1041

        迁移学习领域比较新的研究方向,将迁移学习与增量学习结合起来,是开创性的工作。建议一读。

     

     

     

     

     

    展开全文
  • DeepSort论文学习

    万次阅读 多人点赞 2018-03-31 16:31:06
    论文题目:SIMPLE ONLINE AND REALTIME TRACKING WITH A DEEP ASSOCIATION METRIC 摘要 DeepSort是在Sort目标追踪基础上的改进。引入了在行人重识别数据集上离线训练的深度学习模型,在实时目标追踪过程中...

    论文题目:SIMPLE ONLINE AND REALTIME TRACKING WITH A DEEP ASSOCIATION METRIC

    1 摘要

    DeepSort是在Sort目标追踪基础上的改进。引入了在行人重识别数据集上离线训练的深度学习模型,在实时目标追踪过程中,提取目标的表观特征进行最近邻匹配,可以改善有遮挡情况下的目标追踪效果。同时,也减少了目标ID跳变的问题。

    2 核心思想

    算法的核心思想还是用一个传统的单假设追踪方法,方法使用了递归的卡尔曼滤波和逐帧的数据关联。

    2.1 轨迹处理和状态估计

    该部分的思路和sort很接近。

    • 运动状态估计:
      使用8个参数这里写图片描述来进行运动状态的描述,其中(u,v)是bounding box的中心坐标,r是长宽比,h表示高度。其余四个变量表示对应的在图像坐标系中的速度信息。使用一个基于常量速度模型和线性观测模型的标准kalman滤波器进行目标运动状态的预测,预测的结果为(u,v,r,h)。

    • 目标的创建与移除
      对每一个追踪目标,记录自其上一次检测结果与追踪结果匹配之后的帧数aka_kak,一旦一个目标的检测结果与追踪结果正确关联之后,就将该参数设置为0。如果aka_kak超过了设置的最大阈值AmaxA_{max}Amax,则认为对该目标的追踪过程已结束。对新目标出现的判断则是,如果某次检测结果中的某个目标始终无法与已经存在的追踪器进行关联,那么则认为可能出现了新目标。如果连续的3帧中潜在的新的追踪器对目标位置的预测结果都能够与检测结果正确关联,那么则确认是出现了新的运动目标;如果不能达到该要求,则认为是出现了“虚警”,需要删除该运动目标。

    2.2 指派问题

    传统的解决检测结果与追踪预测结果的关联的方法是使用匈牙利方法。本文作者同时考虑了运动信息的关联和目标外观信息的关联。

    • 运动信息的关联:使用了对已存在的运动目标的运动状态的kalman预测结果与检测结果之间的马氏距离进行运行信息的关联。
      这里写图片描述
      djd_jdj表示第j个检测框的位置,yiy_iyi表示第i个追踪器对目标的预测位置,SiS_iSi表示检测位置与平均追踪位置之间的协方差矩阵。马氏距离通过计算检测位置和平均追踪位置之间的标准差将状态测量的不确定性进行了考虑。
      如果某次关联的马氏距离小于指定的阈值t(1)t^{(1)}t(1),则设置运动状态的关联成功。使用的函数为这里写图片描述,作者设置t(1)=9.4877t^{(1)}=9.4877t(1)=9.4877
    • 当运动的不确定性很低的时候,上述的马氏距离匹配是一个合适的关联度量方法,但是在图像空间中使用kalman滤波进行运动状态估计只是一个比较粗糙的预测。特别是相机存在运动时会使得马氏距离的关联方法失效,造成出现ID switch的现象。因此作者引入了第二种关联方法,对每一个的检测块djd_jdj求一个特征向量rir_iri,限制条件是∣∣ri∣∣=1||r_i||=1ri=1。作者对每一个追踪目标构建一个gallary,存储每一个追踪目标成功关联的最近100帧的特征向量。那么第二种度量方式就是计算第i个追踪器的最近100个成功关联的特征集与当前帧第j个检测结果的特征向量间的最小余弦距离。计算公式为:
      这里写图片描述
      如果上面的距离小于指定的阈值,那么这个关联就是成功的。阈值是从单独的训练集里得到的。
    • 使用两种度量方式的线性加权作为最终的度量,这里写图片描述,只有ci,jc_{i,j}ci,j位于两种度量阈值的交集内时,才认为实现了正确的关联。
      距离度量对短期的预测和匹配效果很好,但对于长时间的遮挡的情况,使用外观特征的度量比较有效。对于存在相机运动的情况,可以设置λ=0\lambda = 0λ=0.

    2.3 级联匹配

    当一个目标长时间被遮挡之后,kalman滤波预测的不确定性就会大大增加,状态空间内的可观察性就会大大降低。假如此时两个追踪器竞争同一个检测结果的匹配权,往往遮挡时间较长的那条轨迹因为长时间未更新位置信息,追踪预测位置的不确定性更大,即协方差会更大,马氏距离计算时使用了协方差的倒数,因此马氏距离会更小,因此使得检测结果更可能和遮挡时间较长的那条轨迹相关联,这种不理想的效果往往会破坏追踪的持续性。这么理解吧,假设本来协方差矩阵是一个正态分布,那么连续的预测不更新就会导致这个正态分布的方差越来越大,那么离均值欧氏距离远的点可能和之前分布中离得较近的点获得同样的马氏距离值。

    所以,作者使用了级联匹配来对更加频繁出现的目标赋予优先权,具体的算法如下图:
    这里写图片描述
    级联匹配的核心思想就是由小到大对消失时间相同的轨迹进行匹配,这样首先保证了对最近出现的目标赋予最大的优先权,也解决了上面所述的问题。
    在匹配的最后阶段还对unconfirmed和age=1的未匹配轨迹和检测目标进行基于IoU的匹配。这可以缓解因为表观突变或者部分遮挡导致的较大变化。当然有好处就有坏处,这样做也有可能导致一些新产生的轨迹被连接到了一些旧的轨迹上。但这种情况较少。

    2.4 深度特征描述器

    网络结构:
    这里写图片描述
    在行人重识别数据集上离线训练残差网络模型。输出128维的归一化的特征。在GTX1050m显卡上,输入32个bounding box提取特征的时间约为30ms。预训练的模型和代码位于 https://github.com/nwojke/deep_sort

    3 实验

    在这里插入图片描述
    作者使用《Poi:
    Multiple object tracking with high performance detection and appearance feature》文章训练的高性能faster rcnn模型进行检测。检测的置信度阈值设置为0.3。λ=0,Amax=30\lambda = 0,A_{max} = 30λ=0,Amax=30
    和sort对比,好处是:

    • 减少了45%的ID switch;
    • 结合了深度外观信息,对遮挡目标的追踪效果大大提升;
    • FP的升高很多,文章中提出这主要是由于静态场景中detection的错误以及过长的允许丢失的track age所导致的(相对于SORT只用相邻帧进行匹配来说,Deep SORT允许高达30帧的丢失,而Kalman的等速运动模型没有改变,这主要造成了FP的升高)。
    • 20Hz,依旧实用;
    • 达到了state-of-art online tracking的效果。

    参考:
    https://www.cnblogs.com/YiXiaoZhou/p/7074037.html
    http://www.cnblogs.com/yanwei-li/p/8643446.html

    代码解析

    deep_sort代码(此处)处理流程解析:
    按视频帧顺序处理,每一帧的处理流程如下:

    • 1.读取当前帧目标检测框的位置及各检测框图像块的深度特征(此处在处理实际使用时需要自己来提取);

    • 2.根据置信度对检测框进行过滤,即对置信度不足够高的检测框及特征予以删除;

    • 3.对检测框进行非最大值抑制,消除一个目标身上多个框的情况;

    • 4.预测:使用kalman滤波预测目标在当前帧的位置

      执行kalman滤波公式1和2:x(k)=Ax(k−1)x(k) = A x(k-1)x(k)=Ax(k1)p(k)=Ap(k−1)AT+Qp(k)=Ap(k-1)A^T+Qp(k)=Ap(k1)AT+Q,其中,x(k−1)x(k-1)x(k1)为目标的状态信息(代码中的mean),为上一帧中目标的信息[center x,center y,aspect ration,height,0,0,0,0];p(k−1)p(k-1)p(k1)为目标的估计误差(代码中的covariance);A为状态转移矩阵;Q为系统误差;

      #mean
      mean_pos = measurement
      mean_vel = np.zeros_like(mean_pos)
      mean = np.r_[mean_pos, mean_vel]
      
      #covariance
      self._std_weight_position = 1. / 20
      self._std_weight_velocity = 1. / 160    (可调参数)
      std = [
                  2 * self._std_weight_position * measurement[3],
                  2 * self._std_weight_position * measurement[3],
                  1e-2,
                  2 * self._std_weight_position * measurement[3],
                  10 * self._std_weight_velocity * measurement[3],
                  10 * self._std_weight_velocity * measurement[3],
                  1e-5,
                  10 * self._std_weight_velocity * measurement[3]]
              covariance = np.diag(np.square(std))
      
      #矩阵A
      ndim, dt = 4, 1.
      
      self._motion_mat = np.eye(2 * ndim, 2 * ndim)
      for i in range(ndim):
        self._motion_mat[i, ndim + i] = dt                   
      

      A=1000100001000100001000100001000100001000000001000000001000000001 A= \begin{matrix} 1 & 0 & 0 & 0 & 1 & 0 & 0 & 0 \\ 0 & 1 & 0 & 0 & 0 & 1 & 0 & 0 \\ 0 & 0 & 1 & 0 & 0 & 0 & 1 & 0 \\ 0 & 0 & 0 & 1 & 0 & 0 & 0 & 1 \\ 0 & 0 & 0 & 0 & 1 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0 & 0 & 1 & 0 & 0 \\ 0 & 0 & 0 & 0 & 0 & 0 & 1 & 0 \\ 0 & 0 & 0 & 0 & 0 & 0 & 0 & 1 \\ \end{matrix} A=1000000001000000001000000001000010001000010001000010001000010001

      std_pos = [
                  self._std_weight_position * mean[3],
                  self._std_weight_position * mean[3],
                  1e-2,
                  self._std_weight_position * mean[3]]
      std_vel = [
                  self._std_weight_velocity * mean[3],
                  self._std_weight_velocity * mean[3],
                  1e-5,
                  self._std_weight_velocity * mean[3]]
      #矩阵Q
      motion_cov = np.diag(np.square(np.r_[std_pos, std_vel]))
      
      #kalman滤波公式1
      mean = np.dot(self._motion_mat, mean)
      
      #kalman滤波公式2
      covariance = np.linalg.multi_dot((
                  self._motion_mat, covariance, self._motion_mat.T)) + motion_cov
      

      预测完之后,对每一个追踪器设置self.time_since_update += 1

    • 5.更新:更新kalman追踪器参数及特征集,另外进行目标消失、新目标出现的判断

      • 5.1检测结果与追踪预测结果的匹配

        • 5.1.1区分已确认状态的追踪器和未确认状态的追踪器;

        • 5.1.2已确认状态的追踪器进行级联匹配

          • 5.1.2.1对同一消失时间的多个追踪器,计算当前帧新检测的每个目标的深度特征与各追踪器已保存的特征集之间的余弦距离矩阵。假如当前帧有11个检测目标,已有10个追踪器,每个追踪器已保留前面6帧目标的深度特征,则计算得到的cost_matrix大小为1011,计算过程为首先对每一个追踪器的6个特征,计算与当前帧11个新检测目标特征之间的(1 - 余弦距离),得到611矩阵,对每个检测块求最小余弦距离,得到1*11矩阵,存入cost_matrix对应行,表示对当前追踪器而言与当前各检测块之间最小的余弦距离;
          cost_matrix = self.metric.distance(features, targets)
          	
          	#distance函数
          	cost_matrix = np.zeros((len(targets), len(features)))
                  for i, target in enumerate(targets):
          	           cost_matrix[i, :] = self._metric(self.samples[target], features)
          			          
          			           #_metric函数
          			           distances = _cosine_distance(x, y)
          					    return distances.min(axis=0)
          				    
                  return cost_matrix
          
          • 5.1.2.2在计算特征的cost_matrix的基础上,计算kalman滤波预测位置与检测框之间的马氏距离,具体过程为,先将各检测框由[x,y,w,h]转化为[center x,center y, aspect ration,height],对每一个追踪器,也就是cost_matrix中的每一行,计算预测结果与检测结果之间的马氏距离,假设该帧有11个检测结果,那么马氏距离为1*11的矩阵,对cost_matrix中当前行,将马氏距离大于指定阈值的位置处置为1e+5。这样做实现了作者论文中所说的两种度量方式的gating,但是没有体现λ\lambdaλ参数的作用,另外使用cholesky分解计算马氏距离部分不是很理解。
          • 5.1.2.3将cost_matrix中大于max_distance的元素置为cost_matrix > max_distance
          • 5.1.2.4使用匈牙利算法以cost_matrix为输入进行指派
          • 5.1.2.5指派完成后,分类未匹配的检测、未匹配的追踪、匹配对(cost_matrix中阈值大于max_distance的匹配对也送入未匹配检测和未匹配追踪中去)
        • 5.1.3 未级联匹配上追踪器和未确认状态的追踪与未级联匹配上的检测之间基于IOU进行匹配,具体实现是计算cost_matrix矩阵,矩阵的每一行表示一个追踪器和每一个检测结果之间的(1 - IOU)。对cost_matrix中大于max_distance的元素置为max_distance,然后使用匈牙利算法以cost_matrix矩阵作为输入进行指派,指派完成后依然统计matchs,unmatched_detections,unmatched_tracks;

      • 5.2匹配上的,去做参数更新

        • 参数更新的过程就是计算kalman滤波的公式3,4,5。其中公式3中的R矩阵为
        std = [
        	self._std_weight_position * mean[3],
        	self._std_weight_position * mean[3],
        	1e-1,
        	self._std_weight_position * mean[3]]
        	
        innovation_cov = np.diag(np.square(std))
        
        • 参数更新完成之后,特征插入追踪器特征集,对应参数进行重新初始化
        self.features.append(detection.feature)
        
        self.hits += 1
        self.time_since_update = 0 #重置为0
        
        #满足条件时确认追踪器
        if self.state == TrackState.Tentative and self.hits >= self._n_init:
           self.state = TrackState.Confirmed
        
      • 5.3未匹配的追踪器有可能要删除

        未匹配的追踪器表示虽然预测到了新的位置,但是检测框匹配不上

        #待定状态的追踪器直接删除
            if self.state == TrackState.Tentative:
                self.state = TrackState.Deleted 
                
            #已经时confirm状态的追踪器,虽然连续多帧对目标进行了预测, 
            #但中间过程中没有任何一帧能够实现与检测结果的关联,说明目标 
            #可能已经移除了画面,此时直接设置追踪器为待删除状态
            elif self.time_since_update > self._max_age:
                self.state = TrackState.Deleted
        
      • 5.4未匹配的检测,初始化为新的追踪器
        没有匹配上的检测,说明是出现了新的待追踪目标,此时初始化一个新的kalman滤波器,再初始化一个新的追踪器

        #根据初始检测位置初始化新的kalman滤波器的mean和covariance
        mean, covariance = self.kf.initiate(detection.to_xyah()) 
        #初始化一个新的tracker
        self.tracks.append(Track(
                    mean, covariance, self._next_id, self.n_init, self.max_age,
                    detection.feature))
        
        	#Tracker的构造函数
        			self.mean = mean #初始的mean
        	        self.covariance = covariance #初始的covariance
        	        self.track_id = track_id #id
        	        self.hits = 1
        	        self.age = 1
        	        self.time_since_update = 0 #初始值为0
        	 
        	        self.state = TrackState.Tentative #初始为待定状态
        	        self.features = []
        	        if feature is not None:
        	            self.features.append(feature) #特征入库
        	
        	        self._n_init = n_init
        	        self._max_age = max_age
        #总的目标id++
        self._next_id += 1
        
      • 5.5删除待删除状态的追踪器

      self.tracks = [t for t in self.tracks if not t.is_deleted()]
      
      • 5.6更新留下来的追踪器的特征集
      	#每个activate的追踪器保留最近的self.budget条特征
              for feature, target in zip(features, targets):
                  self.samples.setdefault(target, []).append(feature)
                  if self.budget is not None:
                      self.samples[target] = self.samples[target][-self.budget:]
                      
              #以dict的形式插入总库
              self.samples = {k: self.samples[k] for k in active_targets}
      
    展开全文
  • 区块链学习必读论文

    千次阅读 多人点赞 2019-09-02 09:04:27
    这篇论文可谓是所有区块链从业者的入门必读,当然了,如果你读起来吃力的话,可以在网上找一下翻译的版本。    *地址: https://bitcoin.org/bitcoin.pdf   区块首尾相连就组成了区块链   ...

    区块链行业中,很多开发者都是半路出家的,想要成为区块链的「正规军」并非易事

     

    不少人想到要向学术界“取取经”。看看学术界是怎样培养区块链人才的?学术圈又如何入门区块链?

     

    为此南加州大学教授 Bhaskar Krishnamachari 结合自己的授课经验,为我们带来了这份来自学术界的区块链入门圣经

     

    让我们看看,南加州大学教授的书单上,都有哪些必读资料吧。

     

     

    在我的区块链学习和教学生涯中,我精心挑选并标注了一些令人眼前一亮,值得一读的论文和文献,现在将它们整理出来,希望它们可以帮你拨开眼前迷雾,帮你了解区块链和去中心账本技术的起源以及最新的研究成果

     

    区块链技术的初学者往往会淹没在各种想法、协议标准、白皮书的汪洋大海中,而且初学者往往缺乏鉴别的能力,因而通常会在那些毫无干货的“垃圾”中浪费过多的时间

     

    这也是我刚入门时的写照,在我这两年的学习中,通过不断踩坑锻炼了我的鉴别能力,到现在我已经能很好地确定和理解区块链领域中的主次。

     

    这两年里,我还在南加州大学开设了一门区块链的课程,并面向研究生创建了一个区块链研究的读书小组。在教学生涯中,我积累了很多的经验,并将这些经验整理成了本篇文章。

     

    我认为,区块链初学者最开始应该学习大而广的区块链知识,打好基础后再选择一个感兴趣的方向深入研究,这样能激发初学者更多的可能

     

    因此在本篇文章中我对各个区块链协议雨露均沾,并没有针对某个主流的区块链“打破砂锅问到底”。

     

    现在让我们开始吧~

     

     

     

    入门:那些必读的白皮书

     

    这一部分都是经典的区块链开山之作,相信读完了这些你就会对区块链有了初步的了解。

     

    1.《比特币:一个点对点的电子现金系统》:中本聪( Satoshi Nakomoto )在 2008 年发表的这篇论文开创了区块链的时代。论文中中本聪革命性地将哈希链、公钥加密、使用工作量证明进行去中心化的共识、最长链机制、挖矿激励等几个核心要素有机结合,赋予区块链巨大的能量。这篇论文可谓是所有区块链从业者的入门必读,当然了,如果你读起来吃力的话,可以在网上找一下翻译的版本。 

     

    *地址:

    https://bitcoin.org/bitcoin.pdf

     

    区块首尾相连就组成了区块链

     

    2.《以太坊:下一代智能合约和去中心化应用程序平台》:准确地说,这是一本白皮书,它介绍了以太坊这个 2015 年面世的基于状态机的第二代区块链协议。以太坊拥有一个(准)图灵完备的虚拟机,它支持在区块链上进行计算,并以”燃料费用”计价,用户可以在以太坊上运行脚本(虽然这种表述有些误导性),也就是我们常说的智能合约。

     

    *地址:

    https://github.com/ethereum/wiki/wiki/White-Paper

     

    3. 《 Hyperledger Fabric:基于私有区块链(也叫许可区块链)的去中心化操作系统》:这是一篇 2018 年发表的同行评审文章,它介绍了当下最受欢迎的私有区块链 Hyperledger Fabric 的架构。与比特币和以太坊这些公有区块链不同,私有区块链是封闭的,只有得到许可的用户才能参与其中。这篇文章论证了将交易的执行过程与交易的验证过程分离,以及不等交易完成验证就执行交易的好处。Hyperledger Fabric 的共识机制可以支持定制化,模块化的设计。

     

    *地址:

    https://arxiv.org/pdf/1801.10228.pdf

     

    Hyperledger Fabric 架构

     

    4. 《 Tendermint:关于拜占庭容错共识算法的最新进展》:这是一篇 2018 年发表的论文,文章中提出了简化的拜占庭容错( Byzantine Fault Tolernant ,BFT )共识协议。这个改进的协议需要多回合的执行,每一个回合都会有一个专门的提议者。协议为便于理解和实现做出了优化,在提议者不表现出恶意行为且通信不受影响的理想情况下,它只需执行三个回合就能达成共识。同时,文章中提供了协议正确性的形式化证明。

     

    *地址:

    https://arxiv.org/pdf/1807.04938.pdf

     

    5. 《 Swirlds 哈希图共识算法》:哈希图是一个 2016 年提出的基于有向无环图( Directed Acyclic Graph,DAG )的协议,该共识协议使用了一个基于 gossip 的算法,可以提供可证明的拜占庭容错共识。在理想没有故障的情况下,该协议可以做到无需领导,异步且快速地建立共识,与其他协议相比,它可以以最少的通信量达到整体的排序。使用到有向无环图的协议还包括 IOTA, Spectre。

     

    *地址:

    https://www.swirlds.com/downloads/SWIRLDS-TR-2016-01.pdf

     

    6. 《 Ouroboros:一个可证明安全的权益证明区块链协议》:这篇 2017 年发表的论文介绍并从数学的角度分析了对应于区块生成的按回合运行的同步协议 Ouroboros,该协议以分批次的方式运行。Ouroboros 专为被誉为区块链 3.0 的 Cardano 区块链开发。在每个回合的开始阶段,权益相关者组成的委员会使用安全多方计算来为该时段选择一个区块生产者的随机序列,并选取下一回合的委员会。每个用户被选择成为区块生产者的概率取决于他所投入的权益。

     

    *地址:

    https://eprint.iacr.org/2016/889.pdf

     

    Ouroboros 上的分叉

     

    7. 《 Algorand:加密货币高可拓展性拜占庭容错共识协议》 :Algorand 发表于 2018 年,它提供了一种改进的拜占庭容错协议机制,即使用可验证随机函数( Verifiable Random Function, VRF )以隐秘且非交互的方式来选择一部分用户参与共识。这个协议参考了权益证明机制的思想,按照每个参与者投入的货币价值给予其相应的权重。该协议的亮点在于可扩展性,它可以支持很高的交易吞吐量并避免了工作量证明区块链在计算上付出的昂贵代价。

     

    *地址:

    https://people.csail.mit.edu/nickolai/papers/gilad-algorand-eprint.pdf

     

    8. 《 Avalanche:一种亚稳态的新共识协议》: 这篇由匿名组织“火箭团队”撰写的论文于 2018 年发表。它提出了一种无需领导的,基于 gossip 协议,使用有向无环图的概率共识协议。与其他区块链协议相比,Avalanche 协议表现出更好的通信复杂度,因而具有更强的可扩展性。同时,论文中还论证了协议的安全性和存活能力。然而,在 Avalanche 协议的设计中考虑到了女巫攻击,但没有考虑到区块链的激励机制。不过好在,基于有向无环图的区块链协议 Perlin在 Avalanche 共识的基础上解决了这些问题。

     

    *地址:

    https://ipfs.io/ipfs/QmUy4jh5mGNZvLkjies1RWM4YuvJh5o2FYopNPVYwrRVGV

     

    由 Avalanche 建造的有向无环图

     

     

    9. 《大零币 Zerocash:来自比特币的去中心化匿名支付》:2014 年发表的这篇论文展示了如何使用零知识简洁的非交互式知识论证(零知识证明,zk-SNARKs )来实现去中心化的匿名交易,其中交易的发起方、接收方、交易的金额都是保密的。

     

    *地址:

    http://zerocash-project.org/media/pdf/zerocash-oakland2014.pdf

     

    10.《乌龟和野兔共识(Tortoise and Hares Consensus):针对激励兼容,可扩展性的加密货币 Meshcash 框架》:这篇 2017 年发表的论文结合了基于工作量证明的公有区块链拜占庭容错共识协议(慢速的乌龟)与可能会出错但运行快速的共识协议(快速的野兔)。该协议在降低平均共识建立时间的同时,即使在最坏的安全状况下,它也能保证最终结果的一致性和不变性。它是一种区块的有向无环图协议。

     

    *地址:

    https://eprint.iacr.org/2017/300.pdf

     

     

     

    初级:那些必读的论文

     

    这一部分主要是区块链各细分领域的研究成果,希望能够帮助你找到自己的兴趣点。

     

    11.《比特币闪电网络( Lightning Network):可扩展的区块链链下即时支付》:这篇 2016 年发表的论文讲述了如何使用“第二层”微支付通道实现比特币的链下交易。闪电网络中的交易会被延时发送到区块链主网上,从而使更快速,可拓展性更强的比特币交易成为可能。(以太坊上也有一个类似的网络:雷电网络(Raiden))。

     

    *地址:

    https://lightning.network/lightning-network-paper.pdf

     

    12.《原子交换(Atomic Swaps )》: 一种在不同区块链/去中心化账本平台之间交易加密货币的解决方案。

     

    *地址:

    https://en.bitcoin.it/wiki/Atomic_swap

     

    13. 《Cosmos:去中心化账本网络》:这篇论文提出使用基于 Tendermint 的集线器(hub)使不同的去中心化账本(分区)可以使用跨区块链通信(IBC)协议相互发送交易。这项工作旨在提升不同区块链平台之间的互操作性,并简化那些基于分片技术的可拓展性解决方案的部署。

     

    *地址:

    https://github.com/cosmos/cosmos/blob/master/WHITEPAPER.md

     

    集线器和分区

     

    14. 《 Truebit:区块链的可扩展验证解决方案》: 这篇论文通过激励机制以及使用一种新颖的验证博弈来实现链下的计算验证,从而在以太坊上实现了一个可拓展的计算框架。

     

    *地址:

    https://people.cs.uchicago.edu/~teutsch/papers/truebit.pdf

     

    15.《 Ripple 共识协议》:一种使用可信的子网络组旨在实现低延迟交易的拜占庭容错共识协议。它最多可以在(n-1)/ 5 的参与者为恶意参与者的情况下建立共识,这个数据稍微弱于传统拜占庭容错共识协议的(n-1)/ 3。目前 Ripple 共识协议已广泛应用于金融行业。

     

    *地址:

    https://ripple.com/files/ripple_consensus_whitepaper.pdf

     

    16. 《Tezos:一个可以自我修正的加密账本》:这份 2014 年发表的白皮书介绍了 Tezos 以管理为中心的理念。通过使用一个基于权益证明的种子产生协议,Tezos 允许权益相关者为区块链上的修正进行投票,甚至这个投票过程也可以被修正。2017 年发表的一篇关于 Tezos 的最新论文介绍了其使用应用程序开发语言 OCaml 的设计和实现,以及其旨在促进交易的验证并提供更高的安全性且具有形式化语义( formal semantics )的智能合约开发语言 Michelson 。

     

    *地址:

    https://tezos.com/static/white_paper-2dc8c02267a8fb86bd67a108199441bf.pdf

     

    17. 《EOS.IO》:EOS.IO 是一个于 2018 年面世的加密货币和去中心化应用程序开发平台。在共识机制方面 EOS.IO 使用了委托权益证明( DPOS )。为了提高区块链的性能,消除用户的手续费以及加入区块链链下的治理,EOS.IO 在去中心化的程度和安全性对链下治理的依赖程度上做出了折中。

     

    *地址:

    https://github.com/EOSIO/Documentation/blob/master/TechnicalWhitePaper.md

     

    18. 《Bancor 协议》:这种复杂的协议可以以编程的方式计算盈亏,从而在通证的价格达到给定值时自动买入或卖出通证。

     

    *地址:

    https://storage.googleapis.com/website-bancor/2018/04/01ba8253-bancor_protocol_whitepaper_en.pdf

     

    19.《通证注册表( Token Curated Registries )1.1》:一个旨在创建并维持通证经济的机制,用来激励去中心化的管理。

     

    *地址:

    https://medium.com/@ilovebagels/token-curated-registries-1-1-2-0-tcrs-new-theory-and-dev-updates-34c9f079f33d

     

    20. 《Augur》:一个去中心化预言机( oracle )和基于通证的预测市场平台,Augur 巧妙地设计了激励机制来促使通证持有者提供诚实和准确的报告。

     

    *地址:

    https://www.augur.net/whitepaper.pdf

     

     

     

    进阶:那些必读的研究成果

     

    这一部分就是进阶版了,主要是一些基于区块链的解决方案和区块链的最新研究成果。

     

    21. Blockstack:一种区块链的分层架构设计。

    *地址:

    https://blockstack.org/whitepaper.pdf

     

    22.Plasma 协议:智能合约的第二层可拓展性解决方案。

    *地址:

    https://plasma.io/plasma.pdf

     

    23. 双重存款托管(Dual-deposit escrow):一种在没有可信任第三方的情况下买卖数字资产的解决方案。

    *地址:

    https://arxiv.org/abs/1806.08379

     

    24. Holochain:一种基于代理的去中心化账本解决方案。

    *地址:

    https://github.com/holochain/holochain-proto/blob/whitepaper/holochain.pdf

     

    25. NEM:一种专为公有区块链设计的重要性证明( proof of importance )协议。

    *地址:

    https://www.nem.io/wp-content/themes/nem/files/NEM_techRef.pdf

     

    26. Decred:一个混合了工作量证明和权益证明的共识机制。

    *地址:

    https://docs.decred.org/

     

    27. 流数据支付协议(Streaming Data Payment Protocol):一种应用层协议,主要用来进行加密货币小额支付和基于区块链的存储。

    *地址:

    http://anrg.usc.edu/www/papers/streamingDataPaymentProtocol_2018.pdf

     

    28. DDM:一个去中心化的实时数据市场。

    *地址:

    http://blockchain.usc.edu/wp-content/uploads/2018/08/decentralized-data-marketplace-smart-cities.pdf

     

    29. 海洋协议(Ocean Protocol):一个面向人工智能的去中心化数据和服务交换协议。

    *地址:

    https://oceanprotocol.com/tech-whitepaper.pdf

     

    30. Mimblewimble / Grin:一个旨在提高区块链交易效率和隐私性的提案,该提案的具体实施造就了一种新的区块链协议。

    *地址:

    https://github.com/mimblewimble/docs/wiki/A-Brief-History-of-MimbleWimble-White-Paper

     

    31. Bulletproofs:一种性能更好的零知识证明机制,在那些隐私交易中很有用。

    *地址:

    https://eprint.iacr.org/2017/1066.pdf

     

    32. R3 Corda:一种面向金融交易场景的去中心化账本技术。

    *地址:

    https://medium.com/p/3c00dfc66404/edit

     

    33. Dfinity:一个旨在构建去中心化虚拟区块链计算机的协议。

    *地址:

    https://dfinity.org/static/dfinity-consensus-0325c35128c72b42df7dd30c22c41208.pdf

    展开全文
  • 必读的10篇关于GAN的论文

    千次阅读 多人点赞 2019-07-08 22:07:28
    上次写的文章-- 一文了解下 GANs可以做到的事情,如果想进一步了解 GAN,学习研究 GAN,可以先从这 10 篇论文开始。 本文翻译自: https://towardsdatascience.com/must-read-papers-on-gans-b665bbae3317 原文介绍 ...

    前言

    上次写的文章-- 一文了解下 GANs可以做到的事情,如果想进一步了解 GAN,学习研究 GAN,可以先从这 10 篇论文开始。

    本文翻译自:

    https://towardsdatascience.com/must-read-papers-on-gans-b665bbae3317

    原文介绍 10 篇介绍 GANs 以及最新进展的论文,跟原文介绍顺序有所不同,我是根据时间顺序,从最开始提出的 GANs 论文到目前最新的来介绍,这十篇分别如下所示:

    1. Generative Adversarial Networks,2014
    2. Conditional GANs,2014
    3. DCGAN,2015
    4. Improved Techniques for Training GANs,2016
    5. Pix2Pix,2016
    6. CycleGAN,2017
    7. Progressively Growing of GANs,2017
    8. StackGAN,2017
    9. BigGAN,2018
    10. StyleGAN,2018

    原文作者推荐开始的第一篇论文是 DCGAN 。

    文末在介绍几个 Github 项目,分别是专门收集 GAN 方面的论文,以及用 TensorFlow、PyTorch 和 Keras 实现 GANs 模型。


    1. Generative Adversarial Networks

    论文名称:Generative Adversarial Nets

    论文地址: https://arxiv.org/abs/1406.2661

    “GAN之父” Ian Goodfellow 发表的第一篇提出 GAN 的论文,这应该是任何开始研究学习 GAN 的都该阅读的一篇论文,它提出了 GAN 这个模型框架,讨论了非饱和的损失函数,然后对于最佳判别器(optimal discriminator)给出其导数,然后进行证明;最后是在 Mnist、TFD、CIFAR-10 数据集上进行了实验。

    2. Conditional GANs

    论文名称:Conditional Generative Adversarial Nets

    论文地址:https://arxiv.org/abs/1411.1784

    如果说上一篇 GAN 论文是开始出现 GAN 这个让人觉得眼前一亮的模型框架,这篇 cGAN 就是当前 GAN 模型技术变得这么热门的重要因素之一,事实上 GAN 开始是一个无监督模型,生成器需要的仅仅是随机噪声,但是效果并没有那么好,在 14 年提出,到 16 年之前,其实这方面的研究并不多,真正开始一大堆相关论文发表出来,第一个因素就是 cGAN,第二个因素是等会介绍的 DCGAN;

    cGAN 其实是将 GAN 又拉回到监督学习领域,如下图所示,它在生成器部分添加了类别标签这个输入,通过这个改进,缓和了 GAN 的一大问题–训练不稳定,而这种思想,引入先验知识的做法,在如今大多数非常有名的 GAN 中都采用这种做法,后面介绍的生成图片的 BigGAN,或者是图片转换的 Pix2Pix,都是这种思想,可以说 cGAN 的提出非常关键。

    3. DCGAN

    论文名称:Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks

    论文地址:https://arxiv.org/abs/1511.06434

    其实原作者推荐第一篇论文应该是阅读这篇 DCGAN 论文,2015年发表的。这是第一次采用 CNN 结构实现 GAN 模型,它介绍如何使用卷积层,并给出一些额外的结构上的指导建议来实现。另外,它还讨论如何可视化 GAN 的特征、隐空间的插值、利用判别器特征训练分类器以及评估结果。下图是 DCGAN 的生成器部分结构示意图

    [外链图片转存失败(img-QPdJ60bG-1562594794608)(https://cai-images-1257823952.cos.ap-beijing.myqcloud.com/DCGAN.png)]

    4. Improved Techniques for Training GANs

    论文名称:Improved Techniques for Training GANs

    论文地址:https://arxiv.org/abs/1606.03498

    这篇论文的作者之一是 Ian Goodfellow,它介绍了很多如何构建一个 GAN 结构的建议,它可以帮助你理解 GAN 不稳定性的原因,给出很多稳定训练 DCGANs 的建议,比如特征匹配(feature matching)、最小批次判别(minibatch discrimination)、单边标签平滑(one-sided label smoothing)、虚拟批归一化(virtual batch normalization)等等,利用这些建议来实现 DCGAN 模型是一个很好学习了解 GANs 的做法。

    5. Pix2Pix

    论文名称:Image-to-Image Translation with Conditional Adversarial Networks

    论文地址:https://arxiv.org/abs/1611.07004

    Pix2Pix 的目标是实现图像转换的应用,如下图所示。这个模型在训练时候需要采用成对的训练数据,并对 GAN 模型采用了不同的配置。其中它应用到了 PatchGAN 这个模型,PatchGAN 对图片的一块 70*70 大小的区域进行观察来判断该图片是真是假,而不需要观察整张图片。

    此外,生成器部分使用 U-Net 结构,即结合了 ResNet 网络中的 skip connections 技术,编码器和解码器对应层之间有相互连接,它可以实现如下图所示的转换操作,比如语义图转街景,黑白图片上色,素描图变真实照片等。

    6. CycleGAN

    论文名称:Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks

    论文地址:https://arxiv.org/abs/1703.10593

    上一篇论文 Pix2Pix 的问题就是训练数据必须成对,即需要原图片和对应转换后的图片,而现实就是这种数据非常难寻找,甚至有的不存在这样一对一的转换数据,因此有了 CycleGAN,仅仅需要准备两个领域的数据集即可,比如说普通马的图片和斑马的图片,但不需要一一对应。这篇论文提出了一个非常好的方法–循环一致性(Cycle-Consistency)损失函数,如下图所示的结构:

    这种结构在接下来图片转换应用的许多 GAN 论文中都有利用到,cycleGAN 可以实现如下图所示的一些应用,普通马和斑马的转换、风格迁移(照片变油画)、冬夏季节变换等等。

    [外链图片转存失败(img-zaY13zfG-1562594794615)(https://cai-images-1257823952.cos.ap-beijing.myqcloud.com/cycleGAN_examples.jpg)]

    7. Progressively Growing of GANs

    论文名称:Progressive Growing of GANs for Improved Quality, Stability, and Variation

    论文地址:https://arxiv.org/abs/1710.10196

    这篇论文必读的原因是因为它取得非常好的结果以及对于 GAN 问题的创造性方法。它利用一个多尺度结构,从 4*48*8 一直提升到 1024*1024 的分辨率,如下图所示的结构,这篇论文提出了一些如何解决由于目标图片尺寸导致的不稳定问题。

    8. StackGAN

    论文名称:StackGAN: Text to Photo-realistic Image Synthesis with Stacked Generative Adversarial Networks

    论文地址:https://arxiv.org/abs/1612.03242

    StackGAN 和 cGAN 、 Progressively GANs 两篇论文比较相似,它同样采用了先验知识,以及多尺度方法。整个网络结构如下图所示,第一阶段根据给定文本描述和随机噪声,然后输出 64*64 的图片,接着将其作为先验知识,再次生成 256*256 大小的图片。相比前面 推荐的 7 篇论文,StackGAN 通过一个文本向量来引入文本信息,并提取一些视觉特征

    9. BigGAN

    论文地址:Large Scale GAN Training for High Fidelity Natural Image Synthesis

    论文地址:https://arxiv.org/abs/1809.11096

    BigGAN 应该是当前 ImageNet 上图片生成最好的模型了,它的生成结果如下图所示,非常的逼真,但这篇论文比较难在本地电脑上进行复现,它同时结合了很多结构和技术,包括自注意机制(Self-Attention)、谱归一化(Spectral Normalization)等,这些在论文都有很好的介绍和说明。

    [外链图片转存失败(img-x4bdMqlA-1562594794651)(https://cai-images-1257823952.cos.ap-beijing.myqcloud.com/BigGAN.png)]

    10. StyleGAN

    论文地址:A Style-Based Generator Architecture for Generative Adversarial Networks

    论文地址:https://arxiv.org/abs/1812.04948

    StyleGAN 借鉴了如 Adaptive Instance Normalization (AdaIN)的自然风格转换技术,来控制隐空间变量 z 。其网络结构如下图所示,它在生产模型中结合了一个映射网络以及 AdaIN 条件分布的做法,并不容易复现,但这篇论文依然值得一读,包含了很多有趣的想法。


    小结

    本文主要介绍了 10 篇值得一读的 GAN 论文,从最开始提出这个模型的论文,到截止至 2018 年的论文,其中既有影响很大的 cGAN 和 DCAN,也有图像转换领域非常重要的 Pix2Pix 和 CycleGAN,还有最近效果非常不错的 BigGAN。

    如果是希望研究这个方向的,可以看下这 10 篇论文。另外,再推荐一个收集了大量 GAN 论文的 Github 项目,并且根据应用方向划分论文:

    以及 3 个复现多种 GANs 模型的 github 项目,分别是目前主流的三个框架,TensorFlow、PyTorch 和 Keras:

    最后,对于文章介绍的 10 篇论文都已经下载打包后,获取方式:

    1. 关注公众号“算法猿的成长
    2. 在公众号会话界面回复 “GAN论文”,即可获取网盘链接。

    欢迎关注我的微信公众号–算法猿的成长,或者扫描下方的二维码,大家一起交流,学习和进步!

    展开全文
  • 今天修改了论文封皮里面的国内图书分类号和国际图书分类号,关于这些,简单记录一下吧,希望对于之后同样需要的人提供一点帮助 国内图书分类号相对来数比较容易填写,最简单的方法就是找到跟你内容相似的论文看他们...
  • 这个方法虽然很简单,但是效果却非常惊艳,在 CIFAR-100 和 ImageNet 上都取得了很好的结果,具体的实验结果可以参考论文。 参考文献: large scale incremental learning ,Yue Wu, Yinpeng Chen, Lijuan ...
  • 文章目录一、前言二、论文解读1、概述2 、主要内容2.1 问题设定2.2 与模型无关的元学习算法三、代码解析1、抽取数据2、Task3、训练过程 一、前言   过深度学习的同学都应该知道,深度学习算法的精度是要...
  • LATEX论文排版学习资源汇总

    千次阅读 2016-06-05 13:01:41
    这本书是我关于 LaTeX 上面第一次投 “ 巨资 ” 购买的书,现在看来这本书的内容上,与陈教授的书相比单薄很多,但是因为印刷相对好一些,加上这本书有不少内容是来自《 TheLaTeX Companion 》,这本书值得看看。 ...
  • seq2seq的论文学习和代码实现

    千次阅读 2018-11-19 13:47:03
    文章目录seq2seq 参考文章: seq2seq 论文地址:https://arxiv.org/pdf/1409.3215.pdf seq2seq相关git上学习代码:... 我自己的项目地址是: ...我看的论文是Sequence to Sequence Learning with Neura...
  • 今天读微博,无意中看到一条微博,建议使用TortoiseSVN来对自己的学位论文进行版本控制,是一个码农写的。我认为很好,就用了一番,感觉不错。TortoiseSVN在以前被我认为是很高大上的东西,我一直不敢碰它。因为要...
  • MADDPG论文、项目学习记录

    千次阅读 热门讨论 2020-02-16 23:23:15
    今天看了论文和工程介绍,明天理清算法流程并跑一遍代码吧。 论文地址:Multi-Agent Actor-Critic for Mixed Cooperative-Competitive Environments 项目地址:OPENAI-MADDPG 文文大神的项目地址 学习链接:Open...
  • 2019.6.26 版本的 )我上传至百度盘了(造福翻墙不了的朋友): 链接: https://pan.baidu.com/s/1xlELGM0O9K1U8bITlxUjnA  提取码: o3g3       论文标题:Towards End-to-End Lane Detection: an...
  • GoogleNet系列论文学习

    千次阅读 2018-02-13 11:30:48
    这就是naive版本的Inception结构。 上述实现方式的问题就是计算量大,即使当前Inception结构的输入数据的channel数大小适中,进行一个大规模卷积核的5 * 5的卷积操作的计算量依然很大,并且池化操作的输出channel...
  • 深度增强学习方向论文整理

    千次阅读 热门讨论 2016-11-30 21:40:16
    DQN的各种改进版本(侧重于算法上的改进) 1. Dueling Network Architectures for Deep Reinforcement Learning. Z. Wang et al., arXiv, 2015. 2. Prioritized Experience Replay, T. Schaul et al...
  • 关于学术论文的参考文献格式

    千次阅读 2016-08-10 11:50:35
    论文的参考文献格式是每一个刚刚学习写论文的学者特别头疼的事儿,甚至是已经发表过论文的人,让他一上来就把这个事儿说明白也能懵逼,那我就把它写出来,这样以后有人问我这个,我就有了如何写参考文献的“参考文献...
  • R-CNN论文详解(论文翻译)

    万次阅读 多人点赞 2018-05-08 20:27:36
    faster-rcnn在深度学习领域算是一篇开创性的论文,对后续产生的而网络有很重要的意义,认真读懂这篇论文,相信也算是深度学习入门了 。今天又重新读了读faster-rcnn,整理了一份阅读笔记,整理的过程使自己对整个深度...
  • 以色列理工学院与Google Research合著的《SinGAN:Learning a Generative Model from a Single Natural Image》这篇论文,在ICCV2019获得了最佳论文奖。以下是我们对此文的解读。 这篇论文提出了一种可以从单幅自然...
  • 这里聚集了大批一线 AI 学者,他们用精炼妙语推荐各自发现的优质论文。点击本文底部的「阅读原文」即刻加入社区,创建属于你的论文集。 这里是第 4 期论文集精选。 迁移学习对于人类来说,就是掌握举一反三的...
  • 推荐系统论文归类总结 本文主要记录较新的推荐系统论文,并对类似的论文进行总结和整合。 目录 推荐系统论文归类总结 综述 协同过滤理论 矩阵分解 因子分解机 基于内容的推荐 基于DNN的推荐 基于标签的推荐 基于自...
  • 《Frustum PointNets for 3D Object Detection from RGB-D Data》论文及代码学习 《Frustum PointNets for 3D Object Detection from RGB-D Data》一文是Charles R.Qi等人发表在CVPR2018上的文章(提前版本2017.11....
  • 1.《Matrix Factorization Techniques for Recommender Systems》矩阵分解,推荐系统领域里非常经典、频繁被引用的论文。 这个论文是推荐系统领域第一篇比较正式、全面介绍融合了机器学习技术的矩阵分解算法(区别于...
  • 论文源码资源: 1、Taehoon Kim主页 https://carpedm20.github.io/ 记载了很多论文和和开源代码 2、Devsisters Corp. https://github.com/devsisters/ 代码开源 3、查找论文和其对应的开源代码 ...
  • VINS-Mono论文学习与代码解读——目录与参考

    万次阅读 多人点赞 2019-01-04 19:54:12
    港科大的VINS-Mono作为目前state of the art的开源VIO项目,是研究视觉与IMU融合的必读算法。本人将在学习之余逐步整理自己对算法的论文和实现的相关解读,欢迎大家一起讨论。
  • 关于迁移学习

    千次阅读 2018-01-21 17:20:35
    关于迁移学习大致概括到此为止,更多相关文献希望读者直接找相关的论文研读。 后面是我提出一些公开问题,让大家重新思考迁移学习的意义和重要性。 重新思考1:迁移学习一定有用吗? 事实上,即使在前文 ...
  • 论文阅读学习 - Mask R-CNN

    万次阅读 2017-12-06 15:04:53
    RoIAlign Layer - RoIPool Layer 改进版本 Mask Branch - 在 RoI 上的分割结果 Decouple Mask and Class Prediction using Binary Sigmoid Activations vs Multi-class Softmax Instance Segmentation ...
  • Word 2016 撰写论文(7): 毕业论文中引用多篇参考文献

    千次阅读 多人点赞 2020-06-13 18:33:20
    写毕业论文时,论文中有的部分需要引用多篇参考文献,使用交叉引用会出现多个中括号,如下图所示,红色标记是错误的格式,黄色标记是正确的格式。 如果使用手动将中括号的左右半边删除,那么更新域代码或者word版转...
  • 总结(干货) SCI(Science Citation Index), 被Web of Science(http://apps.webofknowledge.com)收录的论文称为SCI论文;...目前EI数据库有三个版本:EiCompendex光盘数据库, EiCompendex web数据库, Engineeri...
  • 国外论文搜索

    千次阅读 2014-10-19 09:06:31
    国外论文搜索 学术资源搜索google篇:  google的废话也多一些,因为它的功能很强大,尤其对于国外的很多学术资源用它最好。下面我就介绍一下,自己用google搜集文献资料的方法,供大家参考。  1。国外论文搜索  ...
  • 这篇文章LIO-SAM实际上是LeGO-LOAM的扩展版本,添加了IMU预积分因子和GPS因子,去除了帧帧匹配部分,然后更详细地描述了LeGO-LOAM帧图匹配部分的设计动机和细节。(引用于知乎大佬文章【论文阅读38】LIO-SAM) 原文:...
  • 最近一个月刚接触深度学习,导师给了一篇论文(mean teacher)让我先理解然后跑论文里面的代码,这个过程中我出现了很多问题,借这篇blog记录下来,也是鼓励自己接着下去。Mean Teacher 的论文地址:...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 68,085
精华内容 27,234
关键字:

关于版本学的论文