精华内容
下载资源
问答
  • 文章目录1、论文总述2、举例说明小目标重要性3、COCO数据集中小目标分布情况4、Augmentation与Oversampling结合时3种策略5、复制-粘贴时3种策略参考文献 1、论文总述 本篇论文主要针对COCO数据集上小目标...

    1、论文总述

    本篇论文主要针对COCO数据集上的小目标性能进行改进,相对来说,是比较实用的数据处理技巧,适用于所有的anchor-free和anchor-based的目标检测模型。
    (1)对含有小目标的图像进行过采样,一般过采样率取3时较好,这样大目标受到的影响不会太大,因为总的来说,类别不平衡、不同尺度间的目标数量不平衡这类不平衡问题都是数据造成的,和模型结构关系不大,而目前的CNN的训练方法又都是SGD,根据Loss来进行优化,所以就会导致哪类数据多,哪类数据的性能就好,例如大目标多, 那么大目标的性能就好,小狗类别相对猫类别的数据多,那模型对狗的检测能力就要好于猫。所以对待这种不平衡问题,从数据下手一般要简单高效更加实用些。
    (2)对含有小目标的图像,对多个小目标进行复制-粘贴策略增加小目标在图像中的出现频率,这样训练时,小目标的正样本也会增多,让模型更加侧重于小目标的学习。但是这个粘贴不能多次随意粘贴,要保证粘贴的时候,不会与已有的标注目标产生重叠,而且粘贴次数小于3次,太多小目标的话会影响大目标的性能,这样会得不偿失。粘贴时候是根据COCO训练集里自带的mask信息,作者实验证明,粘贴完之后不需要用高斯模糊对边界进行处理,用了之后反而有点下降。

    具体特别细的讲解,我就不写了,极市平台有一篇讲的比较好的文章,看它就够了。
    小目标检测:数据增强

    2、举例说明小目标的重要性

    Small object detection is crucial in many downstream tasks. Detecting small
    or distant objects in the high-resolution scene photographs from the car is necessary to deploy self-driving cars safely. Many objects, such as traffic signs [11,34] or pedestrians [31], are often barely visible on the high-resolution images. In
    medical imaging, early detection of masses and tumors is crucial for making an
    accurate, early diagnosis, when such elements can easily be only a few pixels in
    size [3,29]. Automatic industrial inspection can also benefit from small object
    detection by the localization of small defects that can be visible on the material
    surfaces [1,30]. Another application is satellite image analysis, where objects,
    such as cars, ships, and houses, must be effectively annotated [28,21]. With an
    average of 0.5-5m per pixel resolution, these objects are again just a few pixels in size.

    3、COCO数据集中小目标的分布情况

    在这里插入图片描述
    Total Object Area表示标注像素面积所占比例

    4、Augmentation与Oversampling结合时的3种策略

    In the second set of experiments, we investigate the effects of using augmentation
    on small object detection and segmentation. We copy and paste all small objects
    in each image once. We also oversample images with small objects to study the
    interaction between the oversampling and augmentation strategies.
    We test three settings. In the first setting, we replace each image with small
    objects by the one with copy-pasted small objects. In the second setting, we
    duplicate these augmented images to mimic oversampling. In the final setup, we
    keep both the original images and augmented images, which is equivalent to oversampling the images with small objects by the factor of two, while augmenting
    the duplicated copies with more small objects.

    实验表明,第三种(原图和aug后的图都保留) 效果比较好。
    如果只保留增强的图,那么模型会重点学习复制的小目标,因为这些合成的小目标与背景亮度、分布啥的不一致,学起来较容易,那么测试时效果就不怎么提升,但是测试集里如果也加上合成数据,那么在这个合成测试集上的效果也会提升。

    5、复制-粘贴时的3种策略

    There are different ways to copy-pasting small objects. We consider three separate strategies. First, we pick one small object in an image and copy-paste it
    multiple times in random locations. Second, we choose numerous small objects
    and copy-paste each of these exactly once in an arbitrary position. Lastly, we
    copy-paste all small objects in each image multiple times in random places. In
    all the cases, we use the third setting of augmentation above; that is, we keep
    both the original image and its augmented copy

    实验表明,将一张图上的多个小目标复制一次效果比其他两种方式好,因为复制太多会影响模型的大目标性能。

    参考文献

    小目标检测:数据增强

    展开全文
  • 所以今天打算读一读FPN的论文, 文章目录FPNmake decisionstep1:读摘要step2:读Introductionstep3:读 Conclusionstep4:读 Related worksstep5:读 Feature Pyramid Networks1. Bottom-up pathway2.

    FPN

    很多论文中都会采用含有FPN的backbone进行特征提取,因为FPN使用特征金字塔结构,将low-level的特征和high-level的特征进行融合,能提取更加准确的位置等特征信息。
    所以今天打算读一读FPN的论文,


    该内容采用: 摘录重点部分+提出问题的方式,来阅读该篇论文。 后面会逐一的解答提出来的的问题。

    make decision

    • 论文名称:Feature Pyramid Networks for Object Detection

    中文翻译过来就是用于目标检测的特征金字塔网络, 大概可以知道 该网络在多层的特征图上提取特征。

    • 作者:Tsung-Yi Lin, Piotr Dollár, Ross Girshick, Kaiming He, Bharath Hariharan, and Serge Belongie
    • 机构:Facebook AI ,Cornell University and Cornell Tech
    • 年份: 2016
    • 是否精读:是
    • 做出决定日期:2021-4-22
    • 论文地址:https://arxiv.org/abs/1612.03144

    作者提出的多尺度的object detection算法:FPN(feature pyramid networks)。原来多数的object detection算法都是只采用顶层特征做预测,但我们知道低层的特征语义信息比较少,但是目标位置准确;高层的特征语义信息比较丰富,但是目标位置比较粗略。另外虽然也有些算法采用多尺度特征融合的方式,但是一般是采用融合后的特征做预测,而本文不一样的地方在于预测是在不同特征层独立进行的。

    step1:读摘要

    作者利用深度卷积网络固有的多尺度金字塔层次结构来构造具有边际额外成本(marginal extra cost)的特征金字塔。 开发了一种具有横向连接的自顶向下的体系结构,用于构建所有比例的高级语义特征图。 这种被称为特征金字塔网络(FPN)的体系结构,在一些应用中作为一种通用的特征提取器展示了很大的进步
    此外作者还指出在当时coco检测基准上实现了SOTA效果。

    • Q1: 特征金字塔的边际额外成本(marginal extra cost)具体指的是什么?
    • Q2: 特征金字塔这具有横向连接的自顶向下的体系结构中 横向连接(lateral connection)指的是谁和谁的连接。
    • A2: 我们在读introduction时给了解答,特征金字塔通过自上而下的路径和横向连接将低分辨率、语义强的特征与高分辨率、语义弱的特征相结合(图1(d)所示)

    step2:读Introduction

    识别不同尺度的物体是计算机视觉的一个基本的挑战。 基于图像金字塔构建的特征金字塔(简称 特征化图像金字塔 feature image pyramids)构成了标准解决方案的基础。这些金字塔的比例是不变的,根据对象的比例变化通过改变其在金字塔中的级别来补偿(offset)。

    • Q3: 图像金字塔是什么东西? 特征金字塔是怎样基于图像金字塔构建的?
    • Q4: 如何根据对象的比例变化来改变特征金字塔的级别?

    在这里插入图片描述

    • 在上图(a)是利用图像金字塔构建特征金字塔。在每个图像尺度上独立的计算特征,这是非常缓慢的。(b)最近的检测系统选择仅使用单一尺度特征,以实现更快的预测。(c)另一种方法是重复使用有卷积网络计算的金字塔特征层次,就想它是一个特征化的图像金字塔一样。类似于SSD算法那样(d)在我们提出的特征金字塔网络(FPN)和(b)(c)一样快,但是更准确。
      在上图中,特征图由蓝色的框框表示,更厚的框框表示语义更强的特征

    本文的目标的自然的利用卷积特征层的金字塔形状,同时创建一个在所有尺度上都具有强语义的特征金字塔。 为了实现这个目标,作者依赖于一种架构,该架构通过自上而下的路径和横向连接将低分辨率、语义强的特征与高分辨率、语义弱的特征相结合(图1(d)所示)。结果是一个特征金字塔,它在所有层次上都有丰富的语义信息,并且是从单个输入图像尺度快速构建的。换句话说,作者展示了如何创建网络中的特征金字塔,这些金字塔可以用来替换特征化的图像金字塔,而不牺牲性能、速度或内存。
    作者利用这种自顶向下的架构作为特征金字塔,其中预测(比如,对象检测)在每个级别上分别独立进行。如下图所示
    在这里插入图片描述

    • 顶部:自上向下的体系结构,具有跳跃连接,在最好的特征图上进行预测
    • 底部:我们的模型具有相似的结构,但是利用它作为一个特征金字塔,在所有级别上独立的进行预测

    接下来作者将FPN应用到Faster RCNN目标检测网络中,其结果超越了大量的单一模型条目的竞赛获胜者。作者的方法也很容易的扩展到mask proposal上,基于特征金字塔的SOTA方法能提高实例分割AR和速度

    step3:读 Conclusion

    作者提出了一个干净简单的框架,用于卷积神经网络中构建特征金字塔。在竞赛前几名和几个厉害的baseline中,应用作者的方法提高了很大的性能。因此位特征金字塔的研究和应用提供了一个不需要计算图像金字塔的实用的方案。最后作者研究表明,尽管深度卷积神经网络具有强大的表示能力,并且对尺度变化具有鲁棒性,但是使用特征金字塔来解决多尺度问题仍然是很重要的。

    step4:读 Related works

    先是介绍了手工设计的特征和早期的神经网络,然后介绍了深度卷积神经网络,再介绍了使用多尺度的方法

    step5:读 Feature Pyramid Networks

    作者的目标就是 要利用卷积神经网络的金字塔的特征层次结构构建一个具有高级语义信息的特征金字塔,该层次结构具有从低级到高级的语义信息,
    其方法就是 将任意大小的单尺度图像作为输入,并以完全卷积的方式输出在多个层次上成比例大小的特征图,这个过程独立于backbone卷积结构。

    1. Bottom-up pathway

    自下而上的途径
    就是将ResNet,第2,3,4,5层即conv2,conv3,conv4,conv5,的输出作为金字塔的一层。之所以没有conv1是因为其占用的内存很大。

    2. Top-down pathway and lateral connection

    自上而下的路径和横向连接
    自上而下的途径通过从更高的金字塔级别对空间上粗糙但语义上更强的特征图 进行上采样来产生更高分辨率的特征。 这些特征随后通过横向连接被自下而上路径的特征增强。
    每个横向连接合并自下而上路径和自上而下路径的相同空间的大小的特征图。
    自底向上的特征映射都是较低级别的语义信息,但是由于它被下采样的次数少,因此它底层的细节比较多
    在这里插入图片描述

    • 上图说明横向连接和自上而下的路径的特征图是通过addition 进行合并的,

    • Q5: 生成多尺度的特征图为什么会独立于backbone结构。

    step6: 通过视频再学习

    FPN结构详解
    论文前几部分看的差不多了,然后看视频,看看自己的理解是否有偏差。
    图3中使用1x1的卷积的目的是调整channel,
    在这里插入图片描述
    各层再使用3x3的卷积层进一步融合,为了减少上采样的混叠效应。
    RPN生成proposal时,会在P2~P6 五个特征层进行预测。
    但是在fast-RCNN部分,会在P2~P5 四个特征层进行预测。
    (在fasterRCNN中,我们会用RPN生成proposal,然后把proposal映射到特征图上,然后映射的这部分特征输入到我们的fastRCNN最终得到我们的预测结果)
    即 RPN在P2~P6 五个特征层生成proposal,然后映射到P2~P5 四个特征层上

    • Q6: RPN的五个特征层如何映射到 FastRCNN的四个特征层上?

    step6:问题总结

    • Q1: 特征金字塔的边际额外成本(marginal extra cost)具体指的是什么?

    • Q2: 特征金字塔这具有横向连接的自顶向下的体系结构中 横向连接(lateral connection)指的是谁和谁的连接。
      A2: 我们在读introduction时给了解答,特征金字塔通过自上而下的路径和横向连接将低分辨率、语义强的特征与高分辨率、语义弱的特征相结合(图1(d)所示)

    • Q3: 图像金字塔是什么东西? 特征金字塔是怎样基于图像金字塔构建的?
      A3:图像金字塔个人理解就是不同分辨率大小的图像,

    • Q4: 如何根据对象的比例变化来改变特征金字塔的级别?
      A4:这句话的意思就是 小目标在大的特征图上预测,大目标在小的特征图上预测。具体实现的步骤就是 在不同的特征图上有不同的anchor大小。

    • Q5: 生成多尺度的特征图为什么会独立于backbone结构。
      A5:通过上面UP主的图可以清楚的看到网络结构。

    • Q6: RPN的五个特征层如何映射到 FastRCNN的四个特征层上?
      A6:通过论文中的一个公式
      在这里插入图片描述

    参考文章
    博客一

    展开全文
  • 前言: 论文的链接地址没有贴了;... 博文的目录是按照论文的目录来记录; Introduction 给定核函数κ(xi,xj) = φ(xi)^Tφ(xj)和数据集[含有 n 个数据】。提出问题怎么才能快速进行近似检索? our hash ...

    前言:

    1. 论文的链接地址没有贴了;
    2. 最近在做视觉搜索相关的哈希技术,顺便写下自己的笔记,方便以后复习;
    3. 文章是随笔的,所以可能会有不全的地方,所以有读者看到不懂的地方可以去看论文原文;
    4. 博文的目录是按照论文的目录来记录的;

    Introduction

    给定核函数κ(xi,xj) = φ(xi)^Tφ(xj)和数据集[含有 n 个数据】。提出问题怎么才能快速进行近似检索?

    our hash functions involve computing random projections; however, unlike standard LSH, these random projections are constructed using only the kernel function and a sparse set of examples from the database itself. Our main technical contribution is to formulate the random projections necessary for LSH in kernel space. Our construction relies on an appropriate use of the central limit theorem [21], which allows us to approximate a random vector using items from our database.
     


    Related Work

    review related work in fast search algorithms and their application for visual search problems
    因为比较水,就没有翻译了!


    Background: Locality-Sensitive Hashing

    • 主要思想:将原始数据空间中的两个相邻数据点通过相同的映射或投影变换(projection)后,这两个数据点在新的数据空间中仍然相邻的概率很大,而不相邻的数据点被映射到同一个桶的概率很小
    • hashing functions:

    1)如果d(x,y) ≤ d1, 则h(x) = h(y)的概率至少为p1;
    2)如果d(x,y) ≥ d2, 则h(x) = h(y)的概率至多为p2;

    其中d(x,y)表示x和y之间的距离,d1 < d2, h(x)和h(y)分别表示对x和y进行hash变换。

    满足以上两个条件的hash functions称为(d1,d2,p1,p2)-sensitive。而通过一个或多个(d1,d2,p1,p2)-sensitive的hash function对原始数据集合进行hashing生成一个或多个hash table的过程称为Locality-sensitive Hashing。

    对上面的公式总结就是:

     其中常用的sim( · )函数【即二个数据相似度的度量函数,更加详细的数据相似度的比较见其他的笔记,有时间就贴出来】

    • 余弦相似度
    • 汉明距离
    • 欧式距离

    论文中给出了2个度量函数:

     

    根据其他论文文献和度量函数2【见上】可以推导出【不需要完全推导出来,可以理解为文章的相似性度量就是用这个公式】

     

    1. sim({x}_i,{x}_j) = x_{i}^{T} \cdot {x_{j}}

    Kernelized Locality-Sensitive Hashing

    The random hyperplane hashing method【随机投影法】 中的X向量是确切的,所计算哈希值是比较简单的,但是现在KLSH中我们假设输入的是φ(x)【上面公式中的x】而且underlying embedding is unknown or expensive to compute

    我们只能通过核函数【sim(x_i,x_j) =K(x_i,x_j)=\phi (x_i)^t\phi (x_j)】的计算来取得数据,即:通过核函数来计算 {r}^t\phi (x) 【度量函数2中的 if r^t x > 0这个条件】

     

    The main idea of our approach is to construct r as aweighted sum of a subset of the database items.

    待续...
     


    引用文献:

    [21] J. Rice. Mathematical Statistics and Data Aanalysis. Duxbury Press, 2001

    展开全文
  • 一整套完整VB 学生信息管理系统,不仅包含源码,而且含有含毕业设计论文,可供VB爱好者和毕业设计参考用! 用前看一下目录TXT文件
  • 进销存系统论文+源码

    2009-09-28 02:59:38
    进销存系统,含有源码及论文 目录 引言 1 第1章 概述 2 1.1 信息管理系统概述 2 1.2 某进销存管理系统概述 2 第2章 开发环境 3 2.1 硬件要求 3 2.2 软件要求 3 第3章 系统分析 3 3.1 可行性分析 3 3.1.1系统实现后对...
  • 在原始arxiv数据集中作者经常会在论文的comments或abstract字段中给出具体代码链接,所以我们需要从这些字段里面找出代码链接。 确定数据出现位置; 使用正则表达式完成匹配; 完成相关统计 2、正则表达式 ...


    任务内容:使用正则表达式统计代码连接、页数和图表数据;
    任务成果:学习正则表达式统计

    1、数据处理步骤

    在原始arxiv数据集中作者经常会在论文的comments或abstract字段中给出具体的代码链接,所以我们需要从这些字段里面找出代码的链接。

    确定数据出现的位置;
    使用正则表达式完成匹配;
    完成相关的统计

    2、正则表达式

    正则表达式(regular expression)描述了一种字符串匹配的模式(pattern),可以用来检查一个串是否含有某种子串、将匹配的子串替换或者从某个串中取出符合某个条件的子串等。

    1)普通字符:大写和小写字母、所有数字、所有标点符号和一些其他符号
    在这里插入图片描述
    2)特殊字符:有特殊含义的字符
    在这里插入图片描述
    3)限定符
    在这里插入图片描述

    3、具体代码实现

    import seaborn as sns #用于画图
    from bs4 import BeautifulSoup #用于爬取arxiv的数据
    import re #用于正则表达式,匹配字符串的模式
    import requests #用于网络连接,发送网络请求,使用域名获取对应信息
    import json #读取数据,我们的数据为json格式的
    import pandas as pd #数据处理,数据分析
    import matplotlib.pyplot as plt #画图工具
    
    data = []  # 初始化
    # 使用with语句优势:1.自动关闭文件句柄;2.自动显示(处理)文件读取数据异常
    with open("arxiv-metadata-oai-snapshot.json", 'r') as f:
        for idx, line in enumerate(f):
            d = json.loads(line)
            d = {'abstract': d['abstract'], 'categories': d['categories'], 'comments': d['comments']}
            data.append(d)
    
    data = pd.DataFrame(data)  # 将list变为dataframe格式,方便使用pandas进行分析
    
    # 使用正则表达式匹配,XX pages
    data['pages'] = data['comments'].apply(lambda x: re.findall('[1-9][0-9]* pages', str(x)))
    
    # 筛选出有pages的论文
    data = data[data['pages'].apply(len) > 0]
    
    # 由于匹配得到的是一个list,如['19 pages'],需要进行转换
    data['pages'] = data['pages'].apply(lambda x: float(x[0].replace(' pages', '')))
    
    data['pages'].describe().astype(int)
    
    # 选择主要类别
    data['categories'] = data['categories'].apply(lambda x: x.split(' ')[0])
    data['categories'] = data['categories'].apply(lambda x: x.split('.')[0])
    
    # 每类论文的平均页数
    plt.figure(figsize=(12, 6))
    data.groupby(['categories'])['pages'].mean().plot(kind='bar')
    plt.show()
    
    
    data['figures'] = data['comments'].apply(lambda x: re.findall('[1-9][0-9]* figures', str(x)))
    data = data[data['figures'].apply(len) > 0]
    data['figures'] = data['figures'].apply(lambda x: float(x[0].replace(' figures', '')))
    
    # 筛选包含github的论文
    data_with_code = data[
        (data.comments.str.contains('github')==True)|
                          (data.abstract.str.contains('github')==True)
    ]
    data_with_code['text'] = data_with_code['abstract'].fillna('') + data_with_code['comments'].fillna('')
    
    # 使用正则表达式匹配论文
    pattern = '[a-zA-z]+://github[^\s]*'
    data_with_code['code_flag'] = data_with_code['text'].str.findall(pattern).apply(len)
    
    data_with_code = data_with_code[data_with_code['code_flag'] == 1]
    plt.figure(figsize=(12, 6))
    data_with_code.groupby(['categories'])['code_flag'].count().plot(kind='bar')
    plt.show()
    
    展开全文
  • 本资源提供网站源码、数据库文件以及毕业论文文档和毕业答辩PPT(还含有系统使用说明书),其中数据库文件在目录:C语言教学网站\源码\WebUI\App_Data 中。 网站实现功能有新闻浏览,上传下载作业、课件,在线考试,...
  • 论文地址:https://arxiv.org/pdf/1812.01187.pdf 更多方法和代码可见:图像分类任务中...目录 2 训练过程(baseline复现原文精度,作为下面基础) 3 高效训练(大BS为出发,但部分小BS也适用)(效率改进...
  • 从excel或csv导入进来数据,如果数据中含有非数字,则显示为字符串类型,即使有些纯数字也会显示为字符串类型。因为我现在没有校园网也进不去数据库,就随便举两个例子: 时间为“2020-08-31”,这种带有非数字...
  • Graph Neural Networks: a review of methods and applications 文章目录Graph Neural Networks: a review of ...大量学习任务需要处理含有丰富元素间关系信息图数据。物理系统建模,学习分子指纹,预测蛋白质
  • 浓缩后研究方法

    2014-11-20 12:19:57
    不可能完整地阅读所有的论文。阅读论文可分为三个阶段:第一阶段是看论文中是否有感兴趣的东西。论文含有摘要,其中可能有内容的介绍,但是也有可能没有或者总结得不好,因此需要你跳读,这看一点那看一点,了解作者...
  • 本期小编教大家解决这个问题,让你能应付绝大多数页码设置,一起来看看吧~在工作和学习中,常会遇到这样的情况,对于一篇既含有封面,又含有目录的文档,要求对它的页码进行如下设置:在文档底部靠右位置插入页码,...
  • 目录:介绍 教程 视频 数据集 项目 论文介绍:作为传统机器学习重要一个分支,与机器学习算法相比,深度学习算法最大特点是至少含有一个隐藏层神经网络(NN)。此外,深度学习分层处理思想也大大提高...
  • 【YOLOv1】那点事儿

    2020-05-12 12:09:54
    本文主要记录YOLOv1重要知识点、研读论文时产生疑问问题及解决过程。 本文出现图片和部分文字源于网络,侵删~~ 文章目录1. YOLOv1重要知识点总结2. YOLOv1算法原理介绍3. YOLOv1网络结构图4. YOLOv1损失函数5....
  • 本期小编教大家解决这个问题,让你能应付绝大多数页码设置,一起来看看吧~在工作和学习中,常会遇到这样的情况,对于一篇既含有封面,又含有目录的文档,要求对它的页码进行如下设置:在文档底部靠右位置插入页码,...
  • 本期小编教大家解决这个问题,让你能应付绝大多数页码设置,一起来看看吧~在工作和学习中,常会遇到这样的情况,对于一篇既含有封面,又含有目录的文档,要求对它的页码进行如下设置:在文档底部靠右位置插入页码,...
  • 深度学习经验收集

    2020-03-18 16:24:01
    目录 训练技巧详解【含有部分代码】——论文:Bag of Tricks for Image Classification with Convolutional Neural Networks 神经网络训练trick 图像分类任务中tricks总结 ...
  • 不可能完整地阅读所有的论文。阅读论文可分为三个阶段:第一阶段是看论文中是否有感兴趣的东西。论文含有摘要,其中可能有内容的介绍,但是也有可能没有或者总结得不好,因此需要你跳读,这看一点那看一点,了解作者...
  • OS实验指导书.pdf

    2020-10-17 17:32:29
    ucore OS实验指导书.pdf,含有目录,有详细介绍和知识点解答; 1. 掌握OS基本概念:看在线课程,能理解OS原理与概念;看在线实验指导书并分析源码,能理解 labcodes_answerlabs运行结果 2. 掌握OS设计实现:在1...
  • 二叉排序树与平衡二叉树实现

    热门讨论 2010-12-26 15:25:31
     假设在含有n(n>=1)个关键字序列中,i个关键字小于第一个关键字,n-i-1个关键字大于第一个关键字,则由此构造而得二叉排序树在n个记录查找概率相等情况下,其平均查找长度为:  ASL(n,i)=[1+i*(P(i)+1)+...
  • EM算法推导详解

    2020-03-04 16:55:58
    最近在看贝叶斯相关的论文,里面讲到了EM算法,就把李航的统计学习方法这本书里的有关EM算法的详细推导过程仔细研读一遍,收获颇丰! 数理统计的基本问题就是根据样本所提供的信息,对总体的分布或者分布的数字特征...
  • 标签分布学习

    2021-02-23 10:47:56
    一般来说我们标签数据都是硬标签,非0即1,如one-hot或multi-one-hot,但是一些软标签有时候更具有意义,含有的信息也越丰富,即标签分布如【0.1,0.2,0.7】而不是【0,0,1】,那么该如何学习得到这样标签分布呢?...
  • 压缩包里包含Fusiello极线校正的论文和他提供的Matlab极线校正程序。 输入rectifyImageE('Sport')即可演示demo,详见readme.txt文档 若要使用自己的图片,请将图片放在\images目录下,参照范例格式命名(0为左,1...
  • word入门操作

    2017-04-28 09:55:59
    这段时间一直在忙于写论文,熬夜4天终于弄差不多了。不得不说因为对于word不熟练在格式上花了很多时间,当然我也顺利从word小白进阶到入门阶段了。下面罗列出我遇到问题。如何设置word文档页边距 如何...
  • 经典模型梳理:VGG

    2018-10-30 10:23:04
    文章目录VGGEVALUATION VGG Very Deep Convolutional Networks for Large-...VGG-16 16表示网络中共有16层含有参数(pool没有)。 孙剑说过,神经网络有众多超参,但深度是影响性能最大一个。VGG 这篇论文主...
  • CruiseYoung提供带有详细书签电子书籍目录 http://blog.csdn.net/fksec/article/details/7888251 该资料《TCP/IP网络互联技术(卷3):客户-服务器编程与应用(Windows套接字版)》源代码见: ...
  • 大学文献检索资料 DOC

    2009-11-28 10:35:24
    2:按文献出版形式划分:科技图书、 科技期刊、 科技报告、会议文献、 专利文献、 学位论文、标准文献、 政府出版物、 产品样本、技术档案。 3:按文献被加工处理深度划分:零次文献、一次文献、二次文献、三次...
  • word使用技巧大全

    热门讨论 2011-03-18 20:37:53
    (三) 更新目录的方法 2 三、自动生成目录图片演示 2 4.用标题1,2,3分别去定义文中的每一章节 4 四、如何自动生成目录? 6 五、奇偶页显示不同内容 7 六、在页眉中显示章编号及章标题内容 7 七、修改页眉中的划线...
  • 本文提出了一个处理含有长尾数据分布视觉识别任务统一框架。我们首先针对现有处理长尾问题两阶段方法进行了实验分析,找出现有方法主要性能瓶颈。基于实验分析,我们提出了一种分布对齐策略来系统性解决...

空空如也

空空如也

1 2
收藏数 36
精华内容 14
关键字:

含有目录的论文