精华内容
下载资源
问答
  • 模糊PID与常规PID控制对比模型,含2014和16版的模型,有讲解和运行视频,希望可以帮助到你,助你一臂之力
  • 对比模型之 SimSiam

    2020-12-15 16:42:06
    小白的我又在看对比学习,里面有太多的东西不懂了。。。比如collapse到底是啥意思?对比损失函数里负样本在实际训练过程中的作用是什么?为什么去掉负样本也可行,为什么。。。。 今天看了一篇推文,作者是安迪的...

    小白的我又在看对比学习,里面有太多的东西不懂了。。。
    比如collapse到底是啥意思?
    回答: 不同的输入经过网络的输出变为同一个常量。
    对比损失函数里负样本在实际训练过程中的作用是什么?为什么去掉负样本也可行,为什么。。。。为啥我训练好的simCLR所提取的特征不具有聚类的特点,这是不是collapse,但我增加了BN呀,不是可以避免么?



    1. 今天看了一篇推文,作者是安迪的写作时间,其文章介绍了SimSiam,也比较了其与simCLR, MoCo,BYOL等的异同。文章链接在此:

      探索孪生神经网络:请停止你的梯度传递!

    2. 学到的知识点:

      • 滑动平均(moving average)
        ηxt=mηxt1+(1m)Fθt(T(x))\eta_x^t=m*\eta_x^{t-1}+(1-m)*\mathcal{F}_{\theta}{^t}(\mathcal{T}^{'}(x))
      • 余弦相似度
        D(p1,z2)=p1p12z2z22\mathcal{D}(p_1, z_2)=-\frac{p_1}{||p_1||_2}·\frac{z_2}{||z_2||_2}
    3. 看完之后再学习学习paper和code!

    4. 勉励自己:
      遇到问题,解决问题。

    展开全文
  • + (instancetype)newWithDictionary:(NSDictionary *)dict {  news *newOne = [self new];  [newOne setValuesForKeysWithDictionary:dict...如果使用KVC需要字典键值对和模型属性一一对应,但是重写下面方法,就

    + (instancetype)newWithDictionary:(NSDictionary *)dict

    {

        news *newOne = [self new];

        [newOne setValuesForKeysWithDictionary:dict];

        return newOne;

    }

    如果使用KVC需要字典键值对和模型属性一一对应,但是重写下面方法,就可以解决这个问题

    方法内部不需要写任何东西

    - (void)setValue:(id)value forUndefinedKey:(NSString *)key

    {

        

    }


    展开全文
  • 语言模型实验目的实验内容数据集Example: (每行数据是一段对话,句子间用__eou__分隔)实验环境欢迎使用Markdown编辑器新的改变功能快捷键合理的创建标题,有助于目录的生成如何改变文本的样式插入链接与图片如何...

    实验目的

    理解并实践语言模型

    实验内容

    1. 用python 编程实践语言模型(uni-gram 和bi-gram) ,加入平滑技术。
    2. 计算测试集中句子的perplexity,对比uni-gram 和bi-gram 语言模型效果。

    数据集

    Example:

    (每行数据是一段对话,句子间用__eou__分隔)
    How much can I change 100 dollars for ? __eou__ What kind of currency do you
    want ? __eou__ How much will it be in Chinese currency ? __eou__ That’s 680 Yuan .
    __eou__
    What kind of account do you prefer ? Checking account or savings account ?
    __eou__ I would like to open a checking account . __eou__ Ok , please just fill out
    this form and show us your ID card . __eou__ Here you are . __eou__

    实验环境

    1. python 3.7.1
    2. nltk
      • 安装过程:
        1. pip install nltk
        2. 进入python命令行模式
        3. 执行以下命令
          import nltk
          nltk.download()
          
          下载安装所有文件

    实验思路

    train

    1. 对训练集进行预处理
      • 全部转化为小写
      • 去标点
      • 分句(使用bi-gram时,句尾句首词不会组成二元组,保证句子间独立性)
        *在bi-gram中,将词组成二元组,并且储存以wi为前缀的bi-gram的种类数量(例:词表中只存在go to和go back两种组合,则wgo的值为2)
    2. 训练
      • 以词作为基元,对每个分句进行分词,并统计每个基元在整个数据集中出现的频数
      • 加入未登录词,并将频数置为0(注意维护wi为前缀的bi-gram的种类数量)
      • 对数据进行平滑并利用频数计算词的频率,以此代替词的概率(此次实验采用加一平滑法

    test

    1. 计算测试集中每个句子的perplexity
      注:因概率值极小,为了减小误差,将先累乘再取对数的运算转化成先取对数再累加
    2. 对测试集句子的perplexity取平均值

    代码实现

    from nltk.tokenize import word_tokenize
    from nltk import bigrams, FreqDist
    from math import log
    
    # 读取数据 小写 替换符号 分句 
    dataset = open("train_LM.txt", 'r+', encoding='utf-8').read().lower()\
                    .replace(',',' ').replace('.',' ').replace('?',' ').replace('!',' ')\
                    .replace(':',' ').replace(';',' ').replace('<',' ').replace('>',' ').replace('/',' ')\
                    .split("__eou__")
    testset = open("test_LM.txt", 'r+', encoding='utf-8').read().lower()\
                    .replace(',',' ').replace('.',' ').replace('?',' ').replace('!',' ')\
                    .replace(':',' ').replace(';',' ').replace('<',' ').replace('>',' ').replace('/',' ')\
                    .split("__eou__")
    

    一元语法

    train

    unigramsDist = FreqDist()  # uni-gram词频数字典
    for i in dataset:
        sWordFreq = FreqDist(word_tokenize(i))  # 每一句的词频数字典
        for j in sWordFreq:
            if j in unigramsDist:
                unigramsDist[j] += sWordFreq[j]
            else:
                unigramsDist[j] = sWordFreq[j]
    

    test

    # 加入未登录词
    for i in testset:
        word = word_tokenize(i)  # 每一句的词频数字典
        for j in word:
            if j not in unigramsDist:
                unigramsDist[j] = 0
    
    # 频数转化为频率  使用加一平滑法   unigramsDist.B()表示每个词都加一后的增加量
    s = unigramsDist.N() + unigramsDist.B()
    unigramsFreq = FreqDist()
    for i in unigramsDist:
        unigramsFreq[i] = (unigramsDist[i] + 1) / s
    
    ppt = []
    for sentence in testset:
        logprob = 0
        wt = 0
        for word in word_tokenize(sentence):
            if word in unigramsFreq:
                logprob += log(unigramsFreq[word],2)
                wt += 1
        if wt > 0:
            ppt.append([sentence,pow(2,-(logprob/wt))])
    
    temp = 0
    for i in ppt:
        temp += i[1]
    print("一元语法模型的困惑度:", temp/len(ppt))
    
    一元语法模型的困惑度: 885.5469372058856
    

    二元语法

    Train

    w2gram = {}     # 可能存在的以w为开头的2-gram的种类数量
    bigramsDist = FreqDist()
    for sentence in dataset:
        sWordFreq = FreqDist(bigrams(word_tokenize(sentence)))
        for j in sWordFreq:
            if j in bigramsDist:
                bigramsDist[j] += sWordFreq[j]
            else:
                bigramsDist[j] = sWordFreq[j]
                if j[0] in w2gram:
                    w2gram[j[0]] += 1
                else:
                    w2gram[j[0]] = 1
    

    test

    # 加入未登录词
    # 由于将每种未出现的2-gram一一列举会生成vacab size * vocab size大小的bigramsDist,为节省时间和空间,此处只加入test中出现的2-gram
    for sentence in testset:
        word = bigrams(word_tokenize(sentence))
        for j in word:
            if j not in bigramsDist:
                bigramsDist[j] = 0
                
                if j[0] in w2gram:
                    w2gram[j[0]] += 1
                else:
                    w2gram[j[0]] = 1
    
    # 频数转化为频率  使用加一平滑法
    history = {}    # 以w为历史的2-gram的数量和
    for i in bigramsDist:
        if i[0] in history:
            history[i[0]] += bigramsDist[i]
        else:
            history[i[0]] = bigramsDist[i]
    bigramsFreq = FreqDist()
    for i in bigramsDist:
        bigramsFreq[i] = (bigramsDist[i] + 1) / (history[i[0]] + w2gram[i[0]])
    
    ppt = []
    for sentence in testset:
        logprob = 0
        wt = 0
        for word in bigrams(word_tokenize(sentence)):
            if word in bigramsFreq:
                logprob += log(bigramsFreq[word],2)
                wt += 1
        if wt > 0:
            ppt.append([sentence,pow(2,-(logprob/wt))])
    
    temp = 0
    for i in ppt:
        temp += i[1]
    print("二元语法模型的困惑度:", temp/len(ppt))
    
    二元语法模型的困惑度: 68.3362351830629
    

    测试结果

    一元语法模型的困惑度: 885.5469372058856
    二元语法模型的困惑度: 68.3362351830629

    展开全文
  • Caffe模型对比

    2017-08-21 10:23:01
    Caffe模型对比

    Caffe模型训练完成后,在实际生产环境中部署时需要对Caffe模型使用的显存(使用CPU时是内存)及模型分类的时间进行评估,下面是对比结果。测试使用的GPU为NVIDIA TESLA M40。

    Model Evaluation

    展开全文
  • 模型对比

    2019-12-07 21:58:47
  • 本文档是将简单模型和复杂模型的效果对比的相关论文做了一个整理。
  • RankLib2.11模型对比

    2019-04-21 17:59:05
    RankLib2.11模型对比
  • 那么游戏美术需要制作的模型和其他的模型有什么区别呢? 游戏模型与其他3d模型最大的一个区别就在于资源控制 如果你在制作模型的时候就没考虑这个问题,那么你做的东西是无法应用于游戏里的 资源的控制主要...
  • 深度学习 检测模型对比
  • 新安江模型和SWAT模型对比应用研究,李晓,李致家,新安江模型是我国第一个完整的流域水文模型,在国内应用多年,效果显著。SWAT模型是美国农业部开发的长时段模拟分布式流域水文模�
  • 排序模型对比

    2020-03-26 14:29:58
    模型优点是简单、高效、可控性好,模型可解释: 所有的特征直接作用在最后的输出结果上 但是效果的好坏直接取决于特征工程的程度,需要非常精细的连续型、离散型、时间型等特征处理及特征组合。通常通过正则化...
  • 对比十几种软件开发模型 瀑布模型 演化模型 螺旋模型 喷泉模型 快速原型模型 智能模型 混合模型 敏捷开发 极限编程XP
  • BIM模型、倾斜摄影模型、3D模型对比

    千次阅读 2020-04-27 21:10:51
    开发工具与关键技术:SuperMap iDesktop 10...BIM模型和属性信息丰富(模型+属性一次性导出) BIM模型精细度非常高(导出时对模型进行优化) BIM软件中分层管理模型(以数据集和图层来管理) BIM与GIS对接的...
  • 数据库领域中主要的逻辑数据模型有:层次模型、网状模型、关系模型、面向对象数据模型等,我们重点讲解了**层次模型、网状模型、关系模型**。 1.1 层次模型 层次数据库系统的典型代表是IBM公司的Information ...
  • OSI模型与DOD模型对比 OSI七层模型 作用:制定通讯标准或者规范 层次结构: 物理层:利用传输介质控制数据传输(网线 光纤) 数据链路层:控制一个网络内部数据传递(二层设备具有交换功能的设备) 网络层:控制...
  • 软件开发过程模型 软件过程模型 软件开发过程几种模型对比

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 13,415
精华内容 5,366
关键字:

对比模型