猜你喜欢
相关培训 相关博客
  • 斯坦福大学NLP课程CS224N课第一次作业第一部分最近准备认真学习NLP,所以找了一个比较好的NLP课程即斯坦福大学的CS224N,总共有三次作业,我已经完成了第一次作业,把做的过程和方法写成博客,一个目的是分享,一个目的是作为自己的笔记。作业形式作业是使用Python2.7写的,不过我现在基本都在用Python3.5以上了,但是不用担心,只需要改很少的一部分即可。作业形式是给出大体的框架...
    2018-11-08 16:18:12
    阅读量:506
    评论:3
  • 斯坦福大学NLP课程CS224N课第一次作业第三部分(上)CS224N课程还是有点难度的,第一次作业就需要手写word2vec了,不过如果知道wordvec的原理的话,写起来还是比较简单的,主要工作其实都在求导上,我们下面从Word2vec的原理层一点点的解开word2vec的神秘面纱。1. word2vec原理可能很多人都用过word2vec的包,但是还不知道原理,可能有的人觉得没有必要知...
    2018-11-11 16:56:16
    阅读量:446
    评论:0
  • 以下是我的学习笔记,以及总结,如有错误之处请不吝赐教。自然语言处理发展:在网上看了很多文章都没有屡清楚LDA、n-gram、one-hot、word embeding、word2vec等等的关系,直到看到这篇文章:参考1要分清楚两个概念:语言模型和词的表示语言模型:分为文法语言和统计语言,我们现在常说的语言模型就是统计语言,就是把语言(词的序列)看作一个随机事件,并赋予相应的概率来...
    2018-12-22 18:59:53
    阅读量:514
    评论:0
  • 斯坦福大学NLP课程CS224N课第一次作业第三部分(中)上一篇博客我们大体了解了word embedding原理和word2vec原理,这一节我们就开始实现word2vec,作业见q3_word2vec.py。1. word2vec的softmax版本我们在上篇博客其实实现了两种softmax方法,其中一种是基于softmax,一种是基于负采样。我们先实现softmax方法。给的代码很长...
    2018-11-14 15:31:54
    阅读量:352
    评论:0
  • 答应了老板就开始找相关课程老师咨询,这一咨询下来才发现这个市场真乱呀,有大几K甚至上W价格的课程,也有几百的聊天机器人课程,我甚至看到有几十元的深度学习视频课程。大几K、上W的课程主要是服务好,比如有助教及时批改作业,及时督促跟进学生的情况,老师看上去也很牛的水平,几百就没这些服务了,老师答疑也是24小时之内答疑。我本业是想选个上W的课程,但是担心自已学不下来,没得报销,想来还是保险些,选个几百的...
    2020-01-20 18:35:49
    阅读量:2
    评论:0
  • 这一节概略的介绍了一下分词的内容。分词是NLP里面很重要的方面。每个NLP任务都需要做文本的规范化,包括切分单词单词格式规范化切分句子用N表示单词总数,V表示不同的单词数(size of vocabulary),用shake.txt做了实验,将非字母的字符作为分隔符,统计每个单词的出现次数。遇到的问题: d和s 的个数非常多,因为文章中经常会出现‘s类似这样的词
    2015-06-10 14:13:50
    阅读量:652
    评论:0
  • 斯坦福大学NLP课程CS224N课第一次作业第四部分很开心到了第一次作业的最后一个部分,这次作业是通过词向量生成句向量然后来进行句子的情感分类。我们要实现的是q4_sentiment.py文件,这个文件看起来很长,但是其实我们要实现的只有三个函数,我们依次看一看。数据在运行q3_run.py之前已经下载过了。1. getSentenceFeatures()def getSentenceF...
    2018-11-16 15:06:29
    阅读量:280
    评论:4
  • 编辑距离用来衡量两个串的相似度编辑距离就是用最少的编辑操作将一个词变为另一个词,操作有三种插入删除替换如何计算最短编辑距离? 动态规划字符串X长度为n字符串Y长度为m定义D(i,j)表示X[0,i]和Y[0,j]的最短编辑距离,则D(n,m)表示X和Y的最短编辑距离先计算i,j较小的情况下的D(i,j),然后再 利用已经计算出来的结果来计算i,j较大的情况下的D
    2015-06-10 15:33:12
    阅读量:587
    评论:0