猜你喜欢
相关培训 相关博客
  • 斯坦福大学NLP课程CS224N课第一次作业第一部分最近准备认真学习NLP,所以找了一个比较好的NLP课程即斯坦福大学的CS224N,总共有三次作业,我已经完成了第一次作业,把做的过程和方法写成博客,一个目的是分享,一个目的是作为自己的笔记。作业形式作业是使用Python2.7写的,不过我现在基本都在用Python3.5以上了,但是不用担心,只需要改很少的一部分即可。作业形式是给出大体的框架...
    2018-11-08 16:18:12
    阅读量:503
    评论:3
  • 以下是我的学习笔记,以及总结,如有错误之处请不吝赐教。自然语言处理发展:在网上看了很多文章都没有屡清楚LDA、n-gram、one-hot、word embeding、word2vec等等的关系,直到看到这篇文章:参考1要分清楚两个概念:语言模型和词的表示语言模型:分为文法语言和统计语言,我们现在常说的语言模型就是统计语言,就是把语言(词的序列)看作一个随机事件,并赋予相应的概率来...
    2018-12-22 18:59:53
    阅读量:513
    评论:0
  • 斯坦福大学NLP课程CS224N课第一次作业第三部分(上)CS224N课程还是有点难度的,第一次作业就需要手写word2vec了,不过如果知道wordvec的原理的话,写起来还是比较简单的,主要工作其实都在求导上,我们下面从Word2vec的原理层一点点的解开word2vec的神秘面纱。1. word2vec原理可能很多人都用过word2vec的包,但是还不知道原理,可能有的人觉得没有必要知...
    2018-11-11 16:56:16
    阅读量:446
    评论:0
  • 斯坦福大学NLP课程CS224N课第一次作业第三部分(中)上一篇博客我们大体了解了word embedding原理和word2vec原理,这一节我们就开始实现word2vec,作业见q3_word2vec.py。1. word2vec的softmax版本我们在上篇博客其实实现了两种softmax方法,其中一种是基于softmax,一种是基于负采样。我们先实现softmax方法。给的代码很长...
    2018-11-14 15:31:54
    阅读量:352
    评论:0
  • NLP 课程笔记stevenliuyi   http://mooc.guokr.com/note/157/2013-08-02 16:51课程涵盖范围:NLP 子问题(NLP sub-problems):词性标注(part-of-speech tagging)、句法分析(parsing)、词义辨识(word-sense disambiguation)
    2016-03-07 20:19:33
    阅读量:2042
    评论:0
  • 这一节概略的介绍了一下分词的内容。分词是NLP里面很重要的方面。每个NLP任务都需要做文本的规范化,包括切分单词单词格式规范化切分句子用N表示单词总数,V表示不同的单词数(size of vocabulary),用shake.txt做了实验,将非字母的字符作为分隔符,统计每个单词的出现次数。遇到的问题: d和s 的个数非常多,因为文章中经常会出现‘s类似这样的词
    2015-06-10 14:13:50
    阅读量:651
    评论:0
  • 斯坦福大学NLP课程CS224N课第一次作业第二部分第二部分包括三个python文件,同时也相当于实现三个小功能,分别是梯度检验、sigmoid和简单的神经网络。1.梯度检验梯度校验就是使用函数某点与其相邻点组成的直线的斜率估计该点的导数,如果相邻点为无穷小相邻,那么结果就等于该点的导数,公式解释为:f′(x)=lim⁡h→0f(x+h)−f(x−h)))2∗h公式一f^{&#x...
    2018-11-09 11:15:32
    阅读量:962
    评论:3
  • 编辑距离用来衡量两个串的相似度编辑距离就是用最少的编辑操作将一个词变为另一个词,操作有三种插入删除替换如何计算最短编辑距离? 动态规划字符串X长度为n字符串Y长度为m定义D(i,j)表示X[0,i]和Y[0,j]的最短编辑距离,则D(n,m)表示X和Y的最短编辑距离先计算i,j较小的情况下的D(i,j),然后再 利用已经计算出来的结果来计算i,j较大的情况下的D
    2015-06-10 15:33:12
    阅读量:586
    评论:0