精华内容
下载资源
问答
  • 自然语言处理论文(2021.08.05).rar
  • 自然语言处理论文

    2018-06-14 22:13:05
    本届 EMNLP 大会涉及自然语言处理的各个领域,“机器学习”毫无悬念仍然成为重点,并且还首次单独出来自成一类(EMNLP 2015 时是“统计机器学习方法”)。大会覆盖的主题包括:计算心理语言;对话和交互系统;话语...
  • 包含文本分类,文本自动校对,《统计自然语言处理》等多篇论文,图书等资源,所有论文基本都是2018年8月以后发表的,只有少数两篇是2017年的
  • 自然语言处理必读论文 聚类&词向量 主题模型 语言模型 分割、标注、解析 序列模型、信息抽取 机器翻译, seq2seq模型 指代消歧 自动文本总结 问答系统、阅读理解 生成模型、强化学习 机器学习 神经网络模型 转载:...
  • 超牛逼的自然语言处理论文和代码

    热门讨论 2012-01-30 17:20:15
    Research on Issues of Translation Selection for Phrase and Structure in Statistical Machine Translation_hezhongjun_phd thesis 2008.pdf Research on domain adaptation in Statistical Machine Translation...
  • 自然语言处理论文10篇(转载)

    千次阅读 2018-06-08 19:18:03
    自然语言处理论文10篇 | PaperWeekly 本文经授权转载自公众号 Paper Weekly (ID:paperweekly)。Paperweekly 每周分享自然语言处理领域好玩的paper。 1、Neural Personalized Resp...
    mark一下,感谢作者分享! 
    

    自然语言处理论文10篇 | PaperWeekly


    本文经授权转载自公众号 Paper Weekly (ID:paperweekly)。Paperweekly 每周分享自然语言处理领域好玩的paper。


    1、Neural Personalized Response Generation as Domain Adaptation


    【个性化】【对话生成】 本文研究的问题是如何生成个性化的对话,模型仍是基于经典的seq2seq+attention,在该模型的基础上通过两个步骤来生成特定style的对话,第一步是initialization,第二步是adaptation。工作来自哈工大 @刘挺 老师组,他们推出了一个聊天机器人 “笨笨” (可微信搜),而且具有中文阅读理解的功能。关于生成更多样的对话内容,可以参考  PaperWeekly 第十八期 — 提高seq2seq方法所生成对话的流畅度和多样性


    2、RUBER: An Unsupervised Method for Automatic Evaluation of Open-Domain Dialog Systems


    【对话系统】【评价】 本文研究的问题也是当前对话系统中非常关键的一个问题,如何更加准确地自动评价模型的效果,本文提出了一种新的评价方法RUBER,旨在通过生成的reply和用户的当前query来联合评判效果,建议从业者和相关研究人员精读。


    3、Generating Long and Diverse Responses with Neural Conversation Models


    【对话生成】【seq2seq】 本文研究的问题是如何生成一个又长、又多样的对话,模型仍是基于经典的seq2seq,在decoding部分,加了一个所谓的self-attention部件来保证对话长度和连贯性,在解空间中用随机beam search来搜索候选对话,然后进行重排得到最终结果。


    4、Decoding as Continuous Optimization in Neural Machine Translation


    【seq2seq】【解码】 本文的亮点在于将seq2seq模型中的解码部分转化成一个连续优化的问题,通过比较成熟的优化算法来解决解码问题,这个思路可以被应用到所有seq2seq解决方案中。


    5、OpenNMT: Open-Source Toolkit for Neural Machine Translation


    【NMT】【开源】 Harvard NLP组和SYSTRAN公司联合推出的开源机器翻译系统OpenNMT,torch实现,代码地址:https://github.com/opennmt/opennmt 主页地址:http://opennmt.net/


    6、Implicitly Incorporating Morphological Information into Word Embedding


    【词向量】将词形信息考虑在词向量模型中是一种常见的增强手段,一般的做法是将词的前缀、后缀和词根作为独立的token进行建模,而本文的思路则是用能够代表前缀、后缀意思的词来代替进行建模。


    7、Real Multi-Sense or Pseudo Multi-Sense: An Approach to Improve Word Representation


    【真假多义词】 词向量是一个非常活跃的研究领域,word2vec提供了一种非常简单粗暴、充满问题的词向量,比如一个典型的问题是一词多义,于是很多的工作都是在解决一词多义的问题,但一个词对应的多个向量其实都指向同一个词义,本文的工作正是对这些伪一词多义进行识别,降低语言研究的复杂度。


    8、Multi-level Representations for Fine-Grained Typing of Knowledge Base Entities


    【entity表示】 entity是知识图谱的基础组件,很多的entity都是罕见词(短语),entity的表示是一个相对困难的问题。本文提出了一种char-level、word-level和entity-level三种level的联合表示模型,得到了不错的效果。本文非常值得精读!数据和代码都已公开 http://cistern.cis.lmu.de/figment/


    9、Task-Specific Attentive Pooling of Phrase Alignments Contributes to Sentence Matching


    【短语对齐】 本文研究的问题是句子匹配,该问题常常被应用于文本蕴含和答案选择两个任务上,针对短语识别、表示和对齐等关键问题,本文提出了一种基于GRU的NN模型,取得了不错的效果。本文作者是@Wenpeng_Yin


    10、Parsing Universal Dependencies without training


    【依存分析】【无监督】 本文的工作是基于pagerank和一些规则来做无监督式的依存文法分析,无监督的paper总是让人眼前一亮,EACL2017。”在现今去规则化和拼语料库的机器学习型parser盛行时,少有的使用规则,无监督的Parser。每人研究都有自己支撑点,在没有被完全推翻时,自然会坚持,不为热潮激流所动,我认为这是理性研究者的主骨,我一直有敬畏之心。尽管各家学说各异,相信还是以结果优良和可发展性为最终评价标准”(观点来自微博 王伟DL)




    展开全文
  • Recurrent neural network based language model Word representations: A simple and general method for semi-supervised learning Natural Language Processing (Almost) from Scratch Efficient Estimation of ...
  • nlp自然语言处理论文精读
  • 主要包含文本挖掘的期刊论文和毕业论文40多篇,搞自然语言处理的,文本挖掘的可以下载看看。来源于万方,侵删。
  • 在这次演讲中,我将分享一些技巧和技巧,如何写有效的论文总结基于ML和NLP发表的论文。重点是如何写一篇紧凑,清晰,负责任,有效的文章。
  • 【自然语言处理入门系列】推荐:NLP Paper - 按主题分类的自然语言处理论文汇总 这是一个很优秀的论文汇总链接,忍不住要通过博客分享给各位NLPer: NLP Paper - 按主题分类的自然语言处理论文汇总 主题十分全面,...

    【自然语言处理入门系列】推荐:NLP Paper - 按主题分类的自然语言处理论文汇总

    这是一个很优秀的论文汇总链接,忍不住要通过博客分享给各位NLPer:
    NLP Paper - 按主题分类的自然语言处理论文汇总
    主题十分全面,而且更新十分及时,建议大家收藏!
    涵盖了如下主题

    Contents
    
        Bert Series
        Transformer Series
        Transfer Learning
        Text Summarization
        Sentiment Analysis
        Question Answering
        Machine Translation
        Surver paper
        Downstream task
            QA MC Dialogue
            Slot filling
            Analysis
            Word segmentation parsing NER
            Pronoun coreference resolution
            Word sense disambiguation
            Sentiment analysis
            Relation extraction
            Knowledge base
            Text classification
            WSC WNLI NLI
            Commonsense
            Extractive summarization
            IR
        Generation
        Quality evaluator
        Modification (multi-task, masking strategy, etc.)
        Probe
        Multi-lingual
        Other than English models
        Domain specific
        Multi-modal
        Model compression
        Misc
    

    【作者简介】陈艺荣,男,目前在华南理工大学电子与信息学院广东省人体数据科学工程技术研究中心攻读博士,担任IEEE Access、IEEE Photonics Journal的审稿人。两次获得美国大学生数学建模竞赛(MCM)一等奖,获得2017年全国大学生数学建模竞赛(广东赛区)一等奖、2018年广东省大学生电子设计竞赛一等奖等科技竞赛奖项,主持一项2017-2019年国家级大学生创新训练项目获得优秀结题,参与两项广东大学生科技创新培育专项资金、一项2018-2019年国家级大学生创新训练项目获得良好结题,发表SCI论文4篇,授权实用新型专利8项,受理发明专利13项。
    我的主页
    我的Github
    我的CSDN博客
    我的Linkedin

    展开全文
  • 自己整理的IJCAI2018自然语言处理方向的论文,总共95篇,有感兴趣的可以一阅。
  • NLP论文:自然语言处理论文
  • 深度之眼招募人工智能领域讲师,兼职时间一年可赚30w,招聘详情见文章底部。学习人工智能的你想快速发论文吗?今天给大家推荐一个出论文的好方向——图神经网络!它是近些年学术界和工业界最新的研...

    深度之眼招募人工智能领域讲师,兼职时间一年可赚30w,招聘详情见文章底部。


    学习人工智能的你想快速发论文吗?今天给大家推荐一个出论文的好方向——图神经网络!

    它是近些年学术界和工业界最新的研究热点!在社交网络、知识图谱、推荐系统等工业界有广阔的应用前景!

    最重要的是,图神经网络与CV和NLP交叉,容易有创新点,是出论文的好方向!

    学习图神经网络,想要发表论文,就一定要理解并掌握图神经网络领域的经典Paper,才能梳理出主要的知识框架,从而找到论文创新点。

    可能你会说,读论文好难!代码复现好难!创新优化更难!!而且现在论文质量参差不齐,该如何甄选?对于一些优秀论文,又该如何寻找论文源代码?如何剖析算法优缺点?如何复现?如何结合实际应用实施呢?

    为了让大家在学习图神经网络的过程中少走弯路、少踩坑,深度之眼重磅推出神经网络论文体验课:

    图神经网络论文精讲班,讲解的论文篇目:

    学员走心评价

    品牌口碑


    如有任何疑问请扫码咨询客服

    年轻最有效的资本是时间,让我们带你更有效的学习,帮你节约盲目摸索的时间。让你赚取更多的价值!

    订阅须知

    Q:课程资料在哪里看?

    A:所有的课程资料均会在训练营内上传,报名以后请务必添加客服微信入群!

    Q:视频可以电脑看吗?

    A:课程视频支持PC端倍速播放。

    Q:报名后可以退款吗?

    A:本服务为虚拟内容产品,一经购买,概不退款,敬请谅解。

    Q:可以开具发票吗?

    A:可以开具普通电子发票,请联系微信班主任填写需要的信息即可。

    paper讲师招聘

    【工作职责】

    1、讲解计算机视觉(自然语言处理)经典/前沿论文及后续内容迭代和优化

    2、制作录播课课件,如有代码复现,需要提供经过自己跑的代码及相关注释,方便讲解

    3、结合自己的理解和实际工作经历对论文内容做拓展讲解

    4、按照我们的模板制定教学计划,提升学员的学习效果

    【任职要求】

    1、计算机视觉(自然语言处理)算法、工程岗在职工程师,或人工智能相关课题研究的国内外名校高材生

    2、精读过计算机视觉(自然语言处理)经典论文并对部分论文做过复现,随时关注前沿研究动态

    3、自己出过相关视频课或者在其他机构任职过兼职/全职讲师者优先考虑

    4、对教育有热情,在博客、或者知乎等相关知识分享平台写过技术分享文章优先考虑

    5、无须全职,线上工作,能在不影响本职工作下完成备课、授课和学员服务,没有工作地点的限制。

    如有意向添加工作人员微信:

    展开全文
  • 本文是中英对照毕业设计论文外文文献翻译下载后直接可用省去您找文献pdf整理成word以及翻译的时间一辈子也就一次的事 文献引用作者出处信息:Ellen M. Voorhees Information Extraction: Towards Scalable, Adapta....
  • 自然语言处理论文发表

    千次阅读 2016-03-04 15:38:59
    曾经写过一篇小文,初学者如何查阅自然语言处理(NLP)领域学术资料_zibuyu_新浪博客,也许可以供你参考。 昨天实验室一位刚进组的同学发邮件来问我如何查找学术论文,这让我想起自己刚读研究生时茫然四顾的情形...

    曾经写过一篇小文, 初学者如何查阅自然语言处理(NLP)领域学术资料_zibuyu_新浪博客,也许可以供你参考。

    昨天实验室一位刚进组的同学发邮件来问我如何查找学术论文,这让我想起自己刚读研究生时茫然四顾的情形:看着学长们高谈阔论领域动态,却不知如何入门。经过研究生几年的耳濡目染,现在终于能自信地知道去哪儿了解最新科研动态了。我想这可能是初学者们共通的困惑,与其只告诉一个人知道,不如将这些Folk Knowledge写下来,来减少更多人的麻烦吧。当然,这个总结不过是一家之谈,只盼有人能从中获得一点点益处,受个人认知所限,难免挂一漏万,还望大家海涵指正。


    1. 国际学术组织、学术会议与学术论文

    自然语言处理(natural language processing,NLP)在很大程度上与计算语言学(computational linguistics,CL)重合。与其他计算机学科类似,NLP/CL有一个属于自己的最权威的国际专业学会,叫做The Association for Computational Linguistics(ACL,URL:ACL Home Page),这个协会主办了NLP/CL领域最权威的国际会议,即ACL年会,ACL学会还会在北美和欧洲召开分年会,分别称为NAACL和EACL。除此之外,ACL学会下设多个特殊兴趣小组(special interest groups,SIGs),聚集了NLP/CL不同子领域的学者,性质类似一个大学校园的兴趣社团。其中比较有名的诸如SIGDAT(Linguistic data and corpus-based approaches to NLP)、SIGNLL(Natural Language Learning)等。这些SIGs也会召开一些国际学术会议,其中比较有名的就是SIGDAT组织的EMNLP(Conference on Empirical Methods on Natural Language Processing)和SIGNLL组织的CoNLL(Conference on Natural Language Learning)。此外还有一个International Committee on Computational Linguistics的老牌NLP/CL学术组织,它每两年组织一个称为International Conference on Computational Linguistics (COLING)的国际会议,也是NLP/CL的重要学术会议。NLP/CL的主要学术论文就分布在这些会议上。

    作为NLP/CL领域的学者最大的幸福在于,ACL学会网站建立了称作ACL Anthology的页面(URL:ACL Anthology),支持该领域绝大部分国际学术会议论文的免费下载,甚至包含了其他组织主办的学术会议,例如COLING、IJCNLP等,并支持基于Google的全文检索功能,可谓一站在手,NLP论文我有。由于这个论文集合非常庞大,并且可以开放获取,很多学者也基于它开展研究,提供了更丰富的检索支持,具体入口可以参考ACL Anthology页面上方搜索框右侧的不同检索按钮。

    与大部分计算机学科类似,由于技术发展迅速,NLP/CL领域更重视发表学术会议论文,原因是发表周期短,并可以通过会议进行交流。当然NLP/CL也有自己的旗舰学术期刊,发表过很多经典学术论文,那就是Computational Linguistics(URL:MIT Press Journals)。该期刊每期只有几篇文章,平均质量高于会议论文,时间允许的话值得及时追踪。此外,ACL学会为了提高学术影响力,也刚刚创办了Transactions of ACL(TACL,URL:Transactions of the Association for Computational Linguistics (ISSN: 2307-387X)),值得关注。值得一提的是这两份期刊也都是开放获取的。此外也有一些与NLP/CL有关的期刊,如ACM Transactions on Speech and Language Processing,ACM Transactions on Asian Language Information Processing,Journal of Quantitative Linguistics等等。

    根据Google Scholar Metrics 2013年对NLP/CL学术期刊和会议的评价,ACL、EMNLP、NAACL、COLING、LREC、Computational Linguistics位于前5位,基本反映了本领域学者的关注程度。

    NLP/CL作为交叉学科,其相关领域也值得关注。主要包括以下几个方面:(1)信息检索和数据挖掘领域。相关学术会议主要由美国计算机学会(ACM)主办,包括SIGIR、WWW、WSDM等;(2)人工智能领域。相关学术会议主要包括AAAI和IJCAI等,相关学术期刊主要包括Artificial Intelligence和Journal of AI Research;(3)机器学习领域,相关学术会议主要包括ICML,NIPS,AISTATS,UAI等,相关学术期刊主要包括Journal of Machine Learning Research(JMLR)和Machine Learning(ML)等。例如最近兴起的knowledge graph研究论文,就有相当一部分发表在人工智能和信息检索领域的会议和期刊上。实际上国内计算机学会(CCF)制定了“中国计算机学会推荐国际学术会议和期刊目录”(CCF推荐排名),通过这个列表,可以迅速了解每个领域的主要期刊与学术会议。

    最后,值得一提的是,美国Hal Daumé III维护了一个natural language processing的博客(natural language processing blog),经常评论最新学术动态,值得关注。我经常看他关于ACL、NAACL等学术会议的参会感想和对论文的点评,很有启发。另外,ACL学会维护了一个Wiki页面(ACL Wiki),包含了大量NLP/CL的相关信息,如著名研究机构、历届会议录用率,等等,都是居家必备之良品,值得深挖。


    2. 国内学术组织、学术会议与学术论文

    与国际上相似,国内也有一个与NLP/CL相关的学会,叫做中国中文信息学会(URL:中国中文信息学会)。通过学会的理事名单(中国中文信息学会)基本可以了解国内从事NLP/CL的主要单位和学者。学会每年组织很多学术会议,例如全国计算语言学学术会议(CCL)、全国青年计算语言学研讨会(YCCL)、全国信息检索学术会议(CCIR)、全国机器翻译研讨会(CWMT),等等,是国内NLP/CL学者进行学术交流的重要平台。尤其值得一提的是,全国青年计算语言学研讨会是专门面向国内NLP/CL研究生的学术会议,从组织到审稿都由该领域研究生担任,非常有特色,也是NLP/CL同学们学术交流、快速成长的好去处。值得一提的是,2010年在北京召开的COLING以及2015年即将在北京召开的ACL,学会都是主要承办者,这也一定程度上反映了学会在国内NLP/CL领域的重要地位。此外,计算机学会中文信息技术专委会组织的自然语言处理与中文计算会议(NLP&CC)也是最近崛起的重要学术会议。中文信息学会主编了一份历史悠久的《中文信息学报》,是国内该领域的重要学术期刊,发表过很多篇重量级论文。此外,国内著名的《计算机学报》、《软件学报》等期刊上也经常有NLP/CL论文发表,值得关注。

    过去几年,在水木社区BBS上开设的AI、NLP版面曾经是国内NLP/CL领域在线交流讨论的重要平台。这几年随着社会媒体的发展,越来越多学者转战新浪微博,有浓厚的交流氛围。如何找到这些学者呢,一个简单的方法就是在新浪微博搜索的“找人”功能中检索“自然语言处理”、 “计算语言学”、“信息检索”、“机器学习”等字样,马上就能跟过去只在论文中看到名字的老师同学们近距离交流了。还有一种办法,清华大学梁斌开发的“微博寻人”系统(清华大学信息检索组)可以检索每个领域的有影响力人士,因此也可以用来寻找NLP/CL领域的重要学者。值得一提的是,很多在国外任教的老师和求学的同学也活跃在新浪微博上,例如王威廉(Sina Visitor System)、李沐(Sina Visitor System)等,经常爆料业内新闻,值得关注。还有,国内NLP/CL的著名博客是52nlp(我爱自然语言处理),影响力比较大。总之,学术研究既需要苦练内功,也需要与人交流。所谓言者无意、听者有心,也许其他人的一句话就能点醒你苦思良久的问题。无疑,博客微博等提供了很好的交流平台,当然也注意不要沉迷哦。


    3. 如何快速了解某个领域研究进展

    最后简单说一下快速了解某领域研究进展的经验。你会发现,搜索引擎是查阅文献的重要工具,尤其是谷歌提供的Google Scholar,由于其庞大的索引量,将是我们披荆斩棘的利器。

    当需要了解某个领域,如果能找到一篇该领域的最新研究综述,就省劲多了。最方便的方法还是在Google Scholar中搜索“领域名称 + survey / review / tutorial / 综述”来查找。也有一些出版社专门出版各领域的综述文章,例如NOW Publisher出版的Foundations and Trends系列,Morgan & Claypool Publisher出版的Synthesis Lectures on Human Language Technologies系列等。它们发表了很多热门方向的综述,如文档摘要、情感分析和意见挖掘、学习排序、语言模型等。

    如果方向太新还没有相关综述,一般还可以查找该方向发表的最新论文,阅读它们的“相关工作”章节,顺着列出的参考文献,就基本能够了解相关研究脉络了。当然,还有很多其他办法,例如去videolectures.net上看著名学者在各大学术会议或暑期学校上做的tutorial报告,去直接咨询这个领域的研究者,等等。

    展开全文
  • 2017自然语言处理精选论文
  • 自然语言处理论文集合

    热门讨论 2011-11-29 16:30:09
    自然语言处理-句法剖析论文.pdf 自然语言理解的语义分析在产品设计中的应用.pdf 融合丰富语言知识的汉语统计句法分析.pdf 限定领域的基本陈述句句法分析.pdf 面向中文问答系统的问句句法分析.pdf
  • 自然语言处理(Natural Language Processing)俗称人机对话,是研究如何利用计算机来理解和处理自然语言的,即把计算机作为语言研究的工具,在计算机技术的支持下对语言信息进行定量化的研究,通常又被称为自然语言...
  • 深度学习模型通常需要大量数据。 但是,这些大型数据集并非总是可以实现的。这在许多具有挑战性的NLP任务中很常见...例如,考虑使用神经机器翻译,在这种情况下,特别对于低资源语言而言,可能无法整理如此大的数据集。
  • ACL 2017自然语言处理精选论文

    千次阅读 2017-09-13 16:08:20
    作者简介:洪亮劼,Etsy数据科学主管,前雅虎研究院高级经理。长期从事推荐系统、机器学习和人工智能的研究工作,在国际顶级会议上发表论文20余...涉及自然语言处理、人工智能、机器学习等诸多理论以及技术的顶级会...
  • 关注上方“深度学习技术前沿”,选择“星标公众号”,资源干货,第一时间送达!自然语言处理(NLP)帮助智能机器更好地理解人类语言,实现基于语言的人机交流。计算能力的最新发展和大量语言数据的...
  • 自然语言处理综述

    千次阅读 2018-12-25 11:08:16
    这两篇论文都是很好的综述性入门论文,希望详细了解自然语言处理的读者可以进一步阅读这两篇论文。 第一部分介绍了自然语言处理的基本概念,作者将 NLP 分为自然语言理解和自然语言生成,并解释了 NLP 过程的各个...
  • 自然语言处理(NLP)帮助智能机器更好地理解人类语言,实现基于语言的人机交流。计算能力的最新发展和大量语言数据的出现,增加了使用数据驱动方法自动进行语义分析的需求。由于深度学习方法在计算机视觉、自动语音...
  • 自然语言处理ACL2020论文列表

    千次阅读 2020-06-23 18:11:32
    点击上方,选择星标或置顶,不定期资源大放送!阅读大概需要2分钟Follow小博主,每天更新前沿干货【导读】自然语言处理顶会 ACL 2020 将于 7 月 5 日-10 日线上举行。不久...
  • 当前自然语言处理的发展为低资源语言和领域提供了挑战和机遇。众所周知,深度神经网络需要大量的训练数据,而这些数据在资源贫乏的情况下可能无法得到。然而,也有越来越多的工作来提高低资源环境下的性能。
  • 自然语言处理NLP英文论文参考源
  • 自然语言处理&知识图谱论文阅读记录论文Huang et al. ACL 2012, 多义词表示 论文阅读记录 本人以前是搞深度学习和图像相关的,由于种种原因和个人规划,开始转做自然语言处理和知识图谱相关的研究。由于...
  • 小样本自然语言处理(NLP)是指NLP任务只具有少量标注的样例。这是人工智能系统必须学会处理的现实挑战。通常我们依赖于收集更多的辅助信息或开发一个更有效的学习算法。
  • 自然语言处理包含哪些内容?

    千次阅读 2020-08-26 14:38:46
    有朋友说小编你总是发一些自然语言处理的内容,那这个自然语言处理都包含了哪些内容呢?就此小编对自然语言处理进行了整理,下面我们来看自然语言处理的相关内容:  语言处理基础技术  拥有领先、全面的NLP...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 60,195
精华内容 24,078
关键字:

自然语言处理论文