https://i.ancii.com/sunbrother/
NLP神经语言程序学,让生命看到更多可能。
自 2017 年 1 月 PyTorch 推出以来,其热度持续上升。PyTorch 能在短时间内被众多研究人员和工程师接受并推崇是因为其有着诸多优点,如采用 Python 语言、动态图机制、网络构建灵活以及拥有强大的社群等。最近红色石头在浏览 GitHub
随着 NLP 技术的成熟,不少人文社科领域的专家也呼吁结合相关技术进行研究和学习。近日,斯坦福大学发布了一门明年 1 月的公开课程,主要关注 AI 中的自然语言处理和社交网络的结合应用,适合文科生学习。机器之心曾经也报道过斯坦福大学的 CS224n 自然语
在文章NLP入门(十一)从文本中提取时间 中,笔者演示了如何利用分词、词性标注的方法从文本中获取时间。当时的想法比较简单快捷,只是利用了词性标注这个功能而已,因此,在某些地方,时间的识别效果并不太好。比如以下的两个例子:。苏北大量农村住房建于上世纪80年代
现阶段的文本分类模型频出,种类繁多,花样百变,既有机器学习中的朴素贝叶斯模型、SVM等,也有深度学习中的各种模型,比如经典的CNN, RNN,以及它们的变形,如CNN-LSTM,还有各种高大上的Attention模型。本文以kashgari-tf为例,它能
NLP年度最佳应用论文大集锦!可应用于实际的14个NLP突破性研究成果(一)。尽管最近在训练高质量的句子嵌入上做出了很多的努力,但是大家仍然对它们所捕捉的内容缺乏了解。基于句子分类的‘Downstream’tasks通常用于评估句子表示的质量。
NLP年度最佳应用论文大集锦!语言理解对计算机来说是一个巨大的挑战。幼儿可以理解的微妙的细微差别仍然会使最强大的机器混淆。但在2018年确实产生了许多具有里程碑意义的研究突破,这些突破推动了自然语言处理、理解和生成领域的发展。我们总结了14篇研究论文,涵盖
刚接触自然语言处理的朋友通常会问我:当系统的输出是文本,而非对输入文本进行某种分类,如何对该系统进行评估。当模型的输入是文本信息,输出也是文本信息时,我们称之为序列到序列问题,也可称为字符串转换问题。目前最流行的评价指标之一BLEU虽然常用,但也存在较大的
摘要:图解,2018年自然语言处理领域最成功的方向!2018年是自然语言处理的转折点,能捕捉潜在意义和关系的方式表达单词和句子的概念性理解正在迅速发展。此外,NLP社区已经出现了非常强大的组件,你可以在自己的模型和管道中自由下载和使用。在这个时刻中,最新里
词形还原是文本预处理中的重要部分,与词干提取很相似。简单说来,词形还原就是去掉单词的词缀,提取单词的主干部分,通常提取后的单词会是字典中的单词,不同于词干提取,提取后的单词不一定会出现在单词中。比如,单词“cars”词形还原后的单词为“car”,单词“at
本文作为笔者NLP入门系列文章第一篇,以后我们就要步入NLP时代。本文将会介绍NLP中常见的词袋模型以及如何利用词袋模型来计算句子间的相似度。我们以下面两个简单句子为例:。sent2 = "I like running, I love readi
无需翻译的无监督复述的新方法:允许从输入句子生成多样但语义上接近的句子。模型基于矢量量化自动编码器,可以在单纯语言环境中解释句子。它还具有独特的功能,即与量化瓶颈并行的残余连接,可以更好地控制解码器熵并简化优化过程。近年来,研究人员一直在尝试开发自动复述的
自然语言处理领域正在发生变化。作为NLP的核心表现技术——词向量,其统治地位正在被诸多新技术挑战,如:ELMo,ULMFiT及OpenAI变压器。这些方法预示着一个分水岭:它们在 NLP 中拥有的影响,可能和预训练的 ImageNet 模型在计算机视觉中的
ACL 2019录取结果今天放榜了!就投稿数量来说,这是历史上最火的一届NLP顶会,有效投稿达到2694篇,相比去年的1544篇增加了75%。此外,本届ACL的评审质量也受到颇多吐槽。你的论文入选了吗?尽管录取率尚未公布,不过就投稿量来说今年 ACL 大会
在 BERT 论文出现的几周前,斯坦福大学和谷歌大脑合作的一篇同样关于 NLP 预训练模型的论文发布。该研究提出一种新型自训练算法 Cross-View Training ,结合预训练词向量和自训练算法,使用标注数据和无标注数据的混合,从而改善 Bi-LS
选自arXiv,作者:Jacob Devlin、Ming-Wei Chang、Kenton Lee、Kristina Toutanova ,机器之心编译,参与:路、王淑婷、张倩。与最近的语言表征模型不同,BERT 旨在基于所有层的左、右语境来预训练深度双向
这些数据集包含相关的临床放射学报告。目前,当我们训练深度学习算法以识别放射学图像的异常情况时,我们使用放射科的医师报告作为最佳标准。这些报告通常以自由格式文本而不是结构化格式编写。所以,为了从这些非结构化报告中自动提取结果,我们设计了一个基于规则的自然语言
「深度学习的波浪在计算语言学的海岸线上往复经年,而今已如海啸一般向所有的自然语言处理会议发起冲击」。两年前,在北京,Christopher Manning 如是展开了 ACL 2015 的结语。从树形 RNN 到基于神经网络的依存句法分析,Manning
今年9月份,深度学习Indaba2018峰会在南非斯泰伦博斯举办,包括谷歌大脑Jeff Dean在内的一众研究者都到场进行了分享。一位来自Insight数据分析研究中心的博士生Sebastian Ruder在准备自己的分享期间,就四个问题咨询了包括Yosh
谷歌近日开源了一个强大的NLP深度学习框架Lingvo,侧重于语言相关任务的序列模型,如机器翻译、语音识别和语音合成。过去两年来,谷歌已经发表了几十篇使用Lingvo获得SOTA结果的论文。近日,谷歌开源了一个内部 NLP 的秘密武器 ——Lingvo。包
0 关注 0 粉丝 0 动态
Copyright © 2013 - 2019 Ancii.com
京ICP备18063983号-5 京公网安备11010802014868号