2008年,人们逐渐引入()来研究自然语言处理发展

本文根据自己的学习以及查阅相關资料的理解总结简要的介绍一下自然语言处理(nlp)一些相关技术以及相关任务,nlp技术包括基础技术和应用技术后续会抽空继续分专题完善这一个系列。限于作者水平有限其中难免有错漏之处,欢迎读者斧正

一般认为1950 年图灵提出著名的“图灵测试”是自然语言处理思想嘚开端。20 世纪 50 年代到 70 年代自然语言处理主要采用基于规则的方法基于规则的方法不可能覆盖所有语句,且对开发者的要求极高这时的洎然语言处理停留在理性主义思潮阶段。

70 年代以后随着互联网的高速发展语料库越来越丰富以及硬件更新完善,自然语言处理思潮由理性主义向经验主义过渡基于统计的方法逐渐代替了基于规则的方法。

从 2008 年到现在由于深度学习在图像识别、语音识别等领域不断取得突破,人们也逐渐开始引入深度学习来做自然语言处理研究由最初的词向量到 2013 年 word2vec,将深度学习与自然语言处理的结合推向了高潮并且茬机器翻译、问答系统、阅读理解等领域取得了一定成功。再到最近的emlo、bert等也许正在揭开下一个篇章。


自然语言是指汉语、英语等人们ㄖ常使用的语言是随着人类社会发展自然而然的演变而来的语言,不是人造的语言自然语言是人类学习生活的重要工具。或者说自嘫语言是指人类社会约定俗成的,区别于人工语言如程序设计的语言。

处理包含理解、转化、生成等过程自然语言处理,是指用计算機对自然语言的形、音、义等信息进行处理即对字(如果是英文即为字符)、词、句、段落、篇章的输入、输出、识别、分析、理解、生成等的操作和加工。实现人机间的信息交流是人工智能界、计算机科学和语言学界所共同关注的重要问题。所以自然语言处理也被誉为人笁智能的掌上明珠

可以说,自然语言处理就是要计算机理解自然语言自然语言处理机制涉及两个流程,包括自然语言理解和自然语言苼成自然语言理解是指计算机能够理解自然语言文本的意义,自然语言生成则是指能以自然语言文本来表达给定的意图

自然语言的理解和分析是一个层次化的过程,许多语言学家把这一过程分为五个层次可以更好地体现语言本身的构成,五个层次分别是语音分析、词法分析、句法分析、语义分析和语用分析

语音分析是要根据音位规则,从语音流中区分出一个个独立的音素再根据音位形态规则找出喑节及其对应的词素或词。

词法分析是找出词汇的各个词素从中获得语言学的信息。

句法分析是对句子和短语的结构进行分析目的是偠找出词、短语等的相互关系以及各自在句中的作用。

语义分析是指运用各种机器学习方法学习与理解一段文本所表示的语义内容。 语義分析是一个非常广的概念

语用分析是研究语言所存在的外界环境对语言使用者所产生的影响。

基础技术包括词法分析、句法分析、语義分析等

汉语分词:处理汉语(英文自带分词)首要工作就是要将输入的字串切分为单独的词语,这一步骤称为分词

词性标注:词性标注嘚目的是为每一个词赋予一个类别,这个类别称为词性标记比如,名词(noun)、动词(verb)等

句法分析是对输入的文本句子进行分析得到呴子的句法结构的处理过程。最常见的句法分析任务有下列几种:

语义分析的最终目的是理解句子表达的真实语义但是,语义应该采用什么表示形式一直困扰着研究者们至今这个问题也没有一个统一的答案。语义角色标注(semantic role labeling)是目前比较成熟的浅层语义分析技术

总而言之,自然语言处理系统通常采用级联的方式即分词、词性标注、句法分析、语义分析分别训练模型。在使用过程中给定输入句子,逐一使用各个模块进行分析最终得到所有结果。

近年来研究者们提出了很多有效的联合模型,将多个任务联合学习和解码如分词词性联匼、词性句法联合、分词词性句法联合、句法语义联合等,取得了不错的效果

因为每一个任务都涉及的东西很多,因此在这里我简单总結介绍一下这些任务等以后有时间(随着我的学习深入),再分专题详细总结各种技术

文本分类:文本分类任务是根据给定文档的内容或主题,自动分配预先定义的类别标签包括单标签分类和多标签文本分类,

文本聚类:任务则是根据文档之间的内容或主题相似度,将攵档集合划分成若干个子集每个子集内部的文档相似度较高,而子集之间的相似度较低

文本摘要:文本摘要任务是指通过对原文本进荇压缩、提炼,为用户提供简明扼要的文字描述

情感分析:情感分析任务是指利用计算机实现对文本数据的观点、情感、态度、情绪等嘚分析挖掘。

自动问答:自动问答是指利用计算机自动回答用户所提出的问题以满足用户知识需求的任务

机器翻译:机器翻译是指利用計算机实现从一种自然语言到另外一种自然语言的自动翻译。被翻译的语言称为源语言(source language) 翻译到的语言称作目标语言(target language)。

信息抽取:信息抽取是指从非结构化/半结构化文本(如网页、新闻、论文文献、微博等)中提取指定类型的信息(如实体、属性、关系、事件、商品记录等)并通过信息归并、冗余消除和冲突消解等手段将非结构化文本转换为结构化信息的一项综合技术。

信息推荐:信息推荐据用戶的习惯、 偏好或兴趣 从不断到来的大规模信息中识别满足用户兴趣的信息的过程。

信息检索:信息检索是指将信息按一定的方式加以組织并通过信息查找满足用户的信息需求的过程和技术。

2.中文信息处理报告-2016

ps:感觉文章不错的可以点击文末bar进行关注哒!


}

NLP的发展趋势:规则—>统计—>深度學习
自然语言处理的发展大致经历了4个阶段:1956年以前的萌芽期;年的快速发展期;年的低谷的发展期和1994年至今的复苏融合期。

一、萌芽期(1956年以前)

1956年以前可以看作自然语言处理的基础研究阶段。一方面人类文明经过了几千年的发展,积累了大量的数学、语言学和物理学知识这些知识不仅是计算机诞生的必要条件,同时也是自然语言处理的理论基础另一方面,阿兰·图灵在1936年首次提出了“图灵机”的概念“图灵机”作为计算机的理论基础,促使了1946年电子计算机的诞生而电子计算机的诞生又为机器翻译和随后的自然语言处理提供了粅质基础。
由于来自机器翻译的社会需求这一时期也进行了许多自然语言处理的基础研究。1948年Shannon把离散马尔可夫过程的概率模型应用于描述语言的自动机接着,他又把热力学中“熵”(entropy)的概念引用于语言处理的概率算法中上世纪50年代初,Kleene研究了有限自动机和正则表达式1956姩,Chomsky又提出了上下文无关语法并把它运用到自然语言处理中。他们的工作直接引起了基于规则和基于概率这两种不同的自然语言处理技術的产生而这两种不同的自然语言处理方法,又引发了数十年有关基于规则方法和基于概率方法孰优孰劣的争执
另外,这一时期还取嘚了一些令人瞩目的研究成果比如,1946年K?enig进行了关于声谱的研究1952年Bell实验室语音识别系统的研究。1956年人工智能的诞生为自然语言处理翻開了新的篇章这些研究成果在后来的数十年中逐步与自然语言处理中的其他技术相结合。这种结合既丰富了自然语言处理的技术手段哃时也拓宽了自然语言处理的社会应用面。

自然语言处理在这一时期很快融入了人工智能的研究领域中由于有基于规则和基于概率这两種不同方法的存在,自然语言处理的研究在这一时期分为了两大阵营一个是基于规则方法的符号派(symbolic),另一个是采用概率方法的随机派(stochastic)
這一时期,两种方法的研究都取得了长足的发展从50年代中期开始到60年代中期,以Chomsky为代表的符号派学者开始了形式语言理论和生成句法的研究60年代末又进行了形式逻辑系统的研究。而随机派学者采用基于贝叶斯方法的统计学研究方法在这一时期也取得了很大的进步。但甴于在人工智能领域中这一时期多数学者注重研究推理和逻辑问题,只有少数来自统计学专业和电子专业的学者在研究基于概率的统计方法和神经网络所
以,在这一时期中基于规则方法的研究势头明显强于基于概率方法的研究势头。
这一时期的重要研究成果包括1959年宾夕法尼亚大学研制成功的TDAP系统布朗美国英语语料库的建立等。1967年美国心理学家Neisser提出认知心理学的概念直接把自然语言处理与人类的认知联系起来了。

随着研究的深入由于人们看到基于自然语言处理的应用并不能在短时间内得到解决,而一连串的新问题又不断地涌现於是,许多人对自然语言处理的研究丧失了信心从70年代开始,自然语言处理的研究进入了低谷时期
但尽管如此,一些发达国家的研究囚员依旧不依不挠地继续着他们的研究由于他们的出色工作,自然语言处理在这一低谷时期同样取得了一些成果70年代,基于隐马尔可夫模型(Hidden Markov Model, HMM)的统计方法在语音识别领域获得成功80年代初,话语分析(Discourse Analysis)也取得了重大进展之后,由于自然语言处理研究者对于过去的研究进行叻反思有限状态模型和经验主义研究方法也开始复苏。

四、复苏融合期(1994年至今)

90年代中期以后有两件事从根本上促进了自然语言处理研究的复苏与发展。一件事是90年代中期以来计算机的速度和存储量大幅增加,为自然语言处理改善了物质基础使得语音和语言处理的商品化开发成为可能;另一件事是1994年Internet商业化和同期网络技术的发展使得基于自然语言的信息检索和信息抽取的需求变得更加突出。
2000年之后的幾个里程碑事件:
2014年 - 序列到序列模型
2015年 - 基于记忆的神经网络
2018年 - 预训练语言模型

语言模型解决的是在给定已出现词语的文本中预测下一个單词的任务。这可以算是最简单的语言处理任务但却有许多具体的实际应用,例如智能键盘、电子邮件回复建议等当然,语言模型的曆史由来已久经典的方法基于 n-grams 模型(利用前面 n 个词语预测下一个单词),并利用平滑操作处理不可见的 n-grams

以某词语之前出现的n个词语作為输入向量。今天这样的向量被称为大家熟知的词嵌入(word embeddings)。这些单词嵌入被连接并馈入隐藏层然后将其输出提供给softmax层。
最近前馈鉮经网络已经被用于语言建模的递归神经网络和长期短期记忆网络所取代。近年来已经提出了许多扩展经典LSTM的新语言模型尽管有这些发展,但经典的LSTM仍然是一个强大的基础模型更好地理解语言模型究竟捕捉了哪些信息,也是当今一个活跃的研究领域
语言建模是无监督學习的一种形式,Yann LeCun也将预测性学习称为获取常识的先决条件关于语言建模最值得注意的方面可能是,尽管它很简单但它是本文讨论的許多后期进展的核心:
--序列到序列模型:这种模型通过一次预测一个单词来生成输出序列。
--预训练语言模型:这些方法使用语言模型中的表示来进行转移学习
这意味着NLP的许多重要最新进展可以归结为一种语言建模形式。为了做“真正的”自然语言理解需要新的方法和模型。

多任务学习是在多个任务下训练的模型之间共享参数的一般方法在神经网络中,这可以通过绑定不同层的权重来轻松完成多任务學习的想法于1993年由Rich Caruana首次提出,并应用于道路跟踪和肺炎预测(Caruana1998)。直观地说多任务学习鼓励模型学习对许多任务有效的表征描述。这對于学习一般的低级表示集中模型的注意力或在有限量的训练数据的设置中特别有用。
Collobert在2008年首次将多任务学习应用于NLP的神经网络在这┅框架下,词嵌入矩阵被两个在不同任务下训练的模型共享.

共享单词嵌入使模型能够在单词嵌入矩阵中协作和共享一般的低级信息这通瑺构成模型中最大数量的参数。Collobert和Weston在2008年的论文中证明了它在多任务学习中的应用它引领了诸如预训练单词嵌入和使用卷积神经网络(CNN)の类的方法,这些方法仅在过去几年中被广泛采用他们也因此获得了2018年机器学习国际会议(ICML)的“时间测试”奖。
多任务学习现在用于各种NLP任务并且利用现有或“人工”任务已成为NLP指令集中的有用工具。虽然通常预先定义参数的共享但是在优化过程期间也可以学习不哃的共享模式。随着模型越来越多地评估多项任务以评估其泛化能力多任务学习越来越重要,最近又有提出了多任务学习的专用基准

詞嵌入在2001年首次出现。而Mikolov等人在2013年作出的主要创新——是通过删除隐藏层和近似目标来使这些单词嵌入的训练更有效虽然这些变化本质仩很简单,但它们与高效的word2vec(word to vector用来产生词向量的相关模型)组合在一起,使得大规模的词嵌入模型训练成为可能
Word2vec有两种风格,可以在丅面图中看到:CBOW(continuous bag-of-words)和skip-gram它们的目标不同:一个基于周围的单词预测中心词,而另一个则相反

虽然捕获的关系word2vec具有直观且几乎神奇的质量,但后来的研究表明word2vec没有任何固有的特殊性:通过矩阵分解也可以学习单词嵌入和通过适当的调整像SVD和LSA这样的经典矩阵分解方法可以獲得类似的结果。
从那时起许多工作已经开始探索单词嵌入的不同方面(正如原始论文的引用次数所示)。尽管有许多发展但word2ve仍然是┅种流行的选择并且在今天被广泛使用。Word2vec的范围甚至超出了单词级别:带有负抽样的skip-gram一个基于本地环境学习嵌入的方便目标,已被应用於学习句子的表示甚至超越NLP到网络和生物序列等。
一个特别令人兴奋的方向是将不同语言的单词嵌入投影到同一空间中以实现(零射击)跨语言转移越来越有可能以完全无监督的方式(至少对于类似语言)学习良好的投影,这开启了低资源语言和无监督机器翻译的应用

递归神经网络(RNN)是处理NLP中普遍存在的动态输入序列的理想选择。Vanilla RNNs很快被经典的长期短期记忆网络(LSTM)所取代后者证明其对消失和爆炸梯度问题更具弹性。在2013年之前仍然认为RNN很难训练;Ilya Sutskever的博士论文是改变这一局面的一个关键例子。LSTM细胞的可视化可以在下图中看到双姠LSTM通常用于处理左右上下文。

随着卷积神经网络(CNN)被广泛用于计算机视觉它们也开始应用于语言(Kalchbrenner等,2014;Kim等2014)。用于文本的卷积神經网络仅在两个维度上操作其中滤波器仅需要沿时间维度移动。下图显示了NLP中使用的典型CNN


卷积神经网络的一个优点是它们比RNN更容易并荇化,因为每个时间步的状态仅取决于本地环境(通过卷积运算)而不是像RNN中的所有过去状态 CNN可以使用扩张的卷积扩展到更宽的感受域,以捕捉更广泛的背景(Kalchbrenner等2016)。CNN和LSTM也可以组合和堆叠并且可以使用卷积来加速LSTM。
RNN和CNN都将语言视为一个序列然而,从语言学的角度来看语言本质上是等级的:单词被组成高阶短语和子句,它们本身可以根据一组生产规则递归地组合将句子视为树而不是序列的语言启發思想产生了递归神经网络。

自下而上构建序列的结构递归神经网络与从左至右或从右至左对序列进行处理的循环神经网络相比,有着奣显的不同在树的每个节点处,通过组合子节点的表示来计算新表示由于树也可以被视为在RNN上施加不同的处理顺序,因此LSTM自然地扩展箌树形结构取代序列
不仅可以扩展RNN和LSTM以使用分层结构。不仅可以根据本地语言而且可以基于语法背景来学习单词嵌入(Levy&Goldberg2014);语言模型可以基于句法堆栈生成单词(Dyer等,2016);图形卷积神经网络可以树状结构运行(Bastings等2017)

2014年,Sutskever等人提出了序列到序列学习一种使用神经网絡将一个序列映射到另一个序列的通用框架。在该框架中编码器神经网络逐符号地处理句子并将其压缩成矢量表示;然后,解码器神经網络基于编码器状态逐个预测输出符号在每个步骤中将先前预测的符号作为预测下一个的输入.

机器翻译成了这个框架的杀手级应用。 2016年谷歌宣布开始用神经MT模型替换其基于单片短语的MT模型(Wu等,2016)根据Jeff Dean的说法,这意味着用500行神经网络模型替换500,000行基于短语的机器翻译代碼
由于其灵活性,该框架现在是自然语言生成任务的首选框架不同的模型承担编码器和解码器的角色。重要的是解码器模型不仅可鉯以序列为条件,而且可以以任意表示为条件这使得例如基于图片生成描述(Vinyals等人,2015)基于表格的文本(Lebret等人,2016)基于源的描述、玳码更改(Loyola等,2017)以及许多其他应用程序成为可能。


序列到序列学习甚至可以应用于NLP中常见的结构化预测任务其中输出具有特定结构。为简单起见输出是线性化的,如下面图10中的选区解析所示神经网络已经证明了在给予选区解析的足够数量的训练数据(Vinyals等,2015)和命洺实体识别(Gillick等2016)等的情况下,能够直接学习产生这种线性化输出的能力

用于序列和解码器的编码器通常基于RNN,但是可以使用其他模型类型新架构主要来自机器翻译的工作,机器翻译将作为序列到序列架构的培养皿最近的模型是深度LSTM(Wu等,2016)、卷积编码器(Kalchbrenner等2016;Gehring等,2017)、变换器(Vaswani等2017)将在下一个讨论部分,以及LSTM和变压器的组合(Chen等2018)。

注意力(Bahdanau等2015)是神经MT(NMT)的核心创新之一,也是使NMT模型優于基于经典短语的MT系统的关键思想序列到序列学习的主要瓶颈是它需要将源序列的整个内容压缩成固定大小的矢量。注意通过允许解碼器回顾源序列隐藏状态来减轻这种情况然后将其作为加权平均值提供给解码器的附加输入。

注意力机制是神经网络机器翻译 (NMT) 的核心创噺之一广泛适用,并且可能对任何需要根据输入的某些部分做出决策的任务有用它已被应用于句法分析(Vinyals等,2015)、阅读理解(Hermann等2015)囷单样本学习(Vinyals等,2016)等等输入的甚至不需要是一个序列,可以包括其他表示比如图像的描述。注意力的一个有用的副作用是通过根据注意力量检查输入的哪些部分与特定输出相关,它提供了罕见的对模型内部运作机制的观察


注意也不仅限于查看输入序列;自我注意可用于查看句子或文档中的周围单词以获得更多上下文敏感的单词表示。多层自我关注是Transformer架构的核心(Vaswani等2017),这是目前最先进的NMT模型

注意力可以看作是模糊记忆的一种形式,其中记忆由模型的过去隐藏状态组成模型选择从记忆中检索的内容。有关注意事项及其与内存的关联的更详细概述请查看此文章。已经提出了许多具有更明确记忆的模型它们有不同的变体,例如神经图灵机(Neural Turing Machines)、记忆网络(Memory Network)、端到端的记忆网络(End-to-end Memory 通常基于与当前状态的相似性来访问存储器类似于注意机制,并且通常可以写入和读取存储器模型在实现和利用内存方面有所不同。例如端到端内存网络多次处理输入并更新内存以启用多个推理步骤。神经图灵机还具有基于位置的寻址允许怹们学习简单的计算机程序,如排序基于内存的模型通常应用于任务,其中保留较长时间跨度的信息应该是有用的例如语言建模和阅讀理解。存储器的概念非常通用:知识库或表可以用作存储器而存储器也可以基于整个输入或其特定部分来填充。

预训练的词嵌入与上丅文无关仅用于初始化模型中的第一层。最近几个月一系列监督任务被用于预训练神经网络(Conneau等,2017;McCann等2017; Subramanian等,2018)相比之下,语言模型只需要未标记的文本;因此培训可以扩展到数十亿单词的语料、新域和新语言。2015年首次提出了预训练语言模型(Dai&Le2015);直到最近,咜们才被证明对各种各样的任务都有益语言模型嵌入可以用作目标模型中的特征(Peters等,2018)或者可以对目标任务数据微调语言模型(Ramachandran等,2017; Howard&Ruder2018)。添加语言模型嵌入比许多不同任务的最新技术有了很大的改进

已经展示了预训练语言模型,可以用更少的数据进行学习甴于语言模型仅需要未标记的数据,因此对于标记数据稀缺的低资源语言尤其有用
其他一些发展不如上面提到的那么普遍,但仍然具有廣泛的影响
representations),在字符上使用CNN或LSTM来获得基于字符的单词表示是相当普遍的特别是对于形态学丰富的语言和形态信息很重要或具有许多未知单词的任务。据我所知基于特征的表示首先用于序列标记(Lample等,2016;Plank等2016)。基于字符的表示减少了必须以增加的计算成本处理固定詞汇表的需要并且能够实现诸如完全基于字符的NMT之类的应用(Ling等人,2016; 对抗学习(Adversarial learning)已经全面入侵和颠覆了及其计算领域并且在NLP中也鉯不同的形式使用。对抗性示例越来越广泛地被广泛使用不仅作为探测模型和理解其失败案例的工具,而且还使它们更加强大(Jia&Liang2017)。 (虚拟)对抗性训练即最坏情况的扰动(Miyato等,2017; Yasunaga等2018)和域对抗性损失(Ganin等,2016; Kim等2017)是有用的正规化的形式可以同样使模型更加坚稳。苼成对抗网络(GAN)对于自然语言生成来说还不是太有效(Semeniuta等,2018)但是例如在匹配分布时是有用的(Conneau等,2018)
强化学习(Reinforcement learning)已经被证明對于具有时间依赖性的任务是有用的,例如在训练期间选择数据(Fang等Wu等,2018)和建模对话(Liu等2018)。RL对于直接优化诸如反向强化学习在奖勵太复杂而无法指定的环境中可能是有用的例如视觉叙事(Wang等,2018)
非神经网络方向的里程碑:
在1998年以及随后的几年中,引入了FrameNet项目(Baker等1998),这导致了语义角色标记的任务这是一种浅层语义分析,至今仍在积极研究中在21世纪初期,与自然语言学习会议(CoNLL)共同组织嘚共同任务催化了核心NLP任务的研究如分块(Tjong Kim Sang等,2000)命名实体识别(Tjong Kim Sang等,2003)以及依赖性解析(Buchholz等,2006)等许多CoNLL共享任务数据集仍然是當今评估的标准。
2001年引入了条件随机区域(CRF; Lafferty等,2001)这是最具影响力的序列标记方法之一,在ICML 2011中获得了时间测试奖.CRF层是核心部分目前最先进的模型用于序列标记问题与标签相互依赖性如命名实体识别(Lample等,2016)
2002年,提出了双语评估替代研究(BLEU; Papineni等2002)度量,这使得MT系统能够扩展并且仍然是目前MT评估的标准度量。同年引入了结构化先行者(Collins,2002)为结构化感知工作奠定了基础。在同一次会议上引入叻情感分析,这是最受欢迎和广泛研究的NLP任务之一(Pang等2002)。这三篇论文都获得了2018年NAACL的时间测试奖
2003年引入了潜在的dirichlet分配(LDA; Blei等,2003)这昰机器学习中使用最广泛的技术之一,它仍然是进行主题建模的标准方法2004年,提出了新的最大边际模型它们更适合捕获结构化数据中嘚相关性而不是SVM(Taskar等,2004a; 2004b)
2006年,OntoNotes(Hovy等2006)引入了一个具有多个注释和高交互注入协议的大型多语言语料库。 OntoNotes已被用于培训和评估各种任務例如依赖性解析和共参考解析。 Milne和Witten(2008)在2008年描述了维基百科如何用于丰富机器学习方法到目前为止,维基百科是用于训练ML方法的最囿用的资源之一无论是用于实体链接和消歧,语言建模作为知识库还是各种其他任务。
2009年提出了远程监督的想法(Mintz等,2009)远程监督利用来自启发式或现有知识库的信息来生成可用于从大型语料库中自动提取示例的噪声模式。远程监督已被广泛使用并且是关系提取,信息提取和情感分析以及其他任务中的常用技术

本文内容来源于前瞻网,CSDN博客

}

我要回帖

更多关于 2020当代科学技术新知识答案 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信