【《注意力算法原理基础综述》1400字(论文)】_第1页
【《注意力算法原理基础综述》1400字(论文)】_第2页
【《注意力算法原理基础综述》1400字(论文)】_第3页
免费预览已结束,剩余1页可下载查看

付费下载

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

注意力算法原理基础综述目录TOC\o"1-3"\h\u15586注意力算法原理基础综述 116491.1注意力算法的目的 1193411.2注意力算法的结构 193621.3注意力权重的计算 3141831.4注意力算法的其他表示形式 3注意力算法是由Bahdanau等人在《NeuralMachineTranslationbyJointlyLearningtoAlignandTranslate》中首次提出,本章以编码器-解码器模型下(编码器、解码器均选用递归神经网络)的注意力算法为例对其原理进行详细介绍。如图2-2所示,在传统的RNN模型中,输入序列为,其中是输入序列的长度,并将其编码为固定长度的向量。解码器将单个固定长度向量作为其输入,并逐个生成输出序列,其中是输出序列的长度,和分别表示位置的编码器隐藏层状态和位置解码器的隐藏层状态。图2-2传统的RNN模型1.1注意力算法的目的注意力算法通过允许解码器访问整个编码的输入序列来解决上述问题。注意力算法的目的是在计算解码器隐藏层状态和输出序列时,模型不再仅仅考虑编码器所传递的一个固定长度的语义向量,而是对不同位置的解码器隐藏层状态和输出序列引入不同的注意力分布得到不同的语义向量,以实现有选择性地关注输入序列的机制并且保留更多的输入序列信息。1.2注意力算法的结构注意力算法的结构如图2-3所示,该模型的注意力模块会可以自动捕获编码器隐藏状态和解码器隐藏状态之间的相关性,并在此基础上计算注意力权重。图2-3注意力算法的结构这些注意力权重用于构建语义向量,并将该向量作为输入传递给解码器。在每个解码位置,语义向量是编码器所有隐藏状态及其相应注意力权重的加权平均,即:通过编码器所有隐藏状态及其相应注意力权重进行加权平均得到语义向量,这便是注意力算法的核心思想。基于此,解码器便能够访问整个输入序列,也可以专注于输入序列中的某些特定位置。这不仅可以提高模型处理任务的性能,还可以提高模型的输出质量。表2-1用数学公式分别表示了编码器-解码器体系框架下的传统模型和加入注意力算法后的模型。其中,它们的区别主要在于语义向量的形成部分。在传统模型中,语义向量仅通过编码器的最后一个隐藏状态获得,但在加入注意力后,每个位置上的语义向量是编码器的所有隐藏层状态及其相应注意力权重的加权平均。在表2-1中,表示非线性函数,表示对齐函数,表示注意力分布函数。表2-1加入注意力算法前后编码器-解码器模型比对未加入注意力加入注意力编码器语义向量解码器生成器1.3注意力权重的计算注意力权重的计算是通过在注意力算法中加入一个全连接层来实现的。该全连接层通过获取编码器隐藏状态和解码器隐藏状态来学习特定的注意力权重。在全连接层获取编码器隐藏状态和解码器隐藏状态后,利用对齐函数来计算编码器隐藏状态和解码器隐藏状态的相关程度,函数也被称为对齐函数。然后将对齐函数值输入至注意力分布函数中,该函数将对齐函数值进行归一化处理转换为注意力权重,分布函数通常是softmax函数。同时,我们可以发现构成了模型的离散型注意力分布(或概率分布)。1.4注意力算法的其他表示形式注意力算法还有一种采用矩阵形式的通用表示方式,它可以看作是键值对通过查询序列到注意力分布的映射,其中键序列是编码器隐藏状态,值序列也是编码器隐藏状态,查询序列是解码器隐藏状态。注意力分布强调了在给定查询序列时,与任务最相关的键。除计算对象采用矩阵的形式外,其计算过程与1.2节中的的注意力算法无异:之后,该算法通过注意力权重及其相应值序列进行计算得到注意力函数值,即1.2节中所描述的语义序列:虽然Bahdanau等人提出的注意力算法中没有区分键序列和值序列,即,但一些最新研究成果采用此

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论