CN110196978A 一种关注关联词的实体关系抽取方法 (重庆大学)_第1页
CN110196978A 一种关注关联词的实体关系抽取方法 (重庆大学)_第2页
CN110196978A 一种关注关联词的实体关系抽取方法 (重庆大学)_第3页
CN110196978A 一种关注关联词的实体关系抽取方法 (重庆大学)_第4页
CN110196978A 一种关注关联词的实体关系抽取方法 (重庆大学)_第5页
已阅读5页,还剩18页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

本发明公开了一种关注关联词的实体关系抽取方法,所述关注关联词的实体关系抽取方骤2输出的二元词组特征与步骤3输出的语义特2S4:将步骤2输出的二元词组特征与步骤3输出的语4.根据权利要求3所述的关注关联词的实体关系抽取方法,其S221:定义词级注意力矩阵的维度,计算已标签文本的S222:通过训练完成的词级注意力矩阵计算待测文本的二权重向量的具体计算方法如式(1)和式(2)所示,文本的最终句子表示计算方法如式其中,r是本发明需要进行分类的关系标签在词级机器学习网络中的嵌入向量3第i个句子的向量表示为zi,其中z1=h,8y其中,A为句子级别注意力的对角矩阵,d为本发明需4[0002]实体关系抽取是信息抽取领域的热点问题,其主要任务是在具备的关系类型进行预测。半监督的学习方法主要采用Bootstrapping进行关系抽取和充[0004]例如申请公布号为CN106202044A的发明专利申请公开了一种基于深度神经网络5动通过梯度下降的方式学习调节词级注意力矩阵的参数,得到训练完成的词级注意力矩[0029]其中,r是本发明需要进行分类的关系标签在词级机器学习网络中的嵌入向量6[0033]第i个句子的向量表示为zi,其中然后再利用句子级别的注意力表示;W表示维度转换网络层内所有关系标签的embedding矩阵,b表示预训练的偏置矩阵[0042]图1为本发明示例性实施例1的一种关注关联词的实体关系抽取方法的算法流程[0043]图2为本发明示例性实施例1的一种关注关联词的实体关系抽取方法的算法详细7[0054]文本分词后需利用自然语言处理工具将文本中的词语映射为词向量。可采取one词转化为词向量。word2vec是google在2013年推出的一个NLP(NaturalLanguage8实体对的相对位置的表示向量。最后将句子中的每个词语都映射为一个维度为2×dp的相为特征矩阵的第i个维度。本实施例实值向量的组合方式为两个词语映射后的实值向量相9[0078]其中,r是本发明需要进行分类的关系标签在词级机器学习网络中的嵌入向量[0081]重置门决定先前的信息如何结合当前的输入,更新门决定保留多少先前的一个前向的门控循环单元(ForwardGRU)网络层和一个后向的门控循环单元(Backward义特征的获取方式与现有的实体提取中的语义获取方式类似,本发明的创新点不在此处,文本与第k个关系标签相关的关系概率值,or表示所有关系概率值里面数值最大的关系概概率,得到最大的那个概率值及该概率值对应的关系标签作为最终关系分类的输出结果。本实施例中的句子级别注意力的对角矩阵A,所有关系标签的embedding矩阵W以及预训练的bias矩阵均为通过已标签的文本训练更新参数后的矩阵,训练过程与步骤S22词级注意

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论