CN112132231B 对象的识别方法和装置、存储介质及电子设备 (腾讯科技(深圳)有限公司)_第1页
CN112132231B 对象的识别方法和装置、存储介质及电子设备 (腾讯科技(深圳)有限公司)_第2页
CN112132231B 对象的识别方法和装置、存储介质及电子设备 (腾讯科技(深圳)有限公司)_第3页
CN112132231B 对象的识别方法和装置、存储介质及电子设备 (腾讯科技(深圳)有限公司)_第4页
CN112132231B 对象的识别方法和装置、存储介质及电子设备 (腾讯科技(深圳)有限公司)_第5页
已阅读5页,还剩39页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

备经网络是基于初始分类神经网络和初始识别神的第一输出结果与识别神经网络的第二输出结个目标对象对应的分类标签及各个目标对象在2在目标识别神经网络中提取所述目标图像中每个所述目标对象各自对应的注意力图,第一注意力图与第二输出结果中的第二注意力图之间的损失函数的输出值在第一预设范在目标识别神经网络中,基于所述注意力图识别出各个所述目在确定所述第一注意力图中单标签对象对应的注意力图与所述第二注意力图中所述获取所述第一样本图像集中的N组第一样本图像子集,其中,每组所述第一样本图像子集中的每张图像中包括一个单标签对象和多个所述无标签对象,N为大于或等于1的整使用所述N组第一样本图像子集对所述初始分类神经网络中的N个分类子网络分别每组所述对象注意力图中包括所述一个单标签对象对应的对象注将第i组所述第一样本图像子集输入第i个所述分类子网络,得到第i组所述对象注意3使用所述第二样本图像集对所述初始识别神经网络进行j轮训练,得到第j轮注意力在确定所述第j轮注意力图中的M个单标签对象对应的注意力图与所述N组对象注意力图中包含的M个单标签对象对应的注意力图之间的损失函数的输出值在所述第一预设范围使用所述N组第一样本图像子集对所述初始识别神经网络进行训练,得到N组初始对8.根据权利要求2所述的方法,所述利用所述第二样本图像集训练所述初始识别神经使用所述第二样本图像集对所述初始识别神经网络进行训计算所述第二样本图像集对应的初始注意力图与所述第二样本图像集对应的初始注所述目标识别神经网络输出的标签对象的预估分类标签与所述标签对象的已知分类已知分类标签之间的损失函数的输出值在第二预设所述目标识别神经网络输出的标签对象在样本图像中的预估位置与所述标签对象在估位置与所述已知位置之间的损失函数的输出值在第三预设其中,所述标签对象包括所述单标签对象和所述多标签获取模块,用于获取目标图像,其中,所述目标图像中包括待识提取模块,用于在目标识别神经网络中提取所述目标图像中每个所述目4一输出结果中的第一注意力图与第二输出结果中的第二注意力图之间的损失函数的输出识别模块,用于在目标识别神经网络中,基于所述注意力图识对应的分类标签及各个所述目标对象在所述目标图所述程序运行时执行所述权利要求1至9任一项中序,所述处理器被设置为通过所述计算机程序执行所述权利要求1至9任一项中所述的方5签是关联在一起的。神经网络模型的训练过程中没有重视分类器在特征层的注意力分布。解决由于现有技术中神经网络模型的训练过程中没有重视分类器在特征层的注意力分布,导致神经网络模型对多标签分类的结果准确率较低于初始分类神经网络和初始识别神经网络进行训练时,直至达到第一收敛条件所得到的,上述第一收敛条件指示训练中的分类神经网络的第一输出结果与识别神经网络的第二输6象对应的分类标签及各个上述目标对象在上述目述单标签对象对应的注意力图之间的损失函数的输出值在上述第一预设范围内的情况下,像子集对上述初始分类神经网络中的N个分类子网络分别进行训练,得到N组对象注意力[0010]可选地,上述装置还用于通过如下方式实现使用上述N组第一样本图像子集对上在确定上述第j轮注意力图中的M个单标签对象对应的注意力图与上述N组对象注意力图中包含的M个单标签对象对应的注意力图之间的损失函数的输出值在上述第一预设范围内情7[0013]可选地,上述装置还用于通过如下方式实现上述对上述N组初始对象注意力图进图像集对上述初始识别神经网络进行训练,得到上述第二样本图像集对应的初始注意力述目标识别神经网络输出的标签对象在样本图像中的预估位置与上述标签对象在样本图8[0026]图7是根据本发明实施例的一种可选的对初始分类神经网络CNN0进行训练的示意[0027]图8是根据本发明实施例的一种可选的对初始分类神经网络CNN1进行训练的示意[0028]图9是根据本发明实施例的一种可选的对初始识别神经网络CNN2进行训练的示意员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范9引擎116可以用于对初始分类神经网络和初始识别神经网络进行训练,得到目标识别神经网络的第一输出结果与识别神经网络的第二输出结果之间的损失函数的输出值在第一预各个上述目标对象对应的分类标签及各个上述目标对象在上述目标图经网络的第一输出结果与识别神经网络的第二输出结果之间的损失函数的输出值在第一对应的分类标签及各个上述目标对象在上述目标图[0045]作为一个可选的实施方式,上述初始识别神经网络也可以是卷积神经网络,如过初始分类神经网络CNN0和CNN1分别学习到的鼠标的注意力分布和键盘学习到的鼠标的以通过使得CNN0输出的鼠标的特征图与CNN2输出的鼠标的特征图之间满足第一收敛条件,述单标签对象对应的注意力图之间的损失函数的输出值在上述第一预设范围内的情况下,第一注意力图包括上述CNN0输出的鼠标的注意力图和CNN1输出的键盘的注包括上述N组对象注意力图,每组上述对象注意力图中包括上述一个单标签对象对应的对[0053]作为一个可选的实施方式,上述N组第一样本图子集中的每组第一样本图子集中[0055]作为一个可选的实施方式,上述第i组第一样本图像子集可以是包括单标签对象类子网络为CNN0为例进行说明,如图3是根据本发明实施例的一种可选的分类子网络模型类子网络为CNN1为例进行说明,如图4是根据本发明实施例的一种可选的分类子网络模型个单标签对象对应的注意力图与上述N组对象注意力图中包含的M个单标签对象对应的注别神经网络输出的单标签对象与初始分类神经网络进行训练时得到的N组对象注意力图中模型可以对包含键盘的图像进行识别。型输出的键盘的注意力图与CNN0输出的键盘的注意力图满足第一收敛条件,且第j轮CNN2[0073]作为一个优选的实施方式,使用N组第一样本图像子集对初始识别神经网络进行[0075]作为一个可选的实施方式,以初始对象注意力图为鼠标注意力图M0为例进行说[0094]作为一个可选的实施方式,如图5是根据本发明实施例的一种可选的目标识别神收敛条件用于表示上述预估分类标签与上述已知分类标签之间的损失函数的输出值在第结果与已知分类结果之间的损失函数Lclf1输出的误差值在第二预设范围内的情况下,确置,可以通过标签对象在目标图像中的预估位置与已知位置之间的损失函数Lclf2输出的[0103]使用样本图像集1对初始分类神经网络CNN0进行训练,在训练的过程中可以得到行人注意力图M0,图7是根据本发明实施例的一种可选的对初始分类神经网络CNN0进行训到车辆注意力图M1如图8是根据本发明实施例的一种可选的对初始分类神经网络CNN1进行述单标签对象对应的注意力图之间的损失函数的输出值在上述第一预设范围内的情况下,像子集对上述初始分类神经网络中的N个分类子网络分别进行训练,得到N组对象注意力[0110]可选地,上述装置还用于通过如下方式实现使用上述N组第一样本图像子集对上在确定上述第j轮注意力图中的M个单标签对象对应的注意力图与上述N组对象注意力图中包含的M个单标签对象对应的注意力图之间的损失函数的输出值在所述第一预设范围内情[0113]可选地,上述装置还用于通过如下方式实现上述对上述N组初始对象注意力图进图像集对上述初始识别神经网络进行训练,得到上述第二样本图像集对应的初始注意力述目标识别神经网络输出的标签对象在样本图像中的预估位置与上述标签对象在样本图的第一输出结果与识别神经网络的第二输出结果之间的损失函数的输出值在第一预设范别方法和装置对应的程序指令/模块,处理器1104通过运行存储在存储器1102内的软件程可与互联网或局域网进行通讯。在一个实例中,传输装置1106为射频(RadioFrequency,[0126]在其他实施例中,上述终端设备或者服务器可以是一个分布式系统中的一个节的第一输出结果与识别神经网络的第二输出结果之间的损失函数的输出值在第一预设范[0134]上述实施例中的集成的单元如果以软件功能单元的形式实现并作为独立的产品

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论