CN114492581B 基于迁移学习和注意力机制元学习应用在小样本图片分类的方法 (中国矿业大学)_第1页
CN114492581B 基于迁移学习和注意力机制元学习应用在小样本图片分类的方法 (中国矿业大学)_第2页
CN114492581B 基于迁移学习和注意力机制元学习应用在小样本图片分类的方法 (中国矿业大学)_第3页
CN114492581B 基于迁移学习和注意力机制元学习应用在小样本图片分类的方法 (中国矿业大学)_第4页
CN114492581B 基于迁移学习和注意力机制元学习应用在小样本图片分类的方法 (中国矿业大学)_第5页
已阅读5页,还剩23页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

.2024,I138-1027.基于迁移学习和注意力机制元学习应用在本发明公开了一种基于迁移学习和注意力2(2)迁移学习和注意力机制元学习网络框架的搭建:包括固定的特征提取器和由于预数来减小同一任务之间的特征分布,最后用softmax计算样本所属概率最大的类别即为图2.根据权利要求1所述一种基于迁移学习和注意力机制元学习应用于少样本图片分类3第二类的标签表示为[0,1,0,...,0]1xN,…,第N类图片的标签表示为[0,0,0,...,1]1xN。3.根据权利要求1所述一种基于迁移学习和注意力机制元学习应用于少样本图片分类特征提取器的训练:用训练数据集对DenseNet网络进行预训练,获量,展平后接一层全连接层,固定全连接层的神经元个数为600,最后一层是输出层,用4.根据权利要求1所述一种基于迁移学习和注意力机制元学习应用于少样本图片分类5.根据权利要求1所述一种基于迁移学习和注意力机制元学习应用于少样本图片分类的方法,其特征在于,所述步骤(3.5)中引入的两个新的参数:缩放和平移,记为和46.根据权利要求5所述一种基于迁移学习和注意力机制元学习应用于少样本图片分类对于给定的任务T,利用任务T中训练数据的损失通过梯度下降优化当前的基础学习7.根据权利要求6所述一种基于迁移学习和注意力机制元学习应用于少样本图片分类DS)M+(0+DX,)7)5等方面得出的结果都可以超过人类,但它们通常需要很多的数据才能达到比较高的准确6[0009](2)迁移学习和注意力机制元学习网络框架的搭建:包括固定的特征提取器和由失函数来减小同一任务之间的特征分布,最后用softmax计算样本所属概率最大的类别即78[0034]首先随机初始化一个特征提取器Θ和辅助分类器θ,然后通过梯度下降对其进行[0039]进一步的,所述步骤(3.5)中引入的两个新的参数:缩放和平移,记为DS和[0048]在此步更新中,更新θ9将使用式(5)中相同的学习率p,此时公式(6)中的θ9是公9[0054]本发明用元学习的方法来处理小样本分类的问题,小样[0059]本发明的一种基于基于迁移学习和注意力机制元学习来解决小样本图片分类方[0065](2)迁移学习和注意力机制元学习网络框架的搭建:包括固定的特征提取器和由失函数来减小同一任务之间的特征分布,最后用softmax计算样本所属概率最大的类别即[0076]首先随机初始化一个特征提取器Θ和辅助分类器θ,然后通过梯度下降对其进行L,(co;0)(2)softmax计算样本所属概率最大的类别即为图片元学习阶段的预测类别。在一个新的少样本的场景中对样本图片进行分类;对应于只在当前任务中工作的分类器,[0095]在此步更新中,更新θ9将使用[0096]所述元学习网络参数DSS将依托于步骤(3.4)中与训练阶段固定的W,b进行更很容易地在Omniglot上生成的大多数测试任务上达到95%以上的准确率,所以我们只在[0106]miniimagenet由Vinyalset提出,用于少样本学习评估。由于使用了ImageNet图[0107]Fewshot_CIFAR100(FC100)是基于目前流行的对象分类数据集CIFAR100。它提供[0108]所有训练数据点训练一个大规模的深度神经网络模

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

最新文档

评论

0/150

提交评论