CN115222680B 基于深度学习的卵巢癌图像处理方法及系统 (濮阳大数据与人工智能研究院)_第1页
CN115222680B 基于深度学习的卵巢癌图像处理方法及系统 (濮阳大数据与人工智能研究院)_第2页
CN115222680B 基于深度学习的卵巢癌图像处理方法及系统 (濮阳大数据与人工智能研究院)_第3页
CN115222680B 基于深度学习的卵巢癌图像处理方法及系统 (濮阳大数据与人工智能研究院)_第4页
CN115222680B 基于深度学习的卵巢癌图像处理方法及系统 (濮阳大数据与人工智能研究院)_第5页
已阅读5页,还剩26页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

院AU2020103905A4,2021基于深度学习的卵巢癌图像处理方法及系统本发明提供了一种基于深度学习的卵巢癌混合图像分别输入至四个不同的分割神经网络神经网络模型与基于病灶边缘的KiteNet分割网基于最终分割神经网络模型对CT_PET卵巢癌图2将所述第一混合图像分别输入至四个不同的分类根据每一分类神经网络型的分类评价标准精确率确定最优分类神将所述第二混合图像分别输入至四个不同的分割根据每一分割神经网络型的分割评价标准精确率确定最优分割神将所述最优分割神经网络模型与基于病灶边缘的KiteNet分割网络集成,确定最终分基于所述最优分类神经网络模型对CT_PET卵巢癌图像分类评价标准精确率确定最优分类神经网络模型的将所述第一混合图像分别输入至ConvNeXt分类神经网络模型、Swin_TraConvNeXt分类神经网络模型、Swin_Transformer分类神经网络模型、DConvNeXt分类神经网络模型、Swin_Transformer分类神经网络模型、D于ConvNeXt分类神经网络模型、Swin_Transformer分类神经网络选取具有最高分类评价标准精确率的第一初始模型对应的神经网络模型为最优分类3.如权利要求1所述的卵巢癌图像处理方法,其特获取至少2份第二测试卵巢肿瘤图像,并分别提取第二测试卵巢肿瘤图像内的病灶特测试卵巢肿瘤图像另一的对应区域叠加形成所评价标准精确率确定最优分割神经网络模型得将所述第二混合图像分别输入至U_Net_VGG分割神经网络模型、U_Net_Mobil3选取具有最高分割评价标准精确率的初始模型对应的神经网络模型为最优分割神经将所述最优分割神经网络模型与基于病灶边缘的KiteNet分割网络集成,确定最终分并基于最终分割神经网络模型对CT_PET卵巢癌图像作病第一建模单元,将所述第一混合图像分别输入至四个不同的第二建模单元,将所述第二混合图像分别输入至四个不同的处理单元,基于所述最优分类神经网络模型对CT_PET卵巢癌图像分类,并第一建模单元将所述第一混合图像分别输入至ConvNeXt分类神经网络模型、Swin_4ConvNeXt分类神经网络模型、Swin_Transformer分类神经网络模型、DConvNeXt分类神经网络模型、Swin_Transformer分类神经网络模型、D于ConvNeXt分类神经网络模型、Swin_Transformer分类神经网络第一建模单元选取具有最高分类评价标准精确率的第一初始模型对应的神经网络模第二混合单元获取至少2份第二测试卵巢肿瘤图像,并分别提取第二测试卵巢肿瘤图第二混合单元提取第二测试卵巢肿瘤图像之一具有病灶特征域图像与第二测试卵巢肿瘤图像另一的对应区域叠加形成所第二建模单元将所述第二混合图像分别输入至U_Net_VGG分割神经网络模型、U_Net_MobileNetv3分割神经网络模型、U_Net分割神经网络模型、FCN分割神经网络模型、第二建模单元选取具有最高分割评价标准精确率的初始模型对应的神经网络模型为处理单元基于交叉熵和Dice损失函数确定最终损失函数,并将所述最5处理单元对CT_PET卵巢癌图像缩放后作病灶分割,并还原至初始大小6根据每一分类神经网络型的分类评价标准精确率确定最优分类神7根据每一分割神经网络型的分割评价标准精确率确定最优分割神[0011]将最优分割神经网络模型与基于病灶边缘的KiteNet分割网络集成,确定最终分[0018]选取具有最高分类评价标准精确率的第一初始模型对应的神经网络模型为最优[0020]获取至少2份第二测试卵巢肿瘤图像,并分别提取第二测试卵巢肿瘤图像内的病8[0027]选取具有最高分割评价标准精确率的初始模型对应的神经网络模型为最优分割[0041]优选地,第一建模单元将第一混合图像分别输入至ConvNeXt分类神经网络模型、9[0045]第一建模单元选取具有最高分类评价标准精确率的第一初始模型对应的神经网域图像与第二测试卵巢肿瘤图像另一的对应区域叠加形[0052]第二建模单元选取具有最高分割评价标准精确率的初始模型对应的神经网络模[0065]在本公开使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本公含一个或多个相关联的列出项目的任何或所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。具体情况理解上述术语的具体含义。[0070]参阅图5,示出了符合本发明一优选实施例中基于深度学习的卵巢癌图像处理方[0072]参阅图1,获取到不同层级(或截面)的第一测试卵巢肿瘤图像,经图像混合[0074]为确定最佳的分类神经网络模型,以将卵巢肿瘤图像中的卵巢肿瘤的良恶性分图像相同或不同皆可),以第二测试卵巢肿瘤图像中的病灶区域为目标,图像混合习病灶边缘特征。当最优分割神经网络模型与基于病灶边缘的KiteNet分割网络特征融合[0083]S210:将第一混合图像分别输入至ConvNeXt分类神经网络模接利用transformer的selfattention机制(将是imagesize的平方了量级)。而Swin说,SwinTransformer先由小patch开始,再到深层融合邻居patch信息。并且self_attention只用在不相邻的大窗口(就是shiftw种紧密连接的。EfficientNet是一个快速高精度模型,它使用了深度(depth)、宽度[0085]S220:ConvNeXt分类神经网络模型、Swin_Transformer分类神经网络模型、[0086]S230:ConvNeXt分类神经网络模型、Swin_Transformer分类神经网络模型、DenseNet分类神经网络模型、EfficientNet分类神经网络模型分别挑选其中1份作为测试集,剩余4份作为训练集用于模型训练,并再重复4次挑选未被选择测试集中1份作为测试[0087]S240:于ConvNeXt分类神经网络模型、Swin_Transformer分类神经网络模型、[0094]S410:将所述第二混合图像分别输入至U_Net_VGG分割神经网络模型、U_Net_MobileNetv3分割神经网络模型、U_Net分割神经网络模型、FCN分割神经网络模型、包含很多级别的网络,深度从11层到19层不等,比较常用的是VGGNet_16和VGGNet_19。最大池化层,最后面是3个全连接层和一个softmax层。MobileNetV3利用了两种AutoML技练集上训练后得到一个第二初始模型,并利用所述第二初始模型在对应的测试集上测试,分割的groundtruth和predict_mask。DiceLoss的公式:DiceLoss=1_2|X∩Y||X|+|Y|[0116]优选地,第一建模单元将第一混合图像分别输入至ConvNeXt分类神经网络模型、[0120]第一建模单元选取具有最高分类评价标准精确率的第一初始模

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

最新文档

评论

0/150

提交评论