第5章医学图像分类_第1页
第5章医学图像分类_第2页
第5章医学图像分类_第3页
第5章医学图像分类_第4页
第5章医学图像分类_第5页
已阅读5页,还剩56页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

第5章医学图像分类医学图像分类(Classification)与分割(Segmentation)二者具有相近含义,有时很难严格区分。本书把它们作为两个独立的章节介绍是考虑到“分割”一词更强调几何形态方面的操作,而分类往往还给出明确的解剖标识。因此,第4章的内容偏重在图像几何形态处理的算子和算法,第5章则介绍一些面向医学应用的实用算法。在以下的叙述中,我们并不刻意对“分割”与“分类”加以区分,因为大多数文献对二者也是经常混用的。只是在强调解剖标识时才使用“分类”一词。MR图像中人脑组织灰度分布从MRI各解剖区域的划分情况来看,同一解剖结构所对应的灰度值并不唯一,而是在一定的区间内呈正态分布,灰、白质间,灰质、脑脊液间的灰度分布曲线都有部分交叉,因而利用简单的设定灰度阈值的方法显然不可能准确的划分不同结构。5.1单谱MR图像分割如果只有一幅MR图像,可将图像的原始灰度值与该图像的某一个特征参量构成二维特征空间进行聚类分析,实现对人体组织分类的目的。对单谱图像进行自动分类识别时借助图像特征提取的方法,从原始图像中提取不同纹理特征作为特征参量。基于纹理相似度的区域分割方法的一般原理为:从图像原始数据出发,计算出其纹理的二阶统计参数分量图像,并与原始灰度图像构成多维特征空间进行分类及计算相关隶属概率。基于双参数的聚类分类第1步:选取各类组织的初始聚类中心(gi0,hi0),

(i=1,…,N);第2步:对图像的每一像素点求出其在二维特征空间中与各聚类中心的欧氏距离,选择它们中最小者,把该像素点标记到这类中。这样将原始像素点划分为N组对应于不同解剖结构的区域。第3步:重新计算各聚类中心;第四步:若符合收敛条件,则输出标记像素集合,否则返回第2步。

基于图像灰度与纹理参数的脑组织分类纹理参数图分类结果基于像素分类概率的迭代分类

由于计算机断层成像存在部分体积效应的特点,而且初始聚类图像也不能把不同的区域清楚地划分开,尤其边界处像素的归属难以确定,只能采用连续的“隶属度函数值”表示。利用松弛迭代法可以得到像素关于各类别隶属概率的图像。Peleg松弛迭代分类算法第1步:根据Bayes准则对各类组织计算初始概率,

(n=0)

第2步:计算相容系数(8-邻域)第3步:重新计算各像素的类别概率pin(λ)

第4步:n=n+1,重复第3步,直至收敛条件满足。

通常,图像的每一项特征参数只描述了它在某一方面的特征,因而将几种特征参数组合起来考虑,构成多维特征空间进行聚类分析可能达到较好的分类效果。除了对二维空间中区域划分外,还可以将几个参数以1:1:…1:1的权重分别组合构成三维、四维、五维特征空间,仍然按照以上方法进行图像的聚类分析。5.2多谱图像分析多谱图像这个词最初来源于卫星遥感技术。卫星对地面上同一区域采用不同波长的光,拍摄多幅图像,利用地面上的不同物质对不同波长光选择性吸收的原理来探测地表情况、地下矿藏等。医学上的多谱图像是指在同一时间获取的同一个人相同解剖结构的Pd,T1,T2加权象,各个加权象能从不同方面描述不同组织的物理特性以及生物特性。通过人工选定初始点,计算各种组织的均值,形成初始聚类中心,例如对人脑的几种重要生物组织:灰质(Greymatter),白质(Whitematter),皮层(Cortex),脑脊液(CSF)以及图像背景(Background)分类。在聚类分析中采用K近邻法,对选定图像的像素逐点进行分析。每次迭代过程对聚类中心进行校正,直到各类中心保持稳定为止。从多幅图像得到的信息显然多于单幅图像,其分类的结果自然会优于单幅图像的分类结果。例如,可以将人脑MR图像(T1、T2和Pd)两两组合,分别构成二维空间,或将三幅图像一起分析(三幅图像的加权比例为1:1:1),或用不同加权比对三幅图像一起分析(三幅图像的加权比例为WPd:WT1:WT2)。Pd,T1和T2不同加权距离公式如下式所示:其中Dk表示像素与第k类聚类中心的距离,(k=1,2,..,5);GPd,GT1,GT2是分别从三幅加权象中读取的该像素空间位置的灰度值;MPd(k),MT1(k),MT2(k)是三幅加权象中五种组织的均值;WPd,WT1,WT2是每幅图像的权重。原始的多谱MR图像,从左向右依次分别为Pd,T1和T2加权象T1和T2加权象的多谱分类结果:与参考分类图相比较:CSF和灰质的误分辨较多,特别是脑室区的灰质分辨较差。对白质和皮层的分辨基本可以满意。T1-T2多谱分类图,右图是分类结果与参考分类图的比较B:背景;C:脑脊液;G:灰质;W:白质;X:皮层加权的Pd-T1-T2分类图,右图是分类结果与参考分类图的比较B:背景;C:脑脊液;G:灰质;W:白质;X:皮层Pd-T1-T2多谱分类图效果明显优于上面两幅加权象生成的分类图结果,已经与参考分类图相当接近。表5.1给出五种组合的多谱图像分类方法分类结果与参考图的分类结果的定量比较。可以看出,因为图像背景和皮层的灰度取值范围相对较为单一,故除个别分类方法外,多数分类方法结果相差不大;而对于灰度取值范围比较复杂的灰质,白质和脑脊液CSF,几种分类结果差别则较大。表5.1五种组织在各分类图中所占像素数与总像素数的百分比5.3神经网络分类

5.3.1KOHONEN

模型Kohonen模型是一种简单的神经网络,像C-均值算法一样,也同样具有能够识别聚类中心、自组织分类的能力。首先,讨论没有侧反馈的情况。先介绍Kohonen模型的网络结构。

这是一种MAXNET方案,得到最大激励的神经元netj成为获胜神经元。Kohonen网络结构包含两层神经元:输入层和Kohonen层。两层神经元之间完全互相连接。即每个输入层神经元到每个输出层神经元都有一个前馈(Feed-forward)连接。下面是一维的Kohonen神经网络结构:首先,假设输入是归一化的(即)。Kohonen层的输入(即整个网络的输出层)可从下式计算:获胜神经元就是具有最大Ij

的输出层神经元。采取赢者通吃的方案,该获胜神经元的输出是+1.kohonen层其它神经元什么也不输出。上面方程式实际上是神经元权向量与输入向量之点积。因此,也可以看作该神经网络选择获胜神经元的方法是,获胜神经元的权向量与输入向量之间夹角小于其它神经元与输入向量之间的夹角。另一种选择获胜神经元的方法是:找出与输入向量具有最小欧式模(EuclideanNorm

)距离(即)的权向量的所对应那个神经元,就是获胜神经元。对于单位向量来说,这两种方法是等价的。即会选择同一个神经元。使用欧式距离的好处是它不要求权向量或者输入向量的归一化。Kohonen网络训练(Train)是按竞争(无监督)形式学习的。Competitive(Unsupervised)Learning.当输入向量一加到网络上,Kohonen

层的神经元就开始竞争。网络按上述方法选择获胜神经元。神经元权向量按下式进行:其中,η

是学习参数,或叫增益。5.3.2带有侧反馈的Kohonen网络至此,我们介绍的Kohonen网络虽然能够进行分类,但在输出层对这些聚类中心的几何位置没有任何考虑。Kohonen网络的自组织能力(SOFM)要求更复杂一点的侧反馈来实现。例如,在输出格点结构中,彼此靠得很近的神经元之间应该具有更为相似的属性。它们之间的相互影响应当体现在网络的空间结构上。要实现这样的功能,在网络输出层神经元之间建立侧方向的反馈联接。左下图是带有侧反馈的一维网络结构,右下图是带有侧反馈的二维网络结构。侧反馈的大小和类型(激活或抑制)体现在联接侧反馈的权系数上。权系数是网络格点中神经元之间几何距离的函数。如何确定这些权系数才能获得预期的效果呢?让我们效仿生物系统的神经元的相互作用关系。考虑视皮层内神经元间的属性几何映射关系,视皮层的短程侧反馈能够提供我们所需要的网络模型。下面的方程式通常称作墨西哥草帽函数MexicanHatFunction,可以用于侧反馈模型。左图是墨西哥草帽函数。作为神经元之间距离的函数,它可以明显地分成几个区域。在小于R0的区域,侧反馈是激活方式;在R0

与R1

之间,侧反馈是抑制方式。在R1之外,则是弱激活区。在有侧反馈情况下,Kohonen模型输出层中第j个神经元的总输入可以表示为:其中,K是侧反馈作用的最大区域。Ij

由下面公式给出:第j个神经元的输出和输入是非线性关系。如非线性函数是φ(),则有Yj

=φ(netj)。Φ的选取应满足约束关系:α

>yj

0,其中,α

是任意常数。侧反馈是通过权系数cjk实现的。这些层内部权系数是固定不变的。即它们不是通过学习或训练过程得到的,而是按照墨西哥草帽函数公式得出。它体现邻近神经元激活、远处神经元抑制作用。Mostfrequently由于墨西哥草帽函数计算较复杂,在很多情况下用一些简单函数近似。上图就是一个例子。公式(8)的求解通常是通过一个迭代的过程使输出层神经元随时间变化逐渐达到平衡状态。迭代的过程通过下面公式实现:其中,n代表离散时间步数,β

是控制收敛过程的常数。5.3.3Kohonen自组织特征图KohonenSOFM利用Kohonen

模型结构和Kohonen

学习机制。自组织特征图是对带有侧反馈的Kohonen

模型的增强,SOFM

将n维输入空间映射到一个一维或二维神经元格点,该输出空间具有有意义的拓扑结构。

仍用x表示输入向量:对应输出层神经元j的权向量wj

可以写作:获胜单元的确定权向量wj与输入向量x匹配最佳的输出神经元。前面已经介绍,有两种方法可以完成这个任务。一个是选择得到最大激活的输出层神经元:在SOFM中,还要对侧反馈方式进一步说明。令Λi(x)(n)表示获胜单元周围邻域。Λi(x)(n)是离散时间(迭代步数)的函数。但这不意味侧反馈的大小随着网络训练过程而改变,只是说网络的学习(训练)的范围。较大的邻域表示学习是在更大的全局范围内进行的。一般,在开始时选择较大的邻域,在学习过程中逐渐减小邻域。或者选择权向量与输入向量间欧式距离最小的输出层神经元作为获胜神经元。如果用i(x)表示获胜神经元的索引号,该方法可以表示为:输出神经元拓扑结构典型地用方型格点邻域关系表示。邻域半径为零时仅包括获胜神经元本身。半径1时,有8个近邻神经元,等等。可以将邻域函数应用到学习过程:引入邻域函数后,学习过程更加合理。在一定范围邻域中受激活的神经元包含相似的突触权向量。另一种邻域结构是六角型格点结构:Neighborhoodsonahexagonallattice.KOHONEN

自组织特征图算法Step1.初始化:

令权向量,wj(0)

初始值为任意随机数。数值小些,可能好些。初始化学习速率η(0)和邻域函数值Aj(x)(0)。一般开始时,宜选大些。

Step2.

对样本中每个输入向量,执行steps2a,2b和2c。

Step2a.将感知刺激向量,x施加在网络输入层。

Step2b.

相似性匹配:

选择权向量与x最匹配的神经元为获胜神经元。使用欧式模准则,获胜神经元的索引号为:Step2c.

学习,对激活区范围内神经元调整权系数。Step3.

更新学习速率,η(n):

学习速率线性减小有助于得到满意结果。Step4.

减小邻域函数Λj(x)(n).Step5.

检验停止条件:

特征图无明显改变时,迭代终止。否则转向Step2.KOHONEN

自组织特征图算法(续)5.3.4BP神经网络算法原理:前向多层网络的反向传播学习算法,简称BP算法(BackPropagation)。它是有指导的训练,训练的过程是一个不断调整网络权值的过程。它分为两个过程:前向传播和反向传播过程。I层J层K层网络结构:算法基本思想根据样本的期望输出与实际输出之间的平方误差,利用梯度下降法,从输出层开始,逐层修正权系数。网络学习:每个修正周期分两个阶段: 前向传播阶段 反向传播阶段前向传播阶段输入样本:第J层节点输入:第J层节点的输出:其中h是隐层节点数,f为非线性函数:第k层节点输入:第k层节点输出:其中,c为输出节点数反向传播阶段假设输入样本:期望输出:经前向传播,网络实际输出为定义平方误差E为BP算法以E为准则函数,采用梯度下降法求解使准则函数达到最小值时的权系数。由于有误差,说明网络权系数不合适,应该进行修正。式中,η是步长,E与Wkj没有直接关系。由公式(3)得到由公式(4)得

式中由公式(5)得公式(6)可改写为隐含层权系数修正:由公式(1)得又有由公式(2)得由公式(5)得将公式(11)、(12)代入(10)得采用单极型Sigmoid函数作激励函数:类似有:将公式(1

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论