相像度测度总结汇总_第1页
相像度测度总结汇总_第2页
相像度测度总结汇总_第3页
相像度测度总结汇总_第4页
相像度测度总结汇总_第5页
已阅读5页,还剩42页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

本文格式为Word版,下载可任意编辑——相像度测度总结汇总1相像度文献总结

相像度有两种基本类别:

(1)客观相像度,即对象之间的相像度是对象的多维特征之间的某种函数关系,譬如对象之间的欧氏距离;(2)主观相像度,即相像度是人对研究对象的认知关系,换句话说,相像度是主观认知的结果,它取决于人及其所处的环境,主观相像度符合人眼视觉需求,带有一定的模糊性[13]。

1.1客观相像度

客观相像度可分为距离测度、相像测度、匹配测度。它们都是衡量两对象客观上的相近程度。客观相像度满足下面的公理,假设对象A与B的相像度判别为?(A,B),有:

(1)自相像度是一个常量:所有对象的自相像度是一个常数,寻常为1,即

?(A,A)??(B,B)?1

(2)极大性:所有对象的自相像度均大于它与其他对象间的相像度,即

?(A,B)??(A,A)和?(A,B)??(B,B)。

(3)对称性:两个对象间的相像度是对称的,即?(A,B)??(B,A)。(4)唯一性:?(A,B)?1,当且仅当A?B。

1.1.1距离测度

这类测度以两个矢量矢端的距离为基础,因此距离测度值是两矢量各相应分量之差的函数。设x??x1,x2,?,xn?,y??y1,y2,?,yn?表示两个矢量,计算二者之间距离测度的具体方式有多种,最常用的有:

''1.1.1.1欧氏距离:EuclideanDistance-basedSimilarity

最初用于计算欧几里德空间中两个点的距离,假设x,y是n维空间的两个点,它们之间的欧几里德距离是:

?n?d(x,y)?x?y???(xi?yi)2??i?1?1/2(1.1)

当x,y是两个直方图时,该方法可称为直方图匹配法。

可以看出,当n=2时,欧几里德距离就是平面上两个点的距离。当用欧几里德距离表示相像度,一般采用以下公式进行转换:距离越小,相像度越大。

(1.2)

范围:[0,1],值越大,说明d越小,也就是距离越近,则相像度越大。

说明:由于特征分量的量纲不一致,寻常需要先对各分量进行标准化,使其与单位无关。欧氏距离能够表达个体数值特征的绝对差异,所以更多的用于需要从维度的数值大小中表达差异的分析。

优点:简单,应用广泛

缺点:没有考虑分量之间的相关性,表达单一特征的多个分量会干扰结果

1.1.1.2曼哈顿距离,绝对值距离(邻居距离或Manhattan距离):

原理:曼哈顿距离来源于城市区块距离,是将多个维度上的距离进行求和后的结果。同欧式距离相像,都是用于多维数据空间距离的测度

范围:[0,1],同欧式距离一致,值越小,说明距离值越大,相像度越大。说明:比欧式距离计算量少,性能相对高。

d(x,y)??xi?yi(1.3)

i?1n1.1.1.3切氏(Chebyshev)距离(棋盘距离/切比雪夫距离):

切比雪夫距离起源于国际象棋中国王的走法,我们知道国际象棋国王每次只能往周边的8格中走一步,那么从棋盘中A格(x1,y1)走到B格(x2,y2)最少需要走几步?

d(x,y)?maxxi?yi(1.3)

i1.1.1.4明氏(Minkowski)距离/闵可夫斯基距离:

?n?d(x,y)???(xi?yi)m??i?1?1/m

(1.4)

可以看出,(1.1)、(1.2)、(1.3)式实际上是(1.4)式当m?2,1,?的特别状况。在实际中较多地使用欧氏距离。显然,在观测量的量纲取定的条件下,两个矢量越相像,距离d(?)就越小,反之亦然。值得注意的是,在使用上述距离测度描述具体对象时,量纲选取不同会改变某特

征的判断依据,即改变该特征对判断贡献的大小,严重的可造成错误分类。这是由于改变特征矢量某分量的量纲,进行比较的两个矢量的相应的两个分量的数值也将改变。若变小,则其相应的特征在距离测度中“影响作用比重〞将变小,即根据其判断分类的作用变小,反之将增大,这样便不能很好地反映事实。马氏(Mahalanobis)距离是不受量纲影响的。

1.1.1.5马氏距离(Mahalanobis):

马氏距离定义如下:

设n维矢量xi和xj是矢量集?x1,x2,?,xn?中的两个矢量,它们的马氏距离d定义为

d2(xi,xj)?(xi?yi)'V?1(xi?yi)(1.5)

1n1n'式中,V?(xi?x)(xi?x),x??xi。V的含义是这个矢量集的协方差矩阵的?n?1i?1ni?1统计量。适用场合:

1)度量两个听从同一分布并且协方差矩阵为C的随机变量X与Y的差异程度

2)度量X与某一类的均值向量的差异程度,判别样本的归属,此时Y为类均值向量。优点:

1)独立于分量量纲

2)排除了样本之间的相关性影响

缺点:不同的特征不能区别对待,可能浮夸弱特征

1.1.1.6汉明距离(HammingDistance)

在信息论中,两个等长字符串之间的汉明距离是两个字符串对应位置的不同字符的个数。换句话说,它就是将一个字符串变换成另一个字符串所需要替换的字符个数。例如:

1011101与1001001之间的汉明距离是2。2143896与2233796之间的汉明距离是3。“toned〞与“roses〞之间的汉明距离是3。

1.1.1.7巴氏距离(Bhattacharyya)

巴氏距离常用于计算直方图间相像度,定义如下:

dBhattacharyya[x,y]??xi?yi(1.6)

i?1n其中,x、y为归一化数据向量。Bhattacharyya系数取值在0~1之间,越靠近1,表示两个模型之间相像度越高。假使,x、y向量未归一化,则巴氏系数的计算定义为:

dBhattacharyya(x,y)?1??i?1nxi?yi?x??yii?1i?1nn(1.7)

i1.1.1.8Hausdorff距离:

Hausdorff距离(Hausdorffdistance,HD)是一种定义于两个点集上的最大最小距离,是描述两组点集之间的相像程度的一种量度,x、y之间的Hausdorff距离定义为:

H(x,y)?max(h(x,y),h(y,x))(1.8)

式中,h(x,y)?maxminxi?yj为x到y的有向Hausdorff距离;

xi?xyj?yh(y,x)?maxminxi?yj为y到x的有向Hausdorff距离;?为某种定义在点集x、y上

yj?yxi?x的距离范数。常用的是欧几里得范数。

假使定义d??min??yi,d??min??xi(?表示空间中的任意点)则Hausdorff

yi?yxi?x^^距离可定义为H(x,y)?max(maxdxi,maxdyi),这里称d?,d?分别为点集y和点集x在空

xi?xyi?y^间中的变化距离。

由于Hausdorff距离是度量两个点集之间最不匹配点的距离,因此它对远离中心的噪声、漏检点都十分敏感,而这一点,在提取图像特征点集特征时使不可避免的。为了战胜这个缺点,需要对Hausdorff距离的定义进行扩展。

1.1.1.9改进的部分Hausdorff距离:

为获得确凿的匹配结果,Sim提出了改进的部分Hausdorff距离(LTS-HD),它是用距离序列的线性组合来定义的:

1khLTS(x,y)??minx?y(i)(1.9)

ki?1式中,k???f1?p??,p为x内点的个数,f1为一个属于[0,1]的百分数。把点集x中的所有

点到点集y的距离按由小到大的顺序排列,将序号为1~k的k个距离求和,再求平均。所以,该匹配方法不仅能消除远离中心的错误匹配点的影响,而且对零均值高斯噪声的消除能力明显。因袭,采用LTS-HD用于图像特征点集的匹配,力求在所有可能的变换空间中寻觅图像特征点集之间的最优变换,以便通过使LTS-HD最小化来获得最优匹配结果。设g为变换空间T(寻常由旋转矩阵R、平移变换向量t、尺度c等变换组成)中的一个变换,则最优匹配变换g0满足

Mg0(x,y)?minH(x,gy)(1.10)

g?T1.1.1.10相关度距离

常用于计算直方图间相像度,定义如下:

dcorrel(x,y)??x?yii?1nni(1.8)

2i?xi?1?yi21.1.1.11卡方系数

常用于计算直方图间相像度,定义如下:

(xi?yi)2(1.9)dChi?square(x,y)??x?yi?1iin(备注:引自《基于混合图结构的图像相像度的研究_庄小芳》,2023年福建师范大学硕士

学位论文第一章,2.2节)

1.1.1.12(未命名)

常用于计算直方图间相像度,定义如下:

(1.11)

其中,N表示图像颜色样点空间,比起前面几个计算公式,该式在给出图像相像度的计算中更为直接,操作也更加简便。

(备注:引自《基于混合图结构的图像相像度的研究_庄小芳》,2023年福建师范大学硕士学位论文第一章,2.2节)

1.1.1.13直方图相交距离

直方图相交距离是常用于颜色特征相像性度量的一种方法,常用于计算直方图间相像度。假使有两幅图像X和Y,则它们的相交距离定义式如下:

S(X,Y)??min(f(X),f(Y))iii?1N?f(Y)ii?1N(1.12)

1.1.2相像测度

这类测度是以两矢量的方向是否相近作为考虑的基础,矢量长度并不重要,同样设

x??x1,x2,?,xn?,y??y1,y2,?,yn?。

''1.1.2.1角度相像系数(夹角余弦)

原理:多维空间两点与所设定的点形成夹角的余弦值。

范围:[-1,1],值越大,说明夹角越大,两点相距就越远,相像度就越小。

说明:在数学表达中,假使对两个项的属性进行了数据中心化,计算出来的余弦相像度和皮

尔森相像度是一样的,所以皮尔森相像度值也是数据中心化后的余弦相像度。定义:矢量之间的相像度可用它们的夹角余弦来度量。两个矢量x和y的夹角余弦定义如下:

x'yx'ycos(x,y)??1/2(1.6)''x?y??(xx)(yy)??与欧几里德距离类似,基于余弦相像度的计算方法也是把特征点作为n-维坐标系中的

一个点,通过连接这个点与坐标系的原点构成一条直线(向量),两个特征点之间的相像度值就是两条直线(向量)间夹角的余弦值。由于连接代表特征点与原点的直线都会相交于原点,夹角越小代表两个特征越相像,夹角越大代表两个特征的相像度越小。同时在三角系数中,角的余弦值是在[-1,1]之间的,0度角的余弦值是1,180角的余弦值是-1。借助三维坐标系来看下欧氏距离和余弦相像度的区别:

从图上可以看出距离度量衡量的是空间各点间的绝对距离,跟各个点所在的位置坐标(即个体特征维度的数值)直接相关;而余弦相像度衡量的是空间向量的夹角,更加的是表达在方向上的差异,而不是位置。假使保持A点的位置不变,B点朝原方向远离坐标轴原点,那么这个时候余弦相像度cos是保持不变的,由于夹角不变,而A、B两点的距离显然在发生改变,这就是欧氏距离和余弦相像度的不同之处。

应用:Cosine相像度被广泛应用于计算文档数据的相像度及数据挖掘类工作:特点:余弦相像度用向量空间中两个向量夹角的余弦值作为衡量两个个体间差异的大小。相比距离度量,余弦相像度更加重视两个向量在方向上的差异,而非距离或长度上。它对于坐标系的旋转和尺度的缩放是不变的(因矢量的长度已规格化),但对一般的线性变换和坐标系的平移不具有不变性。

1.1.2.2调整余弦相像度——AdjustedCosineSimilarity

在余弦相像度的介绍中说到:余弦相像度更多的是从方向上区分差异,而对绝对的数值不敏感。因此没法衡量每个维数值的差异,会导致这样一个状况:譬如用户对内容评分,5分制,X和Y两个用户对两个内容的评分分别为(1,2)和(4,5),使用余弦相像度得出的结果是0.98,两者极为相像,但从评分上看X似乎不喜欢这两个内容,而Y比较喜欢,余弦相像度对数值的不敏感导致了结果的误差,

需要修正这种不合理性,就出现了调整余弦相像度,即所有维度上的数值都减去一个均值,譬如X和Y的评分均值都是3,那么调整后为(-2,-1)和(1,2),再用余弦相像度计算,得到-0.8,相像度为负值并且差异不小,但显然更加符合现实。

应用:调整余弦相像度和弦相像度,皮尔逊相关系数在推荐系统中应用较多。在基于项目的推荐中GroupLens有篇论文结果说明调整余弦相像度性能要由于余弦相像度和皮尔逊相关系数。

1.1.2.3相关系数

它实际上是数据中心化后的矢量夹角余弦。

r(x,y)?(x?x)'(y?y)?(x?x)(x?x)(y?y)(y?y)???''1/2(1.7)

此处将x,y视作两个数据集的样本,x和y分别是这两个数据集的平均矢量。相关系数对于坐标系的平移、旋转和尺度缩放是不变的。

(备注:该节引自项德良,2023年国防科大硕士论文1.2节。)

1.1.2.4指数相像系数

指数相像系数定义如下:

?3(xi?yi)2?1n(1.8)e(x,y)??exp???2ni?1?i?4?2?i式中,为相应分量的方差,n为矢量维数。它不受量纲变化的影响。从函数的构造

上看属于距离方式(类似于马氏距离),但从测度值和相像关系看属于相像测度。

(备注:该节引自项德良,2023年国防科大硕士论文1.2节。)

1.1.2.5对数似然相像度

TedDunning在1993年提出一种对数似然比的概念,主要应用于自然文本语言库中两个词的搭配关系问题。它是基于这样一种思想,即统计假设可以确定一个空间的好多子空间,而这个空间是被统计模型的位置参数所描述。似然比检验假设模型是已知的,但是模型的参数是未知的。

二项分布的对数似然比

对于二项分布的状况,似然函数为

?n1??n2?H(p1,p2;k1,n1,k2,n2)?p1k1(1?p1)n1?k1??p1k2(1?p2)n2?k2??(1.1)

?k1??k2?式中:H——的统计模型,k1,n1,k2,n2——试验结果的参数。p1,p2——给定模型的参数。假设二项分布有一致的基本参数集合(p1,p2)p1?p2,那么对数似然比?就是

????maxpH(p,p;k1,n1,k2,n2)maxp1,p2H(p1,p2;k1,n1,k2,n2)(1.2)

式中:maxpH——当p取得某值时,统计模型H的最大值。

当p1?k1kk?k,p2?2时,分母取得最大值。当p?12时,分子取得最大值。n1n2n1?n2所以对数似然比简化为

??maxpL(p,k1,n1)L(p,k2,n2)maxp1,p2L(p1,k1,n1)L(p2,k2,n2)(1.3)

式中:L——二项分布,n——试验重复的次数,p——某事发生的概率,k——该事件发生的次数,L(p,k,n)?pk(1?p)n?k。

两边取对数可以将对数似然比的公式变形为:

?2log??2[logL(p1,k1,n1)?logL(p2,k2,n2)?logL(p,k1,n1)?logL(p,k2,n2)](1.4)

由于二项分布的对数似然比能够合理的描述两个事物的相像模型,所以常用对数似然比来计算两个事物(用户或物品)的相像度。对数似然相像度基于两个用户共同评估过的物品数目,但在给定物品总数和每个用户评价的状况下,其最终结果衡量的是两个用户有这么多共同物品的“不可能性〞,它是一种不考虑具体偏好值的方法。

譬如在用户—物品偏好的二维矩阵中,我们可以将一个用户对所有物品的偏好作为一个向量来计算用户之间的相像度,或者将所有用户对某个物品的偏好作为一个向量来计算物品之间的相像度。

备注:引自张明敏,张功萱《对数似然相像度算法的MapReduce并行化实现》《计算机工程与设计》2023,36卷,第5期。

1.1.2.6Levenshtein距离,又称编辑距离

两个字符串(链)的相像度可以用Levenshtein距离(Levenshteindistance)表示,该距离定义为将一个串变为另一个串所需的最小操作步数,可能的操作有删除、插入、替换[SchlesingerandHlavac,2023]。还可以给字符串元素变换赋一个变换代价,从而使计算得到的相像度(距离)更灵活,更敏感。同样的原理也可以用在图相像度的计算上。下定义可能的结点和弧的变换(删除、插入、替换、重新标注)集合,再给每种变换赋一个变换代价。任一变换序列的代价用单个步骤代价的组合表示(类似代价步骤的和)。将一个图变为另一个图的所有变换集合中具有最小代价值的那个集合就定义了这两幅图间的距离[Niemann,1990]。

用途:常用于字符串距离,类似可用于计算图的距离备注:引用于《图像处理、分析与机器视觉(第三版)》MilanSonka,VaclavHlavac,RogerBoyle著,艾海舟,苏延超译P298,9.5.2图的相像度

1.1.2.7统计相关系数--皮尔逊相关系数(PearsonCorrelation

Coefficient)

皮尔逊相关也称积差相关(积矩相关),即相关分析中的相关系数r,分别对X与Y基于自身总体标准化后计算余弦向量的标准夹角。是英国统计学家皮尔逊于20世纪提出的一种计算直线相关的方法。皮尔逊相关系数一般用来反映两个变量线性相关程度,它的取值在

[-1,+1]之间。相关系数的绝对值越大,相关性越强。

假设有两个变量X,Y,那么;两个变量间的皮尔逊相关系数可以通过以下公式计算:

公式一:

?X,Y?cov(X,Y)?X?Y?E((X??X)(Y??Y))?X?Y?E(XY)?E(X)E(Y)E(X)?E(X)E(Y)?E(Y)2222

公式二:

?X,Y?公式三:

N?XY??X?YN?X?(?X)22N?Y?(?Y)22

?X,Y?公式四:

?(X?X)(Y?Y)?(X?X)(Y?Y)22?X,Y??XY???X2?(?X)N2X?YN(?Y)N2

?Y2?以上列出四个公式等价,其中E是数学期望,cov表示方差,N表示变量取值的个数。适用范围:当两个变量对的标准差都不为0时,相关系数才有定义,皮尔逊系数适用于:

(1)两个变量之间是线性关系,都是连续数据

(2)两个变量的总体是正态分布,或接近正态的单峰分布(3)两个变量的观测值是成对的,每对观测值之间相互独立特点:(1)当两个变量的线性关系加强时,相关系数趋于1或-1;

(2)当一个变量增大,另一个变量也增大时,说明它们之间是正相关的,相关系数大于0;

(3)假使一个变量增大,另一个变量却减小,说明它们之间是负相关的,相关系数小于0;

(4)假使相关系数等于0,说明它们之间不存在线性相关关系。

1.1.2.8统计相关系数--斯皮尔曼相关(Spearman秩相关)系数

--SpearmanCorrelation

(1)简介

在统计学中,斯皮尔曼等级相关系数以CharlesSpearman命名,并经常用希腊字母?表示其值。斯皮尔曼等级相关系数用来估计两个变量X、Y之间的相关性,其中变量间的相关性可以用单调函数来描述。假使两个变量取值的两个集合中均不存在一致的两个元素,那么,当其中一个变量可以表示为另一个变量的很好的单调函数时(即两个变量的变化趋势一致),两个变量之间的?可以达到+1或-1。

假设两个随机变量分别为X、Y(也可以看做是两个集合),它们的元素个数均为N,两个随机变量取的第i个值分别用Xi、Yi表示。对X、Y进行排序(同为升序或降序),得到两个元素排行集合x、y,其中元素xi、yi分别为Xi在X中的排行以及Yi在Y中的排行。将集合x、y中的元素对应相减得到一个排行差分集合d,其中di?xi?yi,1?i?N。随机变量X、Y之间的斯皮尔曼等级相关系数可由x、y或d计算得到,其计算方式如下:公式一:由排行差分集合d计算而得():

??1?6?di2i?1nN(N2?1)

公式二:由排行集合x、y计算而得(斯皮尔曼等级相关系数同时也被认为是经过排行的两个随机变量的皮尔逊相关系数,以下实际是计算x、y的皮尔逊相关系数):

???(x?x)(yii?1n2nii?1i?1ni?y)2?y)i?(x?x)?(y变量Xi10.21.31.310以下是一个计算集合中元素排行的例子(仅适用于斯皮尔曼等级相关系数的计算)

元素的位置(依降序排列)54321变量的排行(xi)45(2+3)/2=2.5(2+3)/2=2.51这里需要注意:当变量的两个值一致时,它们的排行是通过对它们的位置进行平均得到的。(2)适用范围

斯皮尔曼等级相关系数对数据条件的要求没有皮尔逊相关系数严格,只要两个变量的观测值是成对的等级评定资料,或者是由连续变量观测资料转化得到的等级资料,不管两个变量的整体分布形态、样本容量的大小如何,都可以用斯皮尔曼等级相关系数来进行研究。

原理:Spearman秩相关系数寻常被认为是排列后的变量之间的Pearson线性相关系数。

(3)取值范围:{-1.0,1.0},当一致时为1.0,不一致时为-1.0。

(4)说明:计算十分慢,有大量排序。针对推荐系统中的数据集来讲,用Spearman秩相关

系数作为相像度量是不适合的。一般用于学术研究或者是小规模的计算。(5)Spearman相关系数的特点:

Spearman相关是根据等级资料研究两个变量间相关关系的方法。它是依据两列成对等级的各对等级数之差来进行计算的,所以又称为“等级差数法〞

1,Spearman相关系数对原始变量的分布不做要求,属于非参数统计方法。因此

它的适用范围比Pearson相关系数要广的多。即使原始数据是等级资料也可以

计算Spearman相关系数。对于听从Pearson相关系数的数据也可以计算Spearman相关系数,

2,统计效能比Pearson相关系数要低一些(不简单检测出两者事实上存在的相关

关系)。

3,spearman只要两个变量的观测值是成对的等级评定资料,或者是由连续变量观

测资料转化得到的等级资料,不管两个变量的总体分布形态、样本容量的大小如何,都可以用斯皮尔曼等级相关来进行研究。

注:spearman与pearson:

1.连续数据,正态分布,线性关系,用pearson相关系数是最恰当,当然用spearman相关系数也可以,就是效率没有pearson相关系数高。

2.上述任一条件不满足,就用spearman相关系数,不能用pearson相关系数。3.两个定序测量数据之间也用spearman相关系数,不能用pearson相关系数。

4.只要在X和Y具有单调的函数关系的关系,那么X和Y就是完全Spearman相关的,这与Pearson相关性不同,后者只有在变量之间具有线性关系时才是完全相关的。

1.1.2.9统计相关系数--KendallRank(肯德尔等级)相关系数

(1)简介

在统计学中,肯德尔相关系数是以MauriceKendall命名的,并经常用希腊字母?(tau)表示其值。肯德尔相关系数是一个用来测量两个随机变量相关性的统计值。一个肯德尔检验是一个无参假设检验,它使用计算而得的相关系数去检验两个随机变量的统计依靠性。肯德尔相关系数的取值范围在-1到1之间,当?为1时,表示两个随机变量拥有一致的等级相关性,当?为-1时,表示两个随机变量拥有完全相反的等级相关性,当?为0时,表示两个随机变量是相互独立的。

假设两个随机变量分别为X、Y(也可以看做是两个集合),它们的元素个数均为N,两个随机变量取的第i个值分别用Xi、Yi表示。X、Y中的对应元素组成一个元素对集合

XY,其包含的元素为(Xi,Yi)。当集合XY中任意两个元素(Xi,Yi)与(Xj,Yj)的排行一致

时(也就是说当出现状况1或2时;状况1:Xi?Xj且Yi?Yj,状况2:Xi?Xj且Yi?Yj),这两个元素就被认为是一致的。当出现状况3或4时(状况3:Xi?Xj且Yi?Yj,状况4:,这两个元素就被认为是不一致的。当出现状况5或6时(状况5:Xi?Xj,Xi?Xj且Yi?Yj)

状况6:Yi?Yj),这两个元素既不是一致也不是不一致的。

这里有三个公式计算肯德尔相关系数的值:公式一:

??a?C?D1N(N?1)2

其中C表示XY中拥有一致性的元素对数(两个元素为一对),D表示XY中拥有不一致

性的元素对数。

注意:这一公式仅适用于集合X与Y中不存在一致元素的状况(集合中各个元素唯一)公式二:

??b?C?D(N3?N1)(N3?N2)注意:这一公式适用于集合X或Y中存在一致元素的状况(当然,假使X或Y中均不存在一致的元素时,公式二便等同于公式一)。

其中C、D与公式一一致;

ss111N3?N(N?1);N1??Ui(Ui?1);N2??Vi(Vi?1)

2i?12i?12N1、N2分别是针对集合X、Y计算的,现在以计算N1为例,给出N1的由来(N2的计

算可以类推):

将X中的一致元素分别组合成小集合,s表示集合X中拥有的小集合数(例如X包含元素:1234332,那么这里得到的s则为2,由于只有2、3有一致的元素),Ui表示第i个小集合所包含的元素数。N2在集合Y的基础上计算而得。

公式三:

??c?C?D

12M?1N2M注意:这一公式中没有再考虑集合X、或者Y中存在一致元素给最终的统计值带来的

影响。公式三的这一计算形式仅适用于用表格表示的随机变量X、Y之间相关系数的计算(下面会介绍),参数M稍后会做介绍。

以上都是围绕用集合表示的随机变量而计算肯德尔相关系数的,下面所讲的则是围绕用表格表示的随机变量而计算肯德尔相关系数的。

寻常人们会将两个随机变量的取值制作成一个表格,例如有10个样本,对每个样本进行两项指标些事X、Y(指标X、Y的取值均为1到3)。根据样本的X、Y指标取值,得到以下二维表格(表1):

表123SumX1Y123sum11022215012334310由表1可以得到X及Y的可以以集合的形式表示为:

X?{11,,2,2,2,2,2,3,3,3};Y?{1,2,11,,2,2,3,2,3,3};

得到X、Y的集合形式后就可以使用以上的公式一或公式二计算X、Y的肯德尔相关

系数了(注意公式一、公式二的适用条件)

当然假使给定X、Y的集合形式,那么也是很简单得到它们的表格形式的。这里需要注意的是:公式二也可以用来计算表格形式表示的二维变量的肯德尔相关系是,不过它一般用来计算由正方形表格表示的二维变量的肯德尔相关系数,公式三则只是用来计算由长方形表格表示的二维变量的Kendall相关系数。这里给出公式三种字母M的含义,M表示长方形表格中行数与列数中较小的一个。表1的行数及列数均为三。(2)适用范围

肯德尔相关系数与斯皮尔曼相关系数对数据的条件要求一致。

1.1.2.10Tanimoto系数(TanimotoCoefficient)

Tanimoto系数也称为广义Jaccard系数,是Cosine相像度的扩展,寻常应用于x、y为布尔向量,即各分量只取0或1的时候,此时表示的是x、y的公共特征占x、y具有的所有特征的比例。其实质就是集合交集与并集的比。也多用于计算文档数据的相像度,或两个集合之间的相像程度。

范围:[0,1],越接近1说明越相像。

1.1.2.11Jaccard系数

Jaccard系数主要用于计算符号度量或布尔值度量的个体间的相像度,由于个体的特征属性都是由符号度量或者布尔值标识,因此无法衡量差异具体值的大小,只能获得“是否一致〞这个结果,所以Jaccard系数只关心个体间共同具有的特征是否一致这个问题。假使比较

X与Y的Jaccard相像系数,只比较xi和yi中一致的个数,

公式如下:

也就是关联的交集除以关联的并集。

范围:其值介于[0,1]之间,假使两个个体间的特征完全一致,交集等于并集,值为1;假使没有任何关联,交集为空,值为0。

1.1.3匹配测度

(备注:该节引自项德良,2023年国防科大硕士论文1.2节。)

这种测度常用于医学和生物的分类中。在有些状况下,特征只有两个状态,对象或具有此特征或不具有此特征。此时,若对象具有此特征,则相应分量定义为1,而相应分量为0表示对象无此特征,这就是所谓的二值特征。对于给定的二值特征矢量x和y中的某两个相应分量xi和yi,若xi?1和yi?1,则称xi和yi是(1-1)匹配,若xi?1和yi?0,则称xi和yi是(1-0)匹配;若xi?0和yi?1,则称xi和yi是(0-1)匹配;若yi?0和xi?0,则称xi和yi是(0-0)匹配,令

a??xiyib??yi(1?xi)

iic??xi(1?yi)d??(1?xi)(1?yi)(1.9)

ii则a等于两矢量x和y的(1-1)匹配的特征的数目,b等于x和y的(0-1)匹配的特征的数目,c等于x和y的(1-0)匹配的特征的数目,e等于x和y的(0-0)匹配的特征的数目。对于二值n维特征矢量可定义如下相像性测度:

1.1.3.1Tanimoto测度

ax'y(1.10)s(x,y)??a?b?cx'x?y'y?x'y可以看出,s(x,y)等于x和y都具有的特征的数目与x和y分别具有的特征种类总数之比。这里只考虑(1-1)匹配而不考虑(0-0)匹配。

1.1.3.2Rao测度

ax'ys(x,y)??(1.11)

a?b?c?en上式等于(1-1)匹配特征数目和所选用的特征数目之比。

1.5.5小结

hash方法的相像度计算的主要应用场景,一般是针对大规模数据进行压缩,在保证效果损失可接受的状况下,节省存储空间,加快运算速度,针对该方法的应用,在目前的大规模的互联网处理中,好多相像度的计算都是基于这种近似性的计算,并取得了比较好的效果。设随机排列为43201(edcab),对于C1列,第一次出现1的行是R4,所以h(C1)=3,同理有h(C2)=2,h(C3)=4,h(C4)=3。

通过屡屡抽取随机排列得到n个minhash函数h1,h2,…,hn,依此对每一列都计算n个minhash值。对于两个集合,看看n个值里面对应相等的比例,即可估计出两集合的Jaccard相像度。可以把每个集合的n个minhash值列为一列,得到一个n行C列的签名矩阵。由于n可远小于R,这样在压缩了数据规模的同时,并且仍能近似计算出相像度。

1.6基于主题的相像度计算

Bag-of-Words模型是NLP和IR领域中的一个基本假设。在这个模型中,一个文档

(document)被表示为一组单词(word/term)的无序组合,而忽略了语法或者词序的部分。BOW在传统NLP领域取得了巨大的成功,在计算机视觉领域(ComputerVision)也开始崭露头角,但在实际应用过程中,它却有一些不可避免的缺陷,譬如:

?稀疏性(Sparseness):对于大词典,特别是包括了生僻字的词典,文档稀疏性不可避

免;

?多义词(Polysem):一词多义在文档中是常见的现象,BOW模型只统计单词出现的

次数,而忽略了他们之间的区别;

?同义词(Synonym):同样的,在不同的文档中,或者在一致的文档中,可以有多个

单词表示同一个意思;

从同义词和多义词问题我们可以看到,单词可能不是文档的最基本组成元素,在单词与文档之间还有一层隐含的关系,我们称之为主题(Topic)。我们在写文章时,首先想到的是文章的主题,然后才根据主题选择适合的单词来表达自己的观点。主题的概念的引入,主要是在原有的基本特征粒度的基础上,引入了更为丰富的隐含层特征,提高了相像性计算的效果,常用的主题分析方法包括LatentSemanticAnalysis(LSA)、ProbabilitisticLatentSemanticAnalysis(PLSA)、LatentDirichletAllocation(LDA)。这些方法在分类,聚类、检索、推荐等领域都有着好多的应用,并取得了比较好的效果。下面就LSA及PLSA方法进行简要介绍。

1.6.1LSA(LatentSemanticAnalysis)简介

LSA的基本思想就是,将document从稀疏的高维Vocabulary空间映射到一个低维的向量空间,我们称之为隐含语义空间(LatentSemanticSpace).

LSA最初是用在语义检索上,为了解决一词多义和一义多词的问题:

1.一词多义:美女和PPMM表示一致的含义,但是单纯依靠检索词“美女〞来检索文档,很可能丧失掉那些包含“PPMM〞的文档。

2.一义多词:假使输入检索词是多个检索词组成的一个小document,例如“清澈孩子〞,那我们就知道这段文字主要想表达concept是和道德相关的,不应当将“春天到了,小河多么的清澈〞这样的文本包含在内。

为了能够解决这个问题,需要将词语(term)中的concept提取出来,建立一个词语和概念的关联关系(t-crelationship),这样一个文档就能表示成为概念的向量。这样输入一段检索词之后,就可以先将检索词转换为概念,再通过概念去匹配文档。

LSA[6,7]模型认为特征之间存在某种潜在的关联结构,通过特征-对象矩阵进行统计计算,将高维空间映射到低维的潜在语义结构上,构建出LSA空间模型,从而提取出潜在的语义结构,并用该结构表示特征和对象,消除了词汇之间的相关性影响,并降低了数据维度。加强了特征的鲁棒性

LSA利用SVD分解的数学手段来进行计算,数学过程可以表述如下:对于m?n的矩阵A,其中m为特征数,n为样本数。令

k??min(m,n),rank(A)?r,k?r,经过奇异值分解,矩阵A可分解成3个矩阵的乘积:

A?U?Vt

其中,U、V是m?r和n?r的正交矩阵,分别称为矩阵A的奇异值对应的左、右奇异向量,

?是包含A所有奇异值的r?r的对角矩阵,称为A的奇异标准形,其对角元素为矩阵A

的奇异值。奇异值依照递减的排列构成对角矩阵

?,取

?中前k个最大奇异值构成

?k的,取U和V最前面的k列构成m?k的Uk和n?k的Vk,构建A的k-秩矩阵Ak(m?n)。(LSA降维的方式就是只取最大的K个奇异值,而其他置为0,于是得到了共生矩阵的近似。)

Ak?Uk?VkT

k其中,Uk和Vk中的行向量分别作为特征向量和对象向量,k是降维后的维数。

下图形象的展示了LSA的过程:

LSA的优点

?低维空间表示可以刻画同义词,同义词会对应着一致或相像的主题;?降维可去除部分噪声,是特征更鲁棒;?充分利用冗余数据;?无监视/完全自动化;?与语言无关;LSA的不足

?没有刻画term出现次数的概率模型;?无法解决多义词的问题;

?SVD的优化目标基于L-2norm或者是FrobeniusNorm的,这相当于隐含了对数据的高

斯噪声假设。而term出现的次数是非负的,这明显不符合Gaussian假设,而更接近Multi-nomial分布;

?对于countvectors而言,欧式距离表达是不适合的(重建时会产生负数);?特征向量的方向没有对应的物理解释;

?SVD的计算繁杂度很高,而且当有新的文档来到时,若要更新模型需重新训练;?维数的选择是ad-hoc的;

1.6.2plas介绍

PLSA和LSA基础思想是一致的,都是希望能从term中抽象出概念,但是具体实现的方法不一致。PLSA使用了概率模型,并且使用EM算法来估计P(t|c)和P(c|d)矩阵。PLSA[8,9]模型是由Hofmann提出的用于文本检索的概率生成模型,与相比较于LSA,PLSA是基于概率模型的,并直接引入了潜在class变量z∈Z={Z1…Zk},下面的用文本处理语言来描述该模型。dzw图4-1PLS模型选定一篇文档的概率p(d),每篇文档以概率p(z|d)属于一个主题,而给定一个主题,每一个词以概率p(w|z)产生。将这个过程形成联合的概率模型表达式:p(d,w)?p(d)p(w|d)(7)

p(w|d)??z?Zp(w|z)p(z|d)(8)

则:

p(d,w)??z?Zp(z)p(w|z)p(d|z)(9)

在PLSA实际的使用过程中,存在着overfit的风险,一般训练过程是通过EM算法,进行模型参数训练,获得p(z|d)、p(w|z)概率。

PLSA和其相关的变形,在分类、聚类、检索等方面,特征相关性计算等方面,获得了广泛的应用,并取得了比较好的效果。

pLSA的优势

?定义了概率模型,而且每个变量以及相应的概率分布和条件概率分布都有明确的物

理解释;

相比于LSA隐含了高斯分布假设,pLSA隐含的Multi-nomial分布假设更符合文本特性;

?pLSA的优化目标是是KL-divergence最小,而不是依靠于最小均方误差等准则;?可以利用各种modelselection和complexitycontrol准则来确定topic的维数;pLSA的不足

?概率模型不够完备:在document层面上没有提供适合的概率模型,使得pLSA并不

是完备的生成式模型,而必需在确定documenti的状况下才能对模型进行随机抽样;?随着document和term个数的增加,pLSA模型也线性增加,变得越来越巨大;?当一个新的document来到时,没有一个好的方式得到$p(d_i)$;?EM算法需要反复的迭代,需要很大计算量;

?

针对pLSA的不足,研究者们又提出了各种各样的topicbasedmodel,其中包括大名鼎鼎的LatentDirichletAllocation(LDA)。

1.6.3小结

主题方法的引入,在一定程度上弥补了BOW的假设的独立性,在工业中,主题的方法也越来越多的应用到实际的机器学习中,包括在图像处理领域、传统的分类、聚类、检索等方面,都取得了比较好的效果。

相像度的计算在数据挖掘方面有着广泛的应用,根据不同的应用场景,各种方法各有其优劣特点,对于相像度效果的影响,除了方法本身之外,合理有效的特征的选择和使用也是至关重要的,同时,根据应用场景的不同,选择合理的方法,对于解决问题,有着重要的作用。

1.7图像相像度相关分类

1.7.1图像相像度的概念

图像相像度的概念可以总结如下

1-1.图像的相像度取决于图像上具体内容的相像程度,如通过像素级比较或某些特定点的比较和分析得到相像度。

1-2.基于语义相像度的图像相像度计算,通过图像空间上下文和情景上下文的联系,得到图像的一些基本信息进行比较,它是图像目标实体的高层联系,抽象程度高,理论还不成熟。

1-3.计算将一个图转换成另一个图的花费,即预先定义各种变换的操作集合,将两个图之间的最小变化步骤定义为两图的相像度,即图像编辑距离。

1-4.将图像结构化,通过计算公式得出两图的最大公共子图,该公共子图能最大的表达两个图的共有信息,定义最大公共子图为两图的相像度。

1-5.定义一个大图可以同时包含两个图像,称为两图的最大关联图,从关联图中获得最大子团表示两图的相像度。

1-6.将图像分解成若干部分,分别计算各个部分的相像度,再综合得到整个图像的相像度。

1.7.2图像相像度的分类

根据相像度计算参考的原理不同,可将图像相像度算法分为三大类。1、基于像素灰度相关的相像度算法,如直方图法等。2、基于图像特征点的相像度算法:该算法抗干扰能力强。

3、基于特定理论的图像相像度算法:这一类的算法在图像拓扑结构的基础上进行,但没有一个特定的定义。如基于相像度矩阵的算法,利用图节点区域的相像度,迭代计算得出总体相像度;基于最大子图或关联图的相像度算法等,这类算法因所处理的图像类型的不同而各有优劣,图像拓扑结构作为图像稳定性特征之一,使得这类算法具有较好的鲁棒性,关于这一方面的研究还仍有待继续努力。

1.7.2.1直方图匹配。

譬如有图像A和图像B,分别计算两幅图像的直方图,HistA,HistB,然后计算两个直方图的归一化相关系数(巴氏距离,直方图相交距离)等等。

这种思想是基于简单的数学上的向量之间的差异来进行图像相像程度的度量,这种方法是目前用的比较多的一种方法,第一,直方图能够很好的归一化,譬如寻常的256个bin条的。那么两幅分辩率不同的图像可以直接通过计算直方图来计算相像度很便利。而且计算量比较小。

这种方法的缺点:

1、直方图反映的是图像像素灰度值的概率分布,譬如灰度值为200的像素有多少个,但是对于这些像素原来的位置在直方图中并没有表达,所以图像的骨架,也就是图像内部终究存在什么样的物体,形状是什么,每一块的灰度分布式什么样的这些在直方图信息中是被省略掉得。那么造成的一个问题就是,譬如一个上黑下白的图像和上白下黑的图像其直方图分布是一模一样的,其相像度为100%。

2、两幅图像之间的距离度量,采用的是巴氏距离或者归一化相关系数,这种用分析数学向量的方法去分析图像本身就是一个很不好的方法。

3、就信息量的道理来说,采用一个数值来判断两幅图像的相像程度本身就是一个信息压缩的过程,那么两个256个元素的向量(假定直方图有256个bin条)的距离用一个数值表示那么确定就会存在不确凿性。

改进:

1,FragTrack算法,其对图像分成横纵的小块,然后对于每一个分块探寻与之最匹配的直方图。来计算两幅图像的相像度,融入了直方图对应位置的信息。但是计算效率上很慢。2,计算一个图像外包多边形,得到跟踪图像的前景图后计算其外包多边形,根据外包多边形做Delauny三角形分解,然后计算每个三角形内部的直方图,对于这两个直方图组进行相像距离计算。这样就融入了直方图的位置信息

1.7.2.2基于矩阵分解的方法

方法描述:将图像patch做矩阵分解,譬如SVD奇异值分解和NMF非负矩阵分解等,然后再做相像度的计算。

方法思想:由于图像本身来讲就是一个矩阵,可以依靠矩阵分解获取一些更加鲁棒的特征来对图像进行相像度的计算。

基于SVD分解的方法优点:奇异值的稳定性,比例不变性,旋转不变性和压缩性。即奇异值分解是基于整体的表示,不但具有正交变换、旋转、位移、镜像映射等代数和几何上的不变性,而且具有良好的稳定性和抗噪性,广泛应用于模式识别与图像分析中。对图像进行奇异值分解的目的是得到唯一、稳定的特征描述,降低特征空间的维度,提高抗干扰能力。基于SVD分解的方法缺点是:奇异值分解得到的奇异矢量中有负数存在,不能很好的解释其物理意义。

基于NMF分解的方法:将非负矩阵分解为可以表达图像主要信息的基矩阵与系数矩阵,并且可以对基矩阵赋予很好的解释,譬如对人脸的分割,得到的基向量就是人的“眼睛〞、“鼻子〞等主要概念特征,源图像表示为基矩阵的加权组合,所以,NMF在人脸识别场合发挥着巨大的作用。

基于矩阵特征值计算的方法还有好多,譬如Trace变换,不变矩计算等。

1.7.2.3基于特征点方法

方法描述:统计两个图像patch中匹配的特征点数,假使相像的特征点数比例最大,则认为最相像,最匹配

方法思想:图像可以中特征点来描述,譬如sift特征点,LK光流法中的角点等等。这样相像度的测量就转变为特征点的匹配了。

以前做过一些试验,关于特征点匹配的,对一幅图像进行仿射变换,然后匹配两者之间的特征点,选取的特征点有sift和快速的sift变形版本surf等。

方法优点:能被选作特征点的大致要满足不变性,尺度不变性,旋转不变等。这样图像的相像度计算也就具备了这些不变性。

方法缺点:特征点的匹配计算速度比较慢,同时特征点也有可能出现错误匹配的现象。

1.7.2.4基于峰值信噪比(PSNR)的方法

当我们想检查压缩视频带来的微弱差异的时候,就需要构建一个能够逐帧比较差视频差异的系统。最常用的比较算法是PSNR(Peaksignal-to-noiseratio)。这是个使用“局部均值误差〞来判断差异的最简单的方法,假设有这两幅图像:I1和I2,它们的行列数分别是i,j,有c个通道。每个像素的每个通道的值占用一个字节,值域[0,255]。注意当两幅图像的一致的话,MSE的值会变成0。这样会导致PSNR的公式会除以0而变得没有意义。所以我们需要单独的处理这样的特别状况。此外由于像素的动态范围很广,在处理时会使用对数变换来缩小范围。

在考察压缩后的视频时,这个值大约在30到50之间,数字越大则说明压缩质量越好。假使图像差异很明显,就可能会得到15甚至更低的值。PSNR算法简单,检查的速度也很快。但是其浮现的差异值有时候和人的主观感受不成比例。所以有另外一种称作结构相像性的算

法做出了这方面的改进。

1.7.2.5图像模板匹配

一般而言,源图像与模板图像patch尺寸一样的话,可以直接使用上面介绍的图像相像度测量的方法;假使源图像与模板图像尺寸不一样,寻常需要进行滑动匹配窗口,扫面个整幅图像获得最好的匹配patch。

在OpenCV中对应的函数为:matchTemplate():函数功能是在输入图像中滑动窗口寻觅各个位置与模板图像patch的相像度。相像度的评价标准(匹配方法)有:CV_TM_SQDIFF平方差匹配法(相像度越高,值越小),CV_TM_CCORR相关匹配法(采用乘法操作,相像度越高值越大),CV_TM_CCOEFF相关系数匹配法(1表示最好的匹配,-1表示最差的匹配)。CV_TM_SQDIFF计算公式:

CV_TM_CCORR计算公式:

有一种新的用来计算相像度或者进行距离度量的方法:EMD,EarthMover'sDistancesEMDisdefinedastheminimalcostthatmustbepaidtotransformonehistogramintotheother,wherethereisa“grounddistance〞betweenthebasicfeaturesthatareaggregatedintothehistogram。

光线变化能引起图像颜色值的漂移,尽管漂移没有改变颜色直方图的形状,但漂移引起了颜色值位置的变化,从而可能导致匹配策略失效。而EMD是一种度量准则,度量怎样将一个直方图转变为另一个直方图的形状,包括移动直方图的部分(或全部)到一个新的位置,可以在任意维度的直方图上进行这种度量。

在OpenCV中有相应的计算方法:cvCalcEMD2()。结合着opencv支持库,计算直方图均衡后与原图的HSV颜色空间直方图之间的EMD距离。

1.7.2.6基于特定理论的图像相像度算法

这一类的相像度算法大都是建立在图结构的基础上进行的。假定分割后的图像其区域都具有独立性和唯一性,那么通过属性特征提取和区域空间关系的描述,就可以把图像对应地描述成图结构。因此,对图结构的相像度计算就可以从一定程度上代表图像之间的相像状况。

1.7.2.6.1相像度传播法

为了计算图的相像度,文献[34]提出了这样一个理论,假使两个图节点的邻居节点是相像的,则这两个节点也是相像的。换句话说,这两个节点的相像度的一部分传播给了它们各自的

邻居。这样经过一系列的迭代,这种相像度就会传遍整个图,从而我们就可以得出两个图的最终整体相像度。因此,根据这种相像度观点,可以对两个图构造出一个相像度矩阵,将图中两两节点间的相像度都当成矩阵的一个元素,然后通过矩阵的相关运算,得出最终的一个相像度计算公式。其过程可为如下所示:

相像度矩阵是用于描述图结构的相像程度的一个整体状况的有效工具,最早是在UUman的算法中进行定义,而在随后的各种算法中也得到了很好的应用。相像度传播算法是基于矩阵的基本运算来进行的,矩阵运算是单纯的数学运算,从数学运算的角度上去比较两个图之间的相像度,虽然简便了好多,但同时也简单丢失图像的信息。因此,该算法确凿性方面还不够。

1.7.2.6.2基于关联图的相像度算法

1.7.2.6.3基于最大公共子图的相像度算法

1.7.2.6.4节点迭代匹配算法

参照整体相像度等于各部分相像度之和的原则,节点迭代匹配算法提出了图像匹配错误等于节点错误和对应边错误之和的思想_。该算法将匹配过程进行了K次的迭代,K由图节点

数决定。通过k次的迭代,可以获得匹配错误最小的两图之间的节点匹配,并计算出其匹配错误。

首先必需定义几个矩阵分别用来表示节点的错误差,可能的节点匹配对等。接着还要定义节点匹配错误的计算公式和边匹配错误计算公式,最终依据匹配错误的大小来确定两个图的相像度。将这种图匹配算法应用于图像检索,取得了很好的试验效果如图1-7所示的是两个图像的属性图结构。

通过计算可以得到图1-7例如中两幅图像的匹配错误,并依此进行图像的探寻或匹配。但同时可以发现该算法存在不足之处,它无法给出两幅图像的确凿的相像度,仅能给出其匹配错误,无法定量的描述其相像程度,这也是该算法应要进一步改善的地方

1.8基于本体的语义相像度测度算法

基于本体的语义相像度算法主要包括概念信息量法,语义距离法、基于属性的语义相像度、混合式语义相像度等方法。

1.8.1概念信息量法:

概念信息量法以信息论和概率统计为基础,需要进行大量的文集统计工作。

1.8.2基于概念属性的相像度计算

在本体结构中,概念的属性是决定语义相像度的重要因素[14]。当两个概念拥有的一致属性越多,说明这两个概念间的语义相像度越大。概念属性的相像度计算公式为:

SimAtt(S,F)?Count(att(S)?att(F))(1)

Count(att(S)?att(F))其中,att(S)表示实体S属性的集合;att(F)表示实体F属性的集合;Count()表示统计

出的属性个数。若实体的某种相应的性质不存在时,则不用表示S、F在该性质上的相像度。

1.8.3语义距离

语义距离是指本体结构中任意两个概念节点之间的最短路径长度。

基本假设如下:两概念的

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论