1006大设计翻译版基于移动平台刹车检测方法_第1页
1006大设计翻译版基于移动平台刹车检测方法_第2页
1006大设计翻译版基于移动平台刹车检测方法_第3页
1006大设计翻译版基于移动平台刹车检测方法_第4页
1006大设计翻译版基于移动平台刹车检测方法_第5页
免费预览已结束,剩余47页可下载查看

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

ResearchandImplementationoftheBrakingDetectionMethodBasedonMobilePlatformAuthor:CHENMing-Tutor:NIUJian-Contentsofthispaperistodetectbrakelightsonthebasisofvehicledetectionanddiscriminationonthebrakesactsoastoachievethepurposeofavoidingavehiclecollision,fallwithinthescopeofimageprocessingandpatternrecognitionresearchandapplications.Thispaperdiscussesthestatusofvehicleidentificationandrelatedtechnologies,andpresentedonthebasisofthevehicle’sbrakesaredetectedbehaviordetectionmethods.Thenintroducesavehicledetectionmethod,andtherealizationofparameterspassedtotherearofthevehicletodetectthepictureasbrakingbehaviordetection.Detectionbrakeactsagainstthemainlytwoaspects:determiningthepositioningandbrakingbehaviorofbrakelights.Specificcolorspaceisbasedontheregionallevelfiltercombination-verticalcolorvalueofthecumulativeweightofthebrakelightspositioningmethod,byusingsupportvectormachine(SVM)todiscriminatebrakingbehavior.VehicledetectionandbrakingbehaviordetectionimplementationsarecarriedoutontheAndroidplatform,whereintheimageinputsoftwareformobilephonecamera.Finally,weconductedareviewoftheentireproject,summeduptheachievementsand made,andmadeavisionforthefuture.:ImageProcessing,VehicleDetection,BrakingDetection, 绪 研究背 国内外研究现 智能车辆的发 移动平台上的辅助驾驶系 研究目标与内 的组织结 相关技术现 机器学 支持向量机 自适应提升算法 特征分 方向梯度直方 Haar-like特 图像分 最大类间差算 边缘检 颜色空 RGB颜色空 YUV颜色空 刹车检测方法的研 刹车检测方法研究的意 系统总体架构设 系统模块化设 刹车检测流程概 车辆检测模 车辆检测流 滤 图像缩放方 刹车灯定位模 颜色空间转 弱空间关系定 阈值分 刹车灯分类模 本章小 刹车检测方法的实 系统开发和运行环 开发环 运行环 车辆检测模块实 灰度图转 滤波处 缩 窗口合 刹车灯定位模块实 候选刹车灯区域的生 刹车行为判定模块实 总结与展 工作总 工作展 致 参考文 在过去的十几年里,由于人们的足够重视,基于计算机视觉的智能车辆的相关研究构纷纷投入了大量的人力、物力,从事基于计算机视觉的智能车辆研究。其中最为发达的是欧洲,其次是和[4]。欧洲的PROMETHEUS(programforEuropeantrafficwithhighestefficiencyandunprecedentedsafety)19861913个汽车生产厂商和研究机构参与了该项目[5]。1970年就开始着手基于视觉的智能车辆研究,20世纪的80年代末90年代初。产业省(MITI)、日产(Nissan)、富士通(Fujitsu)成为该领域的先驱,它们共同参与了个人车辆系统(alVehicleSystem)。1996年还成立了AHSRA(Cruise-AssistHighwaySystemResearchAssociation)组织[6]1995年成立NAHSC(NationalautomatedHighwaySystemConsortium)开始从事智能车辆和车辆辅助驾驶的研究。卡耐基-梅隆大学的NavLab11个系列的智能车辆[8]而我国的交通智能化起步较晚。九五期间,交通部提出加强智能公路系统的研究与发展,提出应结合我国实际情况,分阶段开展交通控制系统、驾驶员信息系统、车iOnRoad,一款上的应用,通过的头帮助你车前的路况,根据路是碰撞,偏离,车速,方向指示。(图1.1)1.1图1.2是的一款软件,SafetySight。当然最基本的功能也是车辆检测,并且实1.2图1.3是一款辅助的应用,在驾车时利用它对车前的道路进行实时和处理。持向量机,梯度直方图,AdaBoost,Haar特征,图像分割等。验证与。实现的平台是Android.相关技术现分类器进行样本分类训练,因此,涉及到支持向量机和AdaBoost等算法。20多年兴起的一门多领域交叉学科,涉及概率论、统计学、支持向量机支持向量机[9]的基本原nn1维的超如图2.1所示。在互相平行的两个超平面。SVM认为平行超平面间的距离或差距越大,分类器的总误2.2SVM属于线性分类器,可以被认为是提规则化]TikhonovRegularization)区。因此支持向量机也被称为最大边缘区分类器。SVM建立在统计学习理论、VC维SVM的主要思想可以概括为两点1SVM针对数据是线性可分的情况下分析。对于数据线性不可分的情况,SVM利用非线性的映射将低维的数据空间中线性不可分的样本转化为的特征空间中使2SVM的理论基础是结构风险最小化理论,即在特征空间中以某种标注构建某支持向量机的应支持向量机算法主要解决一个凸二次优化问题,它保证找到的极值解就是全局最优在应用领域方面,SVM能够非常成功地处理了模式识别问题,如分类问题、判别对刹车灯进行分类,实验表明,SVM在能取得很好的效果。自适应提升算法AdaBoost,是英文"AdaptiveBoosting"(自适应增强)的缩写,是一种机器学习方现过拟合现象。AdaBoost方法中使用的分类器可能很弱(比如出现很大错误率,但只5AdaBoost算法描述用𝑥𝑖和𝑦𝑖D的样本点和它们的类标。用𝑤𝑘(𝑖)表示第k次迭代时全体样本的权重分布。基于此,AdaBoost算法描述如下:1)D={(𝑥1𝑦1)(𝑥2𝑦2)(𝑥𝑛𝑦𝑛)},𝑘𝑚𝑎𝑥𝑤𝑘(𝑖)=1⁄𝑛,i=1,…, 初始化k=令k=k根据𝑤𝑘(𝑖)训练弱分类器,记作𝐶𝑘.获得𝐶𝑘的原则是使得训练误差最小将𝐶𝑘的训练误差记作令1𝛼𝑘=2

1−

(𝑖)=𝑤𝑘(𝑖)×{ ℎ𝑘(𝑥𝑖)=

9)(4)-(8)直到k

ℎ𝑘(𝑥𝑖)≠g(x)=∑

H(x)= AdaBoost分类器可以把那些不重要训练数据权重减弱甚至删除,而把那些关

一种基于积分图,级联检测AdaBoost的检测方法。首先使用Haar-like特征表示人AdaBoost算法找到人脸的特征构造强AdaBoost完成了车辆检测的步骤,验证了AdaBoost在车辆检测中的实用性。方向梯度直方图[14](英语:Histogramoforientedgradient)描述子是一种在计算机向特征。此方法类似于边缘方向直方图(edgeorientationhistograms)方法,SIFT描述ofuniformlyspacedcells)上计算,而且为了提高精确度使用了的局部对比度归一化(overlaplocalcontrastnormalization)的方法。其作者NavneetDalal和BillTriggs是法国国家计算机技术和控制(INRIA他们在2005年的CVPR上首先了描述方向梯度直方图的。在这篇里,他方向梯度直方图描述子的思想是一幅图像中的物体的表象和形状可以被像素HOG方法是在图像的局部方格单元上操作,所以它对图像几何的和光学的形变都能HOG4、将图像划分成小细胞单元(66像素/每细胞单元6、将每几个细胞单元组成一个块(33个细胞单元/块胞单元的特征描述子串联起来便得到该块的HOG特征描述子。归一化图计算归一化图计算梯对每BLOCK块内的进行对比度归一Haar-like哈尔特征[15](Haar-likefeatures)Harr-like特和图2.5(b)所示。Haar-likeHaar-like扩展的矩形特征图2.5Harr-like的矩形特征点特征有2种,对角线特征有1种。每一种特征的计算都是由黑色填充区域的像素值之和与白色填充区域的像素值之和的差值。而计算出来的这个差值就是所谓的Haar-like度很大。帕帕乔治奥等人提出可以使用基于哈尔小波的特征而不是图像强度。维奥拉积分图的每一点(𝑥,𝑦)的值是原图中对应位置的左上角区域的所有值得和I(x,y)=∑𝑖(𝑥′,通过单次遍历可以获得积分图图像。遍历时每个(𝑥,𝑦)的值是𝐼(𝑥,𝑦)=𝑖(𝑥,𝑦)+𝐼(𝑥−1,𝑦)+𝐼(𝑥,𝑦−1)−𝐼(𝑥−1,𝑦−

𝐼(𝐶)+𝐼(𝐴)−𝐼(𝐵)−

2.6盘算子等。本文在车辆检测中用到了Sobel算子。区域生长法是从一组代表不同生长区域的像素开始,接下来将像素邻区域合并法(Gonzalez,2002)的基本思想是首先将图像任意分成若干互不相此类方法把图像分割问题与图的最小割(mincut)问题相关联。首先将图像映射为带权无向图G=<V,E>,图中每个节点N∈V对应于图像中的每个像素,每条边∈E连sC∈S对应着图OTSU算法和边缘检测算法。OTSU并且像素的总数量为N=𝑛1+𝑛2+⋯+𝑛𝐿。为了简化讨论,灰度直方图被标准化并且𝑝𝑖=𝑁,𝑝𝑖≥0,∑𝑝𝑖=

现在,假设像素点一分为二,分成𝐶0和𝐶1两类(背景类和目标类或者反过来,𝜔0=Pr(𝐶0)=∑𝑝𝑖=𝜔1=Pr(𝐶1)=∑𝑝𝑖=1−

𝜇=∑𝑖Pr(𝑖|𝐶)(=

=

0

𝜇=∑𝑖𝑃𝑟(𝑖|𝐶)=∑𝑖𝑝

=𝜇𝑇−

1

1−ω(k)=∑μ(k)=∑

𝜇𝑇=𝜇(𝐿)=∑

𝜔0𝜇0+𝜔1𝜇1=𝜇𝑇,𝜔0+𝜔1=

=∑(𝑖−𝜇)2Pr(𝑖|𝐶)

∑𝑘(𝑖−𝜇)21 1

(𝑖−𝜇1)2𝜎2=∑(𝑖−𝜇)2Pr(𝑖|𝐶)

为了估算阈值(在灰度级k)的优劣程度,须引入在判别分析中常用的判别准: λ 𝐵 𝜅 𝑇 𝜂=

𝜎2=𝜔0𝜎2+ 𝜎2=𝜔0(𝜇0−𝜇𝑇)2+𝜔1(𝜇1−𝜇𝑇)2=𝜔0𝜔1(𝜇1−(由(2.17)可得)并

𝜎2=∑(𝑖− =ηλ/(λ1),𝜎2+𝜎2= 这意味着𝜎2、𝜎2k的函数,但是𝜎2k的值有关。同时说明𝜎2 于二阶统计量(类方差)的,而𝜎2是基于一阶统计量(类均值)的。由此可见,η是最简单的关k的度量值。所以,我们η作为灰度值阈值k的“完美程度”(或者称为(2.1513η(k)=𝐵

𝜎2(𝑘)

[𝜇𝑇𝜔(𝑘)−

𝜔(𝑘)[1−𝜎2(𝑘∗)=max 1≤𝑘<𝐿从这个问题看出,k𝑆∗={𝑘;𝜔0𝜔1=𝜔(𝑘)[1−𝜔(𝑘)]> 𝑜𝑟0<𝜔(𝑘)< 我们称之为灰度直方图的有效范围。从公式(2.22)的定义,标准量度𝜎2(或者η)取最小0当k∈S−𝑆𝑘𝜔(𝑘0𝑜𝑟1}(也就是让所有的像素值不是在𝐶0中就在𝐶1中)并且取得一个正的边界值,k∈𝑆∗,显而易见,最大值是一直存在的。些包括深度上的不连续、表面方向不连续、物质属性变化和场景照明变化。边缘检测图像重要的结构属性。有许多方法用于边缘检测,它们的绝大部分可以划分为两类:基下面主要介绍Sobel算子。10𝐺𝑥=0−2]∗10𝐺𝑥=0−2]∗10 𝐺𝑦=[1 0]∗ G=√𝐺2+ Θ=arctan()

分)表示颜色方法的抽象数学模型。常见的色彩模型有HSV、RGB、HSI、CHL、LAB、CMY、YUV等。它们在不同的行业各有所指,但在计算机技术方面运用最为广泛。本文主要涉及到了RGBYUV颜色空间两种,以及相互之间的转化关系。下面RGB色彩模式即三原彩模型(RGBColorModel)是工业界的一种颜色标准,各样的颜色的,RGB即是代表红、绿、蓝三个通道的颜色,这个标准几乎包括了人类RGBRGBRGB0~255范围内的强度值。RGB图像只使用三种颜色,就可以使它们按照不同的比例混合,在屏幕上呈现(256*256*256)种颜色。16位的色彩模式,占用两个字节。555代表每个颜色所占用的字位数。16位的色彩模式,占用两个字节。565代表每个颜色所占用的字位数24位的色彩模式,占用三个字节。888代表每个颜色所占用的字位数。8+8+8248位表示24位的色彩模式,占用节。888代表每个颜色所占用的字位数。在这种模式中,每个颜色分别占用8+8+824位。YUV是被欧洲电视系统所采用的一种颜色编码(PALPAL和SECAMLumaU”YUV色彩空间的重要性是它的亮度信号YU、V是分离的。如果只有Y信号分量而没有U、V信号分量,那么这样表示的图像就是黑白灰度图像。彩YUV空间正是为了用亮度信号Y解决彩色电视机与黑白电视机的相容问题,YUV主要用于优化彩信号的传输,使其向后相容老式黑白电视。与RGB视频信号传输相比,它最大的优点在于只需占用极少的频宽(RGB要求三个独立的LumaChromaCb来表示。其中,CrRGBRGB信号亮度值之间的差异。RGB格式中24bpp像素要占4字节YUV格式中,可以UV分量的数据压缩,YUVRGB要小一不过应用都是清的YUV应用。因此YUV的处理还是一个比较重要课题。约空间,U,VYU,V(.这种格式称为Packed格式。另外一种格式是把一幅图像中Y,U,V分别用三个独立的数组表示。这种模式称为planar模式。YUV码流的格式其实与其采样的方式密切相关,主流的采样方式有三种,YUV4:4:4,YUV4:2:2,YUV4:2:0。用三个图来直观地表示的方式,以黑点表示采样该像素点的Y分量,以空心圆圈表示采用该像素点的UV分量。2.7在本文所选用的实现平台,即android平台上,可以通过头获取YUV格式的码4:2:0YUNV21YUV420PYUV420SP.经过验证,本文所使用的Android平台的采样模式是YUV420SP,为了方便从中提取出不同的颜色通道,必须清楚其结构。如图2.8所示。(图中用相同的颜色标识,共占用8*2=16个单位。相对于RGB颜色空间,YUV占用的更小,节省一半的空间。刹车检测方法的研本章两章内容的基础上,首先从目前已有的成辅助驾驶系统出发,分析本3.1为系统整体的模块设计,总共分为五个模块(蓝色)初始图像获取模块。这个模块的主要功能是利用移动平台(Android定,并且可以提取成像素数组进行处理。Android平台提供两个接口,分别可以获取车辆尾部检测模块。这个模块的主要是将读入的进行多项处理,来获取车ARGBYUV。在刹车灯定位的过程中利理,可以获得刹车灯相对于车辆尾部的位置。传递给分类器进行分类。初始图像获初始图像获模屏幕绘图模分类器模车辆尾部检模刹车灯定位块3.1输入输算法输出:捕获的图像中的车辆的位置(像素点坐标和边框长度、刹车灯的位置(素点坐标和边框长度、刹车灯的状态(1为亮,0为不亮算法将的像素值数组作为输入参数进行车辆检将滤波处理完成的进行多尺寸的缩放处针对每一张不同的尺寸做如下处计算的积分图将的位置进行去处开开是否是车尾是保存车尾部位图像灰度化处模糊处图像多级缩3.2二维G(x)

− 图3.3二维分布示意3测模块中使用一个标准差为1.0的3*3的整数值核。如下图3.4所示:3.43*35*5辆尾部(即不同距离的车辆)的检测需求。原始大小规定为640*480,共进行13表3.1缩放尺次线性插值算法原理是根据新尺寸与原尺寸的长宽比得到每个像素点在原图的映射位(图3.5新3.5(Sy-0)/(SH-0)=(Dy-0)/(DH-

Color3,把(Sx,Sy)A、B、C、D4u=Sx-floor(Sx);v=Sy-floortmpColor0=Color0*(1-u)+Color2*u;tmpColor1=Color1*(1-u)+Color3*u;DstColortmpColor0*(1-v)tmpColor2*v;pm0=(1-u)*(1-则颜色混合公式为DstColor=Color0*pm0+Color1*pm1+Color2*pm2+

后得到的。具体的步骤和内容如下图3.7所示:3.7将获取的帧图像进行颜色空间的转换。利用头实时获取的前方车辆的帧图像数据,YCrCbY和红色分量值Cr来实现初步的候选车灯区域的生成。𝑌=0.299×𝑅+0.587×𝐺+0.114×𝐶𝑟=0.499×𝑅−0.418×𝐺−0.0813×𝐵+𝐶𝑏=−0.199×𝑅−0.331×𝐺+0.499×𝐵+

不会大于车尾部的1/5,因此可以将车灯大小定义为车尾的1/5。1/3。因此在定位1/3的范围和右边缘向左1/3的范围。而车灯的纵向位置可能会有较大的偏差,因为车尾部的检测去掉1/4以加快图像处理速度,提高效率。(3.4.3水平按行累加像素值,累加公式为𝑓ℎ𝑗=∑0.9×𝐶𝑟(𝑥𝑖,𝑦𝑗)+0.1×Y(𝑥𝑖,以上的Cr和Y分别是Cr颜色通道和Y垂直按列累加像素值,累加公式为𝑓𝑣𝑖=∑0.9×𝐶𝑟(𝑥𝑖,𝑦𝑗)+0.1×Y(𝑥𝑖,以上的Cr和Y分别是Cr颜色通道和Y

g=𝑤0×(𝑢0−𝑢)2+𝑤1×(𝑢1−𝑢)2 别是前景像素点和背景像素点的平均灰度值。u是整幅图像的平均灰度值。SVM进行分类,判断刹车灯的状态,并且将状态可视化展刹车灯区域在Cr颜色通道中的亮度最大值刹车灯区域在Cr颜色通道中的红色分量均刹车灯区域中像素值大于Cr均值的像素所占比例刹车检测方法的实集成开发软件:EclipsewithAndroiddeveloptools型号:MI-ONE Android机身屏幕:R=pixel&0x000000ffG=pixel&0x0000ff00>>8B=pixel&0x00ff0000>>16Grey=(R+G+B)/3效果图图4.1(a)头获取的原4.1(b)滤波是一种线性的平滑滤波,是为了减少的噪声。具体做法就是对整围几个点对一个模板做卷积得到的。本文最终使用的模板是一个3*3的核:

表 123456789值为5的像素点的滤波值为算法代码滤波的常double[][]gus=newdouble[][]{{0.0751,0.1238,0.0751{0.1238,0.2043,0.1238},{0.0751,0.1238,0.0751}//循环处理每个像素for(inti=0;i<imgH-2;i++)for(intj=0;j<imgW-2;j++)tmpGus[(i+1)*width+j+1]=(int)(grayImage[(i)*width+*+grayImage[(i)*width+j+1]*+grayImage[(i)*width+j+2]*+grayImage[(i+1)*width+j]*+grayImage[(i+1)*width+j+1]*+grayImage[(i+1)*width+j+2]*+grayImage[(i+2)*width+j]*+grayImage[(i+2)*width+j+1]*+grayImage[(i+2)*width+j+2]*}}(a)滤波前的灰度(b)滤波处理后的灰度图图4.2滤波效果对比图 在此选用了二次线性插值的算法来实现的缩放。其原理是找到目标图像某一个算法的代码如下forfor(inti=0;i<dstH;i++)for(intj=0;j<dstW;j++)tmpX=(double)j*(srcW-1)/(double)(dstW-1);tmpY=(double)i*(srcH-1)/(double)(dstH-1);ix=(int)tmpX;iy=(int)tmpY;tmpX=tmpX-ix;tmpY=tmpY-if(tmpX==0)m=(double)srcImage[iy*srcW+m=(double)srcImage[iy*srcW+ix]*(1-+(double)srcImage[iy*srcW+ix+1]*if(tmpY==0)dstImage[i*dstW+j]=(int)elseif(tmpX==n=(double)srcImage[(iy+1)*srcW+n=(double)srcImage[(iy+1)*srcW+ix]*(1-+(double)srcImage[(iy+1)*srcW+ix+1]*tmpX;dstImage[i*dstW+j]=(int)(m*(1-tmpY)+n*tmpY);}}}由于车辆检测窗口的大小固定为36*36图4.3多级缩放效果图4.4窗口合并对比图因为车辆的检测时基于多尺寸的窗口扫描检测来实现的,而的尺寸跨度又要将重复检测到的窗口进行合并处理。合并处理的方法是对比坐标点,如果两个窗口的2550。二值化处理之后再直观地看到二值图像的效果图。如下图4.5所示。4.5//构建梯度直方for(inti//构建梯度直方for(inti=0;i<rectImg.length;i++)}//计算每个像素在整幅图像中的比例和整幅图像的平均灰度for(inti=0;i<256;i++)levelRatio[i]=(float)(levelCount[i]/rectImg.length);averageLevel+=i*levelRatio[i];}//遍历256个灰度级,计算每个灰度级的方差,并且找到最大方差的分割灰度forfor(inti=0;i<256;i++)for(intk=0;k<i;k++){//首先计算前景色frontRatiolevelRatio[k];前景色所占比例累加tempSumk*levelRatio[k}if(frontRatio0)frontAvgLevel=tempSum/elsefrontAvgLevel=////tempVar=frontRatio*(averageLevel-(averageLevel-frontAvgLevel)+(averageLevel-(averageLevel-//水平-峰值交叉法是刹车灯最终定位的法。它之所以能够实现是基于刹车灯(a)车尾 (b)车灯位 图4.6水平-垂直峰值原理图4.7水平-刹车灯区域在Cr颜色通道中的亮度最大值刹车灯区域在Cr颜色通道中的红色分量均刹车灯区域中像素值大于Cr均值的像素所占比例图4.8(a)未亮的车灯示意 总结与展并且接触了Android平台,也进一步锻炼提升了编码能力。分作为刹车检测的图像输入。整个测试和研究是基于Android平台Java语言编码实现。最终工程的编码量在3000行左右。整个毕业设计的过程的编码在6000行左右。测效率能够大约保持在3帧/S,但是这远远不够,仍有很大的提高空间。致篇的顺利完成,也衷心祝愿他在未来的学术道一帆风顺。感谢100615小班,让我回味起四年的大学生活,因为有而美好与难忘 参考文Komatineni,S. 闫晓虹.中国交通事故死亡人数连续十余年居世界首位[N/OL]. .shtml,2008-12-07朱国荣. 车祸排名人类死亡原因第九位[N/OL]. SUNZH,BEBISG, RR.On-roadvehicledetection:areview[J].PAMI,2006,DICKMANNSE.Thedevelopmentofmachinevisionforroadvehiclesinthelastdecade[C].Proc.IEEEIn ligentVehicleSymp,2002:268-281.BERTOZZIM,BROGGIA,CELLARIOM,etal.Artificialvisioninroadvehicle[C].Proc.IEEE,2002,90(7):1258-1271.BISHOPD.Vehicle-highwayautomationactivitiesintheUnitedStates[C].ProceedingsoftheInternationalAHSWorkshopUSDept.ofTransportation,1997.POMERLEAUD,JOCHEMT.Rapidlyadaptingmachinevisionforautomatedvehiclesteering[J].IEEEExpert,1996(11):19-27.SVapnikV.

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论