毕业设计(论文)基于贝叶斯的文本自动分类的研究和实现_第1页
毕业设计(论文)基于贝叶斯的文本自动分类的研究和实现_第2页
毕业设计(论文)基于贝叶斯的文本自动分类的研究和实现_第3页
毕业设计(论文)基于贝叶斯的文本自动分类的研究和实现_第4页
毕业设计(论文)基于贝叶斯的文本自动分类的研究和实现_第5页
已阅读5页,还剩10页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、毕业设计(论文)任务书 题目 基于贝叶斯的文本自动分类的研究和实现 专业 学号 姓名主要内容、基本要求、主要参考资料等: 近年来随着 internet 的大规模普及和企业信息化程度的提高,有越来越多的信息 积累,而需要信息的人还没有特别方便的工具去从来自异构数据源的大规模的文本信 息资源中提取符合需要的简洁、精炼、可理解的知识,文本挖掘正是解决这一问题的 一个方法。 本课题研究基于贝叶斯的文本分类系统,可以用于以下领域和系统中:企业知识 门户、信息增值服务、智能搜索引擎 、数字图书馆 、情报分析 、信息安全和过滤、 电子商务系统。文本自动分类不需人工干预的自动分类技术,有效提高非结构化信息 资

2、源的加工效率。利用朴素贝叶斯分类文法的分类器,分析已经手动分类的文本,根 据文本内容计算分类条件概率,再利用训练好的分类器分析未分类的文本,根据分类 器算出的所属领域概率最大的进行分类。 本课题任务要求: 1) 学习关于朴素贝叶斯分类文法,查找相关的资料以供参考; 2) 实现朴素贝叶斯分类文法的分类器; 3) 人工对样本数据进行分类和标注; 4) 利用贝叶斯分类文法的分类器,利用样本进行训练,然后对分类数据进行自动 分类; 5) 根据分类结果,调整分类阈值,弥补分类器的不足。 6) 根据实验数据和结果,按时完成毕业设计论文。 主要参考资料:贝叶斯分类算法的论文和资料,未分类文本语料。 完成期限

3、: 指导教师签章: 专业负责人签章: 年 月 日 摘要 随着计算机技术和通讯技术的飞速发展,人们可以获得越来越多的数字化信息, 但同时也需要投入更多的时间对信息进行组织和管理。为了减轻这种负担,人们开始 研究使用计算机对文本进行自动分类。文本自动分类就是在给定的分类体系下,让计 算机根据文本的内容确定与它相关联的类别。自动文本分类是人工智能技术和信息获 取技术相结合的研究领域。随着网络的发展,大量的文档数据涌现在网上,用于处理 海量数据的自动文本分类技术变得越来越重要,已逐渐成为处理和组织大量文档数据 的关键技术。 通过分析 knn(k nearest neighbor)、朴素贝叶斯(naiv

4、e bayes)、svm(support vector machine)三种文本分类方法的优点和缺点,发现朴素贝叶斯分类器速度极快, 具有最小的出错率,可在线化实现等优点,并对该分类方法进行了理论分析和实验对 比,实验结果表明这种文本分类模型是高效的可行的。 本文首先介绍了基于贝叶斯的文本自动分类的研究和实现的背景,并且叙述了相关 问题的概念知识,包括文本分类和中文分词等;其次,对相关的理论知识做了讲解, 包括先验概率、条件概率、贝叶斯理论、贝叶斯算法等;第三,对如何实现文本分类 进行了概述以及整体讲解,通过给出流程图,可以更直观的了解实现的过程;第四, 详细介绍了实现本课题所用到的重要工具,

5、包括 jbuilder2007 开发工具和全文检索引 擎 lucene 以及 java 平台;第五,在前期工作基础上,给出了详细的实现过程,包括 单文本分类和多文本分类以及相关具体操作;最后,通过多次大量重复试验,得出了 实验数据,在此通过表格的形式,直观的给出了实验结果。 本课题研究基于贝叶斯的文本分类系统,根据所讨论的算法构造了贝叶斯文本自 动分离器,并做出详尽的训练测试,从最终的试验结果可以看出,贝叶斯算法简单、 性能优越,即使在不考虑贝叶斯假设的前提下,仍然取得良好的分类性能。 关键字:文本自动分类 ,贝叶斯分类 ,分类文本语料库。 abstract with the computer

6、 technology and the rapid development of communication technology, people can get more and more digital information, but it also needs to devote more time to organize and manage information. in order to alleviate that burden, people began to study the use of computers for automatic classification of

7、 text. automatic text categorization is the classification of a given system, the computer determined in accordance with the contents of the text associated with its category. automatic text classification is the artificial intelligence technology and access to information technology research field.

8、 with the development of network, data on the emergence of a large number of documents online, to deal with massive data technology of automatic text classification is becoming increasingly important, has become an increasingly large number of document processing and organization of the key technolo

9、gies of data. by analyzing the k nearest neighbor、naive bayes、support vector machine method of text classification in three strengths and weaknesses found in naive bayesian classifier speed, with the smallest error rate, can achieve the advantages of online technology, and the classification of the

10、theoretical analysis and experimental comparison, experimental results show that the text categorization model is feasible and efficient. this paper first introduces the bayesian-based text categorization of the research and realization of the background and describes the issues related to the conce

11、pt of knowledge, including text classification and chinese word segmentation . second, the relevant theoretical knowledge to do the explaining, including a priori probability, conditional probability, bayesian theory, the bayesian algorithm . third, on how to achieve the outlined text classification

12、 as well as on the whole, through the given flow chart, you can achieve a more intuitive understanding of the process. fourth, in detail on achieving this important task by use of tools, including development tools and jbuilder2007 full-text search engine lucene and java platform. fifth, prior to th

13、e adoption of the work detailed in this paper the realization of the process, including single-and multi-text classification text categorization and related specific operations; finally, a large number of repeat tests many times, the experimental data obtained in this form through the form, intuitiv

14、e experimental results are given. the research based on bayesian text classification system, according to the algorithm discussed in the text automatically constructed bayesian separator and training to make a detailed test results from the final we can see that the bayesian algorithm is simple, sup

15、erior performance, even without taking into account the assumption that the premise of bayesian still achieve good classification performance. keywords: automatic text categorization, bayesian classifier, classification of text corpora. 目录目录 1.绪论.2 1.1 研究背景.2 1.2 文本分类的研究现状 .2 1.3 分类的含义.3 1.4 文本分类的含义

16、.3 1.5 自动分类.3 1.6 中文分词.3 1.7 中文分词的意义和作用.4 1.8 中文分词的应用.4 1.9 本文的组织 .4 2.条件概率.6 2.1 条件概率定义 .6 2.2 全概率公式和贝叶斯公式 .6 2.3 贝叶斯学习理论 .6 2.4 朴素贝叶斯分类.7 2.5 贝叶斯文本分类算法.9 2.6 文本自动分类的特点.10 3.设计概述.11 3.1 流程图.11 3.2 概要设计.14 4.系统开发环境.15 4.1 java .15 4.2 开放源代码的全文检索引擎 lucene简介.16 5.贝叶斯的文本自动分类的分析与设计.19 5.1 引言 .19 5.2 详细设

17、计 .19 5.3 程序实现 .29 5.4 试验数据.35 6 结论.36 全文总结 .36 未来展望 .36 致谢.37 参考文献.38 1.绪论 1.1 研究背景 我们正处在一个信息急剧丰富的时代,据 1998 年的统计结果显示,全世界每年出 版大约 15600 种期刊,而且这一数字以每年 12000 种的速度递增,同期,仅美国国内就 有近 140 万种图书在付印,这一数据还以平均每年 6 万种的速度在增加。1998 年美国 国会图书馆藏书约 1700 万种,而平均每天接收到的新书就多达 7000 种。 另一个增长惊人的信息渠道是 internet,1999 年的统计结果表明,inter

18、net 上约 有 3.5 亿个静态 html(hypertext markup language 超文本标记语言)页面,每天增加将近 100 万。这些页面大部分是以文本文档的形式存在,而我们日常所接触的信息,也绝大 部分是文本的形式,它们或以印刷品的方式存在,或以电子文档的形式出现。尤其是 近十年来,随着网络的飞速发展,数字图书馆的出现,越来越多的文本信息以电子文 档的形式存在。 面对如此庞大而又急剧膨胀的信息海洋,如何有效地组织和管理这些信息,并能 快速、准确、全面地从中找到用户所需要的信息是当前信息科学与技术领域所面临的 一大挑战。文本分类作为处理和组织大量文本数据的关键技术,可以在较大程

19、度上解 决信息的纷繁杂乱问题,方便用户快度、准确地定位所需要的信息。因此,自动文本 分类已作为一项具有较大实用价值的关键技术,得到了广泛关注,取得了很大进展。 1.2 文本分类的研究现状 国外文本数据分类的研究始于 20 世纪 50 年代末,luhn 在这一领域进行了开创性 的研究,其后许多学者在这一领域进行了卓有成效的研究。 国外文本数据分类研究大体上可以分为三个阶段:第一阶段是 20 世纪 80 年代前。 在这一时期,模式识别和信息检索相继发展成一门学科。这一阶段主要是集中在对分 类理论的研究,应用方面则主要是用于信息检索。第二阶段是 20 世纪 80 年代到 90 年 代。这一阶段主要是

20、采用传统的知识工程技术,在这一时期,信息检索技术逐渐成熟 应用,为文本分类提供了许多技术支持。第三阶段是 20 世纪 90 年代以后。互连网技 术的发展,文本数据量急剧增加,这种耗时、灵活性差、应用难度大的知识工程方法 越来越不能满足实际应用的需要,于是逐渐被机器学习的方法取而代之。 基于机器学习的文本分类方法克服了以前手工建立分类器的缺点,使得文本分类 具有了真正的实用价值。这一时期分类器的特点:一是分类知识来源于机器对训练集的 自动学习,不再依赖于专家;二是学习和分类过程不需要人工干预,分类效率和准确 率都有很大提高。所谓机器学习是指由计算机代替人来学习关于认识世界、改造世界 的知识。 国

21、内文本数据分类研究起步较晚,始于 20 世纪 80 年代初期。我国文本分类的研 究大体上经历了可行性探讨、辅助分类、自动分类系统三个发展阶段。早期对中文文 本的分类研究较少,采用的技术也主要是把英文文本分类的技术应用到中文文本分类 当中。自上世纪 90 年代后期才开始着重于对中文文本分类的研究,结合中文文本的特 点,形成中文文本数据分类研究体系。文本分类方面的文献也非常丰富,常见于信息 检索、机器学习、知识挖掘与发现、模式识别、人工智能、计算机科学与应用等各种 国际会议及相关的期刊或杂志。 1.3 分类的含义 广义的分类(classification 或者 categorization)有两种

22、含义:一种含义是有 指导的学习(supervised learning)过程,另一种是无指导的学习(unsupervised learning)过程。通常前者称为分类,后者称为聚类(clustering) ,后文中提到的分 类是指有指导的学习过程。给定分类体系,将文本集中的每个文本分到某个或者某几 个类别中,这个过程称为文本分类(text categorization) 。 1.4 文本分类的含义 文本分类过程可以分为手工分类和自动分类。前者最著名的实例是 yahoo 的网页 分类体系,是由专家定义了分类体系,然后人工将网页分类。这种方法需要大量人力, 现实中已经采用的很少了。自动文本分类(a

23、utomatic text categorization)算法大 致可以分为两类:知识工程(knowledge engineering)方法和机器学习(machine learning)方法。知识工程方法指的是由专家为每个类别定义一些规则,这些规则代 表了这个类别的特征,自动把符合规则的文档划分到相应的类别中。这方面最著名的 系统是 construe。上个世纪 90 年代之后,机器学习方法成为主导。机器学习方法与知 识工程方法相比,能够达到相似的精确度,但是减少了大量的人工参与。下面主要介 绍基于机器学习方法的文本分类。 1.5 自动分类 1.自动分类基于内容、不需人工干预的文本自动分类技术。

24、系统提供分类训练工 具,允许用户自行根据自己的分类需求和数据特点设定分类结构,自动生成特征模板, 进行分类训练。trs 自动分类支持反馈学习机制,可以根据用户的反馈自动对分类模板 进行完善,从而逐步增加分类的准确率。 2.自动分类是利用模式识别技术实现对遥感影像内容的自动标志识别和分类,即 计算机辅助判读。通常采用特征空间识别方法。是建立在概率论和数理统计基础上, 立足于寻找能反映影像特点的一些特征,经过信息压缩、特征抽取、特征选择和决策 规划来识别地物的计算机自动分类方法。 1.6 中文分词 什么是中文分词?中文分词与其他的分词又有什么不同呢?分词就是将连续的字序 列按照一定的规范重新组合成

25、词序列的过程。我们知道,在英文的行文中,单词之间 是以空格作为自然分界符的,而中文只是字、句和段可以通过明显的分界符来简单划 界,唯独词没有一个形式上的分界符,虽然英文也同样存在短语的划分问题,但是在 词这一层上,中文比之英文要复杂的多、困难的多。 1.7 中文分词的意义和作用 要想说清楚中文分词的意义和作用,就要提到智能计算技术。智能计算技术涉及 的学科包括物理学、数学、计算机科学、电子机械、通讯、生理学、进化理论和心理 学等等。简单的说,智能计算就是让机器“能看会想,能听会讲” 。要想实现这样的一 个目标,首先就要让机器理解人类的语言,只有机器理解了人类的语言文字,才使得 人与机器的交流成

26、为可能。再反观我们人类的语言中, “词是最小的能够独立活动的有 意义的语言成分” ,所以对于中文来讲,将词确定下来是理解自然语言的第一步,只有 跨越了这一步,中文才能像英文那样过渡到短语划分、概念抽取以及主题分析,以至 于自然语言理解,最终达到智能计算的最高境界,实现人类的梦想。 从现阶段的实际情况来看,英文已经跨越了分词这一步,也就是说在词的利用上 已经先我们一步,并且已经展现了良好的应用前景,无论是信息检索还是主题分析的 研究都要强于中文,究其根本原因就是中文要通过分词这道难关,只有攻破了这道难 关,我们才有希望赶上并超过英文在信息领域的发展,所以中文分词对我们来说意义 重大,可以说直接影

27、响到使用中文的每一个人的方方面面。 1.8 中文分词的应用 中文分词主要应用于信息检索、汉字的智能输入、中外文对译、中文校对、自动 摘要、自动分类等很多方面。下面就以信息检索为例来说明中文分词的应用。 通过近几年的发展,互联网已经离我们不再遥远。互联网上的信息也在急剧膨胀,在 这海量的信息中,各类信息混杂在一起,要想充分利用这些信息资源就要对它们进行 整理,如果由人来做这项工作,已经是不可能的,而如果面对中文信息不采用分词技 术,那么整理的结果就过于粗糙,而导致资源的不可用,例如:“制造业和服务业是 两个不同的行业”和“我们出口日本的和服比去年有所增长”中都有“和服” ,而被当 作同一类来处理

28、,结果是检索“和服”的相关信息,会将他们都检索到,在信息量少 的情况下,似乎还能够忍受,如果是海量信息,这样的结果就会令人讨厌了。通过引 入分词技术,就可以使机器对海量信息的整理更准确更合理,在“制造业和服务业是 两个不同的行业”中“和服”不会被当作一个词来处理,那么检索“和服”当然不会 将它检索到,使得检索结果更准确,效率也会大幅度的提高。所以中文分词的应用会 改善我们的生活,使人们真正体会到科技为我所用。 2.条件概率 2.1 条件概率定义 定义定义 设 a, b 是两个事件,且 p(a)0 称 p(ba)=p(ab)/p(a)为在条件 a 下发生的条 件事件 b 发生的条件概率。 乘法公

29、式乘法公式 设 p(a)0 则有 p(ab)=p(ba)p(a) 2.2 全概率公式和贝叶斯公式 定义定义 设 s 为试验 e 的样本空间,b1, b2, bn为 e 的一组事件,若 bibj=, ij, (i, j=1, 2, ,n) ;b1b2bn=s 则称 b1, b2, , bn为样本空间的一个划分。 定理定理 设试验 e 的样本空间为 s,a 为 e 的事件,b1, b2, ,bn为的一个划分,且 p(bi) 0 (i=1, 2, n),则 p(a)=p(ab1)p(b1)+p(ab2)p(b2)+p(abn)p(bn)称为全概 率公式。 定理定理 设试验 e 的样本空间为 s,a

30、为 e 的事件,b1, b2, ,bn为的一个划分,则 p(bia)=p(abi)p(bi)/p(baj)p(aj)=p(bai)p(ai)/p(b) 称为贝叶斯公式。 下面我再举个简单的例子来说明下。考虑一个医疗诊断问题,有两种可能的假设: (1)病人有癌症。 (2)病人无癌症。 样本数据来自某化验测试,它也有两种可能的结果:阳性和阴性。假设已经有先 验知识:在所有人口中只有 0.008 的人患病。此外,化验测试对有病的患者有 98%的可 能返回阳性结果,对无病患者有 97%的可能返回阴性结果。 上面的数据可以用以下概率式子表示: p(cancer)=0.008,p(无 cancer)=0.

31、992 p(阳性|cancer)=0.98,p(阴性|cancer)=0.02 p(阳性|无 cancer)=0.03,p(阴性|无 cancer)=0.97 假设现在有一个新病人,化验测试返回阳性,是否将病人断定为有癌症呢?可以计 算极大后验假设: p(阳性|cancer)p(cancer)=0.98*0.008 = 0.0078 p(阳性|无 cancer)*p(无 cancer)=0.03*0.992 = 0.0298 因此,应该判断为无癌症。 2.3 贝叶斯学习理论 贝叶斯是一种基于概率的学习算法,能够用来计算显式的假设概率,它基于假设 的先验概率,给定假设下观察到不同数据的概率以及观

32、察到的数据本身。 本课题用 p(h)表示没有训练样本数据前假设 h 拥有的初始概率,也就称为 h 的先 验概率,它反映了我们所拥有的关于 h 是一个正确假设的机会的背景知识。当然如果 没有这个先验知识的话,在实际处理中,可以简单地将每一种假设都赋给一个相同的 概率。类似,p(d)代表将要观察的训练样本数据 d 的先验概率(也就是说,在没有确 定某一个假设成立时 d 的概率) 。然后是 p(d/h),它表示假设 h 成立时观察到数据 d 的 概率。在机器学习中,所感兴趣的是 p(h/d),也就是给定了一个训练样本数据 d,判断 假设 h 成立的概率,这也称之为后验概率,它反映了在看到训练样本数据

33、 d 后假设 h 成立的置信度。 (注:后验概率 p(h/d)反映了训练数据 d 的影响,而先验概率 p(h)是 独立于 d 的) 。 argmax( |) map h h hp h d (| ) ( ) argmax ()h h p d h p h p d (2.1)argmax(| ) ( ) h h p d h p h 注意,在最后一步去掉了 p(d) ,因为它是不依赖于 h 的常量。在某些情况下,可 假定 h 中每个假设有相同的先验概率(即对 h 中任意 hi和 hj,p(hi)=p(hj)) 。这时可把 等式(2.1)进一步简化,只需考虑 p(d|h)来寻找极大可能假设。p(d|h)

34、常被称为 给定 h 时数据 d 的似然度,而使 p(d|h)最大的假设被称为极大似然(maximum likelihood,ml)假设 hml p(h|d) = p(d|h)p(h)/p(d) (2.2)argmax(| ) ml h h hp d h 从贝叶斯公式可以看出,后验概率 p(h/d)取决于 p(d|h)p(h)这个乘积,这就是贝 叶斯分类算法的核心思想。要做的就是要考虑候选假设集合 h,并在其中寻找当给定训 练数据 d 时可能性最大的假设 h(h 属于 h) 。 简单点说,就是给定了一个训练样本数据(样本数据已经人工分类好了) ,应该如 何从这个样本数据集去学习,从而当碰到新的数

35、据时,可以将新数据分类到某一个类 别中去。那可以看到,上面的贝叶斯理论和这个任务是吻合的。 2.4 朴素贝叶斯分类 12 argmax(|,.) j mapjn vv vp va aa 可使用贝叶斯公式将此表达式重写为: 12 12 (,.|) () argmax (,.) j njj map vv n p a aav p v v p a aa (2.3) 12 argmax(,.|) () j njj vv p a aav p v 现在要做的是基于训练数据估计式(2.3)中两个数据项的值。估计每个 p(vj) 很容易,只要计算每个目标值 vj出现在训练数据中的频率就可以。然而,除非有一个 非

36、常大的训练数据的集合。否则用这种方法估计不同的 p(a1,a2,an |vj)项不大可行。 问题在于这些项的数量等于可能实例的数量乘以可能目标值的数量。因此为获得合理 的估计,实例空间中每个实例必须出现多次。 朴素贝叶斯分类器基于一个简单的假定:再给定目标值时属性值之间相互条件 独立。换言之,该假定说明在给定实例目标值情况下,观察到联合的 a1,a2,an的概 率等于每个单独属性的概率乘积: 12 (|,.)(|) jnij i p va aap av (2.4) 将其带入(2.3)中,可得朴素贝叶斯分类器所使用的方法: argmax()(|) j nbjij i vv vp vp av (2

37、.5) 其中 vnb是朴素贝叶斯分类器输出的目标值。注意,在朴素贝叶斯分类器中,需从 训练数据中估计的不同 p(ai|vj)项的数量只是不同的属性值数量乘以不同目标值数量 这比要估计 p(a1,a2,an|vj)p(a1,a2,an|vj)所需要的量要小的多。 举个简单的例子,让大家对这个算法的原理有个快速的认识。 假设给定了表 2.1 中训练样本数据,学习的目标是根据给定的天气状况判断你对 playtennis 这个请求的回答是 yes 还是 no。 dayoutlooktemperaturehumiditywindplaytennis d1sunnyhothighweakno d2sunn

38、yhothighstrongno d3overcasthothighweakyes d4rainmildhighweakyes d5raincoolnormalweakyes d6raincoolnormalstrongno d7overcastcoolnormalstrongyes d8sunnymildhighweakno d9sunnycoolnormalweakyes d10rainmildnormalweakyes d11sunnymildnormalstrongyes d12overcastmildhighstrongyes d13overcasthotnormalweakyes

39、d14rainmildhighstrongno 表 2.1 可以看到这里样本数据集提供了 14 个训练样本,本课题将使用此表的数据,并结 合朴素贝叶斯分类器来分类下面的新实例: (outlook = sunny,temprature = cool,humidity = high,wind = strong) 本课题的任务就是对此新实例预测目标概念 playtennis 的目标值(yes 或 no). 由上面的公式可以得到: |,| argmax()(|) j nbjij i vyes no vp vp av = |,| argmax() j j vyes no p v (|) (|) jj p

40、 outlooksunny v p temperaturecool v (|) (|) jj p humidityhigh v p windstrong v (2.6) 可以得到: p(playtennis =yes) = 9/14 = 0.64 p(playtennis=no)=5/14 = 0.36 p(wind=stong| playtennis =yes)=3/9=0.33 p(wind=stong| playtennis =no)=3/5 = 0.6 其他数据类似可得,代入后得到: p(yes)p(sunny|yes)p(cool|yes)p(high|yes)p(strong|ye

41、s) = 0.0053 p(no)p(sunny|no)p(cool|no)p(high|no)p(strong|no)=0.0206 因此应该分类到 no 这一类中。 2.5 贝叶斯文本分类算法 根据联合概率公式(全概率公式) ( ,)(|) ()(|) ( )p c xp c x p xp x c p c (2.7) 即得到贝叶斯公式 (|) ( ) (|) () p x c p c p c x p x (2.8) 则贝叶斯文本分类的任务就是将表示成为向量的待分类文本 x(x1,x2,xn)归类到 与其关联最紧密的类别 c(c1,c2,cj)c(c1,c2,cj)中去。其中 x(x1,x2

42、,xn)为待分类 文本 xq 的特征向量,c(c1,c2,cj)为给定的类别体系。也就是说,求解向量 x(x1,x2,xn)属于给定类别 c1,c2,cj的概率值(p1,p2,pn ),其中,pj为 x(x1,x2,xn)属于 cj的概率,则maxmax(p1,p2,pn)所对应的类别就是文本 x 所属的类别, 因此分类问题被描述为:求解方程(2.8)式的最大值。 12 12 12 ( ,.|) () (|,.) ( ,. ) njj jn n p x xxc p c p cx xx p c cc (2.9) 其中, 1)p(cj)训练文本集中,文本属于类别 cj的概率; 2)p(x1,x2,xn|cj)如果待分类文本属于类别 cj,则类别 cj中包含向量 (x1,x2,xn)的概率;

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论