lunce搜索引擎框架_第1页
lunce搜索引擎框架_第2页
lunce搜索引擎框架_第3页
lunce搜索引擎框架_第4页
lunce搜索引擎框架_第5页
已阅读5页,还剩8页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、全文搜索 lucene 使用与优化2008-01-2320:581 lucene 简介1.1 什么是 luceneLucene 是一个全文搜索框架,而不是应用产品。因此它并不像 或者googleDesktop 那么拿来就能用,它只是提供了一种工具让你能实现这些产品。1.2 lucene 能做什么要回答这个问题,先要了解 lucene 的本质。实际上 lucene 的功能很单一,说到底,就是你给它若干个字符串, 然后它为你提供一个全文搜索服务, 告诉你你要搜索的关键词出现在哪里。知道了这个本质,你就可以发挥想象做任何符合这个条件的事情了。你可以把站内新闻都索引了,做个资料库;你可以把一个数据库表

2、的若干个字段索引起来,那就不用再担心因为“like%”而锁表了;你也可以写个自己的搜索引擎,1.3 你该不 I 无&择 lucene下面给出一些测试数据,如果你觉得可以接受,那么可以选择。测试一:250 万记录,300M 左右文本,生成索引 380M 左右,800 线程下平均处理时间300ms测试二:37000 记录,索引数据库中的两个 varchar 字段,索引文件 2.6M,800 线程下平均处理时间 1.5ms。2 lucene 的工作方式lucene 提供的服务实际包含两部分:一入一出。所谓入是写入,即将你提供的源(本质是字符用)写入索引或者将其从索引中删除;所谓出是读出,即向

3、用户提供全文搜索服务,让用户可以通过关键词定位源。2.1 写入流程源字符串首先经过 analyzer 处理,包括:分词,分成一个个单词;去除 stopword(可选)。将源中需要的信息加入 Document 的各个 Field 中,并把需要索引的 Field 索引起来,把需要存储的 Field 存储起来。将索引写入存储器,存储器可以是内存或磁盘。2.2 读出流程用户提供搜索关键词,经过 analyzer 处理。对处理后的关键词搜索索引找出对应的 Document用户根据需要从找到的 Document 中提取需要的 Field。3 一些需要知道的概念lucene 用到一些概念,了解它们的含义,有

4、利于下面的讲解。3.1 analyzerAnalyzer 是分析器,它的作用是把一个字符串按某种规则划分成一个个词语,并去除其中的无效词语,这里说的无效词语是指英文中的“of”、“the”,中文中的“的”、“地”等词语,这些词语在文章中大量出现,但是本身不包含什么关键信息,去掉有利于缩小索引文件、提高效率、提高命中率。分词的规则千变万化,但目的只有一个:按语义划分。这点在英文中比较容易实现,因为英文本身就是以单词为单位的, 已经用空格分开; 而中文则必须以某种方法将连成一片的句子划分成一个个词语。 具体划分方法下面再详细介绍, 这里只需了解分析器的概念即可。3.2 document用户提供的源

5、是一条条记录, 它们可以是文本文件、 字符串或者数据库表的一条记录等等。一条记录经过索引之后,就是以一个 Document 的形式存储在索引文件中的。用户进行搜索,也是以 Document 列表的形式返回。3.3 field一个 Document 可以包含多个信息域,例如一篇文章可以包含“标题”、“正文”、“最后修改时间”等信息域,这些信息域就是通过 Field 在 Document 中存储的。Field 有两个属性可选:存储和索引。通过存储属性你可以控制是否对这个 Field 进行存储;通过索引属性你可以控制是否对该 Field 进行索引。这看起来似乎有些废话,事实上对这两个属性的正确组合很

6、重要,下面举例说明:还是以刚才的文章为例子,我们需要对标题和正文进行全文搜索,所以我们要把索引属性设置为真,同时我们希望能直接从搜索结果中提取文章标题,所以我们把标题域的存储属性设置为真, 但是由于正文域太大了, 我们为了缩小索引文件大小,将正文域的存储属性设置为假, 当需要时再直接读取文件; 我们只是希望能从搜索解果中提取最后修改时间, 不需要对它进行搜索, 所以我们把最后修改时间域的存储属性设置为真,索引属性设置为假。上面的三个域涵盖了两个属性的三种组合,还有一种全为假的没有用到,事实上 Field 不允许你那么设置,因为既不存储又不索引的域是没有意义的。3.4 termterm 是搜索的

7、最小单位,它表示文档的一个词语,term 由两部分组成:它表示的词语和这个词语所出现的 fieldo3.5 tockentocken 是 term 的一次出现,它包含 trem 文本和相应的起止偏移,以及一个类型字符串。一句话中可以出现多次相同的词语,它们都用同一个 term 表示,但是用不同的tocken,每个 tocken 标记该词语出现的地方。3.6 segment添加索引时并不是每个 document 都马上添加到同一个索引文件, 它们首先被写入到不同的小文件,然后再合并成一个大索引文件,这里每个小文件都是一个 segment。4 lucene 的结构lucene 包括 core 和

8、sandbox 两部分,其中 core 是 lucene 稳定的核心部分,sandbox包含了一些附加功能,例如 highlighter、各种分析器。Lucenecore 有七个包:analysis,document,index,queryParser,search,store,util。4.1 analysisAnalysis 包含一些内建的分析器,例如按空白字符分词的 WhitespaceAnalyzer,添力口了 stopwrod 过滤的 StopAnalyzer,最常用的 StandardAnalyzer。4.2 documentDocument 包含文档的数据结构,例如 Docume

9、nt 类定义了存储文档的数据结构,Field类定义了 Document 的一个域。4.3 indexIndex 包含了索引的读写类,例如对索引文件的 segment 进行写、合并、优化的IndexWriter 类和对索引进行读取和删除操作的 IndexReader 类,这里要注意的是不要被 IndexReader 这个名字误导,以为它是索引文件的读取类,实际上删除索引也是由它完成,IndexWriter 只关心如何将索引写入一个个 segment,并将它们合并优化;IndexReader 则关注索引文件中各个文档的组织形式。4.4 queryParserQueryParser 包含了解析查询语

10、句的类,lucene 的查询语句和 sql 语句有点类似,有各种保留字,按照一定的语法可以组成各种查询。Lucene 有很多种 Query 类,它们都继承自 Query,执行各种特殊的查询,QueryParser 的作用就是解析查询语句,按顺序调用各种 Query 类查找出结果。4.5 searchSearch 包含了从索引中搜索结果的各种类,例如刚才说的各种 Query 类,包括TermQue 眇 BooleanQuery 等就在这个包里。4.6 storeStore 包含了索引的存储类,例如 Directory 定义了索引文件的存储结构,FSDirectory为存储在文件中的索引,RAMD

11、irectory 为存储在内存中的索引,MmapDirectory 为使用内存映射的索引。4.7 utilUtil 包含一些公共工具类,例如时间和字符串之间的转换工具。5 如何建索引9.1 最简单的能完成索引的代码片断IndexWriterwriter=newIndexWriter(7data/index/”,newStandardAnalyzer(),true);Documentdoc=newDocument();doc.add(newField(title,luceneintroduction,Field.Store.YES,Field.Index.TOKENIZED);doc.add(n

12、ewField(content,luceneworkswell,Field.Store.YES,Field.Index.TOKENIZED);writer.addDocument(doc);writer.optimize();writer.close();下面我们分析一下这段代码。首先我们创建了一个 writer,并指定存放索引的目录为“/data/index,使用的分析器为StandardAnalyzer,第三个参数说明如果已经有索引文件在索引目录下,我们将覆盖它们。然后我们新建一个 document我们向 document 添力口一个 field,名字是“title,内容是“lucenei

13、ntroduction,对它进行存储并索引。再添加一个名字是“content”的 field,内容是“luceneworkswell,也是存储并索引。然后我们将这个文档添加到索引中,如果有多个文档,可以重复上面的操作,创建 document 并添力口。添加完所有 document:,我们对索引进行优化,优化主要是将多个 segment 合并到一个,有利于提高索引速度。随后将 writer 关闭,这点很重要。对,创建索引就这么简单!当然你可能修改上面的代码获得更具个性化的服务。9.2 将索引直接写在内存你需要首先创建一个 RAMDirectory,并将其传给 writer,代码如下:Direct

14、orydir=newRAMDirectory();IndexWriterwriter=newIndexWriter(dir,newStandardAnalyzer(),true);Documentdoc=newDocument();doc.add(newField(title,luceneintroduction,Field.Store.YES,Field.Index.TOKENIZED);doc.add(newField(content,luceneworkswell,Field.Store.YES,Field.Index.TOKENIZED);writer.addDocument(doc)

15、;writer.optimize();writer.close();9.3 索引文本文件如果你想把纯文本文件索引起来,而不想自己将它们读入字符串创建 field,你可以用下面的代码创建 field:Fieldfield=newField(content,newFileReader(file);这里的 file 就是该文本文件。该构造函数实际上是读去文件内容,并对其进行索引,但不存储。6 如何维护索引索引的维护操作都是由 IndexReader 类提供。如何删除索引lucene 提供了两种从索引中删除 document 的方法,一种是voiddeleteDocument(intdocNum)这种

16、方法是根据 document 在索引中的编号来删除, 每个 document 加进索引后都会有个唯一编号,所以根据编号删除是一种精确删除,但是这个编号是索引的内部结构,一般我们不会知道某个文件的编号到底是几,所以用处不大。另一种是voiddeleteDocuments(Termterm)这种方法实际上是首先根据参数 term 执行一个搜索操作,然后把搜索到的结果批量删除了。我们可以通过这个方法提供一个严格的查询条件,达到删除指定 document 的目的。下面给出一个例子:Directorydir=FSDirectory.getDirectory(PATH,false);IndexReader

17、reader=IndexReader.open(dir);Termterm=newTerm(field,key);reader.deleteDocuments(term);reader.close();如何更新索引lucene 并没有提供专门的索引更新方法,我们需要先将相应的 document 删除,然后再将新的 document 加入索引。例如:Directorydir=FSDirectory.getDirectory(PATH,false);IndexReaderreader=IndexReader.open(dir);Termterm=newTerm(title”,“luceneintr

18、oduction);reader.deleteDocuments(term);reader.close();IndexWriterwriter=newIndexWriter(dir,newStandardAnalyzer(),true);Documentdoc=newDocument();doc.add(newField(title,luceneintroduction,Field.Store.YES,Field.Index.TOKENIZED);doc.add(newField(content,luceneisfunny,Field.Store.YES,Field.Index.TOKENIZ

19、ED);writer.addDocument(doc);writer.optimize();writer.close();7 如何搜索lucene 的搜索相当强大,它提供了很多辅助查询类,每个类都继承自 Query 类,各自完成一种特殊的查询,你可以像搭积木一样将它们任意组合使用,完成一些复杂操作;另外 lucene 还提供了 Sort 类对结果进行排序,提供了 Filter 类对查询条件进行限制。你或许会不自觉地拿它跟 SQM 句进行比较:lucene 能执行 and、or、orderby、where、like%xx%操作吗?”回答是:“当然没问题!”各种各样的 Query下面我们看看 lu

20、cene 到底允许我们进行哪些查询操作:TermQuery首先介绍最基本的查询,如果你想执行一个这样的查询:“在 content 域中包含lucene的 document,那么彳可以用 TermQueryTermt=newTerm(content,lucene;Queryquery=newTermQuery(t);BooleanQuery如果你想这么查询:“在 content 域中包含 java 或 perl 的 document,那么你可以建立两个 TermQuery 并把它们用 BooleanQuery 连接起来:TermQuerytermQuery1=newTermQuery(newTe

21、rm(content,java);TermQuerytermQuery2=newTermQuery(newTerm(content,perl);BooleanQuerybooleanQuery=newBooleanQuery();booleanQuery.add(termQuery1,BooleanClause.Occur.SHOULD);booleanQuery.add(termQuery2,BooleanClause.Occur.SHOULD);WildcardQuery如果你想对某单词进行通配符查询,你可以用 WildcardQuery,通配符包括?匹配一个任意字符和*匹配零个或多个任意

22、字符,例如你搜索use*,你可能找到useful或者useless:Queryquery=newWildcardQuery(newTerm(content,use*);PhraseQuery你可能对中日关系比较感兴趣,想查找中和日挨得比较近(5 个字的距离内)的文章,超过这个距离的不予考虑,你可以:PhraseQueryquery=newPhraseQuery();query.setSlop(5);query.add(newTerm(content,“中”);query.add(newTerm(content”,“日”);那么它可能搜到“中日合作,”、“中方和日方,”,但是搜不到“中国某高层领

23、导说日本欠扁”。PrefixQuery如果你想搜以中开头的词语,你可以用 PrefixQuery:PrefixQueryquery=newPrefixQuery(newTerm(content,中);FuzzyQueryFuzzyQuery 用来搜索相似的 term,使用 Levenshtein 算法。假设你想搜索跟wuzza相似的词语,你可以:Queryquery=newFuzzyQuery(newTerm(content,wuzza);你可能得到fuzzy和wuzzy。RangeQuery另一个常用的 Query 是 RangeQuery,你也许想搜索时间域从 20060101 到2006

24、0130 之间的 document,你可以用 RangeQueryRangeQueryquery=newRangeQuery(newTerm(“time”,“20060101),newTerm(“time”,“20060130),true);最后的 true 表示用闭合区问。QueryParser看了这么多 Query,你可能会问:“不会让我自己组合各种 Query 吧,太麻烦了! ”当然不会, lucene 提供了一种类似于 SQL句的查询语句, 我们姑且叫它 lucene语句,通过它,你可以把各种查询一句话搞定,lucene 会自动把它们查分成小块交给相应 Query 执行。下面我们对应每

25、种 Query 演示一下:TermQuery 可以用“field:key”方式,例如“content:lucene”。BooleanQuery 中与用+,或用,例如content:javacontenterl”。WildcardQuery 仍然用?和*,例如“content:use*”。PhraseQuery 用,但妆口“content:中日5”。PrefixQuery 用*,例如“中*”。FuzzyQuery 用,但”如content:wuzza。RangeQuery 用口或,前者表示闭区问,后者表示开区间,例如“time:20060101TO20060130”,注意 TO 区分大小写。你可

26、以任意组合 querystring,完成复杂操作,例如“标题或正文包括 lucene,并且时间在 20060101 至 ij20060130 之间的文章”可以表示为:“+(title:lucenecontent:lucene)+time:20060101TO20060130”。代码如下:Directorydir=FSDirectory.getDirectory(PATH,false);IndexSearcheris=newIndexSearcher(dir);QueryParserparser=newQueryParser(content,newStandardAnalyzer();Query

27、query=parser.parse(+(title:lucenecontent:lucene)+time:20060101TO20060130;Hitshits=is.search(query);for(inti=0;ihits.length();i+)Documentdoc=hits.doc(i);System.out.println(doc.get(title);is.close();首先我们创建一个在指定文件目录上的 IndexSearcher。然后创建一个使用 StandardAnalyzer 作为分析器的 QueryParser,它默认搜索的域是content。接着我们用 Quer

28、yParser 来 parse 查询字串,生成一个 Query。然后利用这个 Query 去查找结果,结果以 Hits 的形式返回。这个 Hits 对象包含一个列表,我们挨个把它的内容显示出来。Filterfilter 的作用就是限制只查询索引的某个子集,它的作用有点像 SQM 句里的where,但又有区别,它不是正规查询的一部分,只是对数据源进行预处理,然后交给查询语句。注意它执行的是预处理,而不是对查询结果进行过滤,所以使用 filter 的代价是很大的,它可能会使一次查询耗时提高一百倍。最常用的 filter 是 RangeFilter 和 QueryFilter。RangeFilter

29、 是设定只搜索指定范围内的索引;QueryFilter 是在上次查询的结果中搜索。Filter 的使用非常简单,你只需创建一个 filter 实例,然后把它传给 searcher 继续上面的例子,查询”时间在 20060101 到 20060130 之间的文章”除了将限制写在querystring 中,你还可以写在 RangeFilter 中:Directorydir=FSDirectory.getDirectory(PATH,false);IndexSearcheris=newIndexSearcher(dir);QueryParserparser=newQueryParser(conten

30、t,newStandardAnalyzer();Queryquery=parser.parse(title:lucenecontent:lucene;RangeFilterfilter=newRangeFilter(time,20060101,20060230,true,true);Hitshits=is.search(query,filter);for(inti=0;ihits.length();i+)Documentdoc=hits.doc(i);System.out.println(doc.get(title);is.close();Sort有时你想要一个排好序的结果集,就像 SQM 句

31、的“orderby,lucene 能做到:通过 Sort。Sortsort=newSort(“time);/相当于 SQL!勺“orderbytime”Sortsort=newSort(“time”,true);/相当于 SQL 的“orderbytimedesc”下面是一个完整的例子:Directorydir=FSDirectory.getDirectory(PATH,false);IndexSearcheris=newIndexSearcher(dir);QueryParserparser=newQueryParser(content,newStandardAnalyzer();Query

32、query=parser.parse(title:lucenecontent:lucene;RangeFilterfilter=newRangeFilter(time,20060101,20060230”,true,true);Sortsort=newSort(“time”);Hitshits=is.search(query,filter,sort);for(inti=0;ihits.length();i+)(Documentdoc=hits.doc(i);System.out.println(doc.get(title);)is.close();8 分析器在前面的概念介绍中我们已经知道了分析

33、器的作用,就是把句子按照语义切分成一个个词语。英文切分已经有了很成熟的分析器:StandardAnalyzer,很多情况下 StandardAnalyzer 是个不错的选择。 甚至你会发现 StandardAnalyzer 也能对中文进行分词。但是我们的焦点是中文分词,StandardAnalyzer 能支持中文分词吗?实践证明是可以的,但是效果并不好,搜索“如果”会把“牛奶不如果汁好喝”也搜索出来,而且索引文件很大。那么我们手头上还有什么分析器可以使用呢?core里面没有,我们可以在 sandbox 里面找到两个:ChineseAnalyzer 和 CJKAnalyzero 但是它们同样都有

34、分词不准的问题。相比之下用StandardAnalyzer 和 ChineseAnalyzer 建立索引时间差不多,索引文件大小也差不多,CJKAnalyzer 表现会差些,索引文件大且耗时比较长。要解决问题,首先分析一下这三个分析器的分词方式。StandardAnalyzer 和ChineseAnalyzer 都是把句子按单个字切分,也就是说“牛奶不如果汁好喝”会被它们切分成“牛奶不如果汁好喝”;而 CJKAnalyzer 则会切分成“牛奶奶不不如如果果汁汁好好喝”。这也就解释了为什么搜索“果汁”都能匹配这个句子。以上分词的缺点至少有两个: 匹配不准确和索引文件大。 我们的目标是将上面的句子

35、分解成“牛奶不如果汁好喝”。 这里的关键就是语义识别, 我们如何识别“牛奶”是一个词而“奶不”不是词语?我们很自然会想到基于词库的分词法,也就是我们先得到一个词库,里面列举了大部分词语,我们把句子按某种方式切分,当得到的词语与词库中的项匹配时,我们就认为这种切分是正确的。这样切词的过程就转变成匹配的过程,而匹配的方式最简单的有正向最大匹配和逆向最大匹配两种, 说白了就是一个从句子开头向后进行匹配, 一个从句子末尾向前进行匹配。基于词库的分词词库非常重要,词库的容量直接影响搜索结果,在相同词库的前提下,据说逆向最大匹配优于正向最大匹配。当然还有别的分词方法,这本身就是一个学科,我这里也没有深入研

36、究。回到具体应用,我们的目标是能找到成熟的、现成的分词工具,避免重新发明车轮。经过网上搜索,用的比较多的是中科院的 ICTCLAS 和一个不开放源码但是免费的 JE-Analysis。 ICTCLASW 个问题是它是一个动态链接库,java 调用需要本地方法调用,不方便也有安全隐患,而且口碑也确实不大好。JE-Analysis 效果还不错,当然也会有分词不准的地方,相比比较方便放心。9 性能优化一直到这里,我们还是在讨论怎么样使 lucene 跑起来,完成指定任务。利用前面说的也确实能完成大部分功能。但是测试表明 lucene 的性能并不是很好,在大数据量大并发的条件下甚至会有半分钟返回的情况

37、。另外大数据量的数据初始化建立索引也是一个十分耗时的过程。那么如何提高 lucene 的性能呢?下面从优化创建索引性能和优化搜索性能两方面介绍。优化创建索引性能这方面的优化途径比较有限,IndexWriter 提供了一些接口可以控制建立索引的操作,另外我们可以先将索引写入 RAMDirectory,再批量写入 FSDirectory,不管怎样,目的都是尽量少的文件 IO,因为创建索引的最大瓶颈在于磁盘 IO。另外选择一个较好的分析器也能提高一些性能。通过设置 IndexWriter 的参数优化索引建立setMaxBufferedDocs(intmaxBufferedDocs)控制写入一个新的

38、segment 前内存中保存的 document 的数目,设置较大的数目可以加快建索引速度,默认为 10。setMaxMergeDocs(intmaxMergeDocs)控制一个 segment 中可以保存的最大 document 数目,值较小有利于追加索引的速度,默认 Integer.MAX_VALUE,无需修改。setMergeFactor(intmergeFactor)控制多个 segment 合并的频率,值较大时建立索引速度较快,默认是 10,可以在建立索引时设置为 100。通过 RAMDirectory 缓写提高性能我们可以先把索引写入 RAMDirectory,达到一定数量时再批量

39、写进FSDirectory,减少磁盘 IO 次数。FSDirectoryfsDir=FSDirectory.getDirectory(/data/index,true);RAMDirectoryramDir=newRAMDirectory();IndexWriterfsWriter=newIndexWriter(fsDir,newStandardAnalyzer(),true);IndexWriterramWriter=newIndexWriter(ramDir,newStandardAnalyzer(),true);while(therearedocumentstoindex).create

40、Document.ramWriter.addDocument(doc);if(conditionforflushingmemorytodiskhasbeenmet)fsWriter.addIndexes(newDirectory 口ramDir);ramWriter.close();ramWriter=newIndexWriter(ramDir,newStandardAnalyzer(),true);选择较好的分析器这个优化主要是对磁盘空间的优化,可以将索引文件减小将近一半,相同测试数据下由 600M 减少到 380M 但是对时间并没有什么帮助,甚至会需要更长时间,因为较好的分析器需要匹配词库

41、,会消耗更多 cpu,测试数据用StandardAnalyzer 耗时 133 分钟;用 MMAnalyzer 耗时 150 分钟。优化搜索性能虽然建立索引的操作非常耗时, 但是那毕竟只在最初创建时才需要, 平时只是少量的维护操作,更何况这些可以放到一个后台进程处理,并不影响用户搜索。我们创建索引的目的就是给用户搜索, 所以搜索的性能才是我们最关心的。 下面就来探讨一下如何提高搜索性能。将索引放入内存这是一个最直观的想法,因为内存比磁盘快很多。Lucene 提供了 RAMDirectory可以在内存中容纳索引:DirectoryfsDir=FSDirectory.getDirectory(Di

42、rectoryramDir=newRAMDirectory(fsDir);Searchersearcher=newIndexSearcher(ramDir);但是实践证明 RAMDirectory 和 FSDirectory 速度差不多,当数据量很小时两者都非常快,当数据量较大时(索引文件 400MRAMDirectory 甚至比 FSDirectory 还要慢一点,这确实让人出乎意料。而且 lucene 的搜索非常耗内存,即使将 400M 的索引文件载入内存,在运行一段时间后都会 outofmemory,所以个人认为载入内存的作用并不大。优化时间范围限制既然载入内存并不能提高效率, 一定有其

43、它瓶颈, 经过测试发现最大的瓶颈居然是时间范围限制,那么我们可以怎样使时间范围限制的代价最小呢?当需要搜索指定时间范围内的结果时,可以:1、用 RangeQuery,设置范围,但是 RangeQuery 的实现实际上是将时间范围内的时间点展开,组成一个个 BooleanClause 加入到 BooleanQuery 中查询,因此时间范围不可能设置太大, 经测试, 范围超过一个月就会抛 BooleanQuery.TooManyClauses,可以通过设置 BooleanQuery.setMaxClauseCount(intmaxClauseCount)扩大,但是扩大也是有限的,并且随着 maxClauseCount 扩大,占用内存也扩大2、用 RangeFilter 代替 RangeQuery 经测试速度不会比 RangeQuery 慢,但是仍然有性能瓶颈,查询的 90 犯上时间耗费在 RangeFilter,研究其源码发现 RangeFilter 实际上是首先遍历所有索引,生成一个 BitSet,标记每个 document,在时间范围内的标记为true,不在的标记为 false,然后将结果传递给 Searcher 查找,这是十分

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论