人人文库网 > 毕业设计 > JSJ01-042@ASP.NET基于Ajax+Lucene构建搜索引擎的设计和实现(源代码+论文)
ASP.NET基于Ajax+Lucene构建搜索引擎的设计和实现.doc
JSJ01-042@ASP.NET基于Ajax+Lucene构建搜索引擎的设计和实现(源代码+论文)
收藏
资源目录
压缩包内文档预览:(预览前20页/共24页)
编号:507955
类型:共享资源
大小:12.84MB
格式:ZIP
上传时间:2015-11-10
上传人:QQ28****1120
认证信息
个人认证
孙**(实名认证)
辽宁
IP属地:辽宁
12
积分
- 关 键 词:
-
毕业设计计算机
- 资源描述:
-
JSJ01-042@ASP.NET基于Ajax+Lucene构建搜索引擎的设计和实现(源代码+论文),毕业设计计算机
- 内容简介:
-
DataBase 里存放的是数据库文件SearchWeb里是搜索模块Spider 里是爬虫模块DirIndexer里是建立索引模块SqlAccess 里是关于数据库操作的一些函数,接口之类nts 分类号: TP311.1 U D C: D10621-408-(2007)5819-0 密 级:公 开 编 号: 2003032115 成都信息工程学院 学位论文 基于 Ajax+Lucene 构建搜索引擎的设计与实现 论 文 作 者 姓 名 : 闫秋云 申 请 学 位 专 业 : 网络工程 申 请 学 位 类 别 : 工学学士 指导教师姓名(职称): 方睿(副教授) 论 文 提 交 日 期 : 2007 年 06 月 10 日 nts 基于 Ajax+Lucene 构建搜索引擎的设计与实现 摘 要 通过搜索引擎从 互联网上 获取有用信息 已经成为 人们生活的重要组成部分, Lucene 是构建搜索引擎的其中一种方式 。 搜索引擎 系统 是在 .Net 平台上用C#开发的 , 数据库是 MSSQL Server 2000。主要完成的功能 有 : 用 爬虫抓取网页;获取有效信息放入数据库; 通过 Lucene 建立索引;对简单关键字进行搜索;使用 Ajax 的局部刷新页面 展示 结果 。 论文详细说明了系统开发的背景,开发环境,系统的需求分析,以及功能的设计与实现。 同时 讲述了 搜索引擎的原理, 系统 功能 ,并 探讨 使用 Ajax 与服务器进行数据异步 交互 , 从而 改善 现有的 Web 应用模式。 关键词 : L; 异步更新 ; Ajax; 搜索引擎 nts The Design and Implementation for Constructing the Search Engine with Ajax and Lucene Abstract Obtaining useful information from web by search engines has become the important part of peoples lives. Lucene is the way of constructing search engine. This system is based on the .Net platform using C#. The database is MSSQL Server 2000. Main functions are grasping web pages with crawls, adding effective information to the database, establishing index with Lucene, searching through keywords, and displaying the results finally. This paper has showed the principle of search engine in the form of different modules, functions of this system, improving traditional web application model using Ajax. It shows explanation of the systems background, development environment, system analysis of demanding, and functions of design. Key words: L; Asynchronous update; Ajax; Search engines nts 目 录 论文总页数: 19 页 1 引言 1 1.1 课题背景 1 1.2 国内外研究现状 1 1.3 本课题研究的意义 1 1.4 本课题的研究方法 1 2 L 构建搜索引擎原理 2 2.1 全文搜索引擎 2 2.1.1 搜索引擎的分类 2 2.1.2 搜索引擎的工作原理 2 2.2 LUCENE 与搜索引擎 3 2.3 索引和搜索 4 2.4 AJAX 技术 4 3 需求分析 5 3.1 同步环境 5 3.2 功能需求 6 3.3 性能需求 6 3.4 输入输出要求 7 3.5 运行需求 7 4 方案设计 7 4.1 搜索引擎模型 7 4.2 数据库的设计 7 4.3 模块设计 8 5 系统实现 10 5.1 开发环境 10 5.2 关键代码详解 10 5.2.1 代码结构 10 5.2.2 爬虫部分 10 5.2.3 索引生成 12 5.2.4 页面查询 13 6 测试 14 6.1 功能测试 14 结 论 16 nts 参考文献 16 致 谢 18 声 明 19 nts 第 1 页 共 19 页 1 引言 1.1 课题背景 Lucene 是一个基于 Java 的全文信息检索工具包,它为应用程序提供索引和搜索功能。 Lucene 目前是 Apache Jakarta 家族中的一个开源项目。也是目前最为流行的基于 Java 开源全文检索工具包。 Lucene 是 Java 世界中常用的索引 API,使用它提供的方法可以为文本资料创建索引,并提供 检索。 L 它只在命名方面采纳了 .Net 的建议,主要目标倾向于和 Java Lucene 兼容:一个是索引格式兼容,达到可以共同工作的目的;一个是命名接近(只相差很少,比如大小写等),目的是可以方便开发者使用 Java Lucene 相关的代码和资料。 1.2 国内外研究现状 国 内 外 对搜索引擎研究比较著名的 便 是 Google 了。 无论搜索技术本身还是搜索范围与深度 , Google 搜索 总是所有搜索引擎的 目标 。 Google 专业领域搜索方面 做 的 成效是有目共睹 的 。 Google 在低层次的智能搜索方面已经开始研究很多年 了,实际的成果就是翻译方面。利用搜索技术,加上经验主义发展出来的Google 翻译机器人,在外语翻译方面已经比传统的翻译好很多了。但是翻译仅仅是学术方面的应用,更重要的是 Google 建立起来的海量搜索历史记录。如果把这些海量搜索历史记录当作是词典的话,那么如果与搜索技术的结合发展成为低层次的只能搜索,那么应用就将大大加强与广泛。 国内 , 对搜索引擎的专注和对中文的理解能力也是中国本土搜索 引擎行 业独特的竞争力。 国内比较著名的比如 百度 ,更专注对中文的处理。 中文的 意思多种多样 , 是很难用程序处理的 。 目前国内外都在做中文 引擎,门户网站、非门户网站也都在进军搜索业,成立搜索门户 。为了 满足用户更深层次的需求 ,国内 的搜索引擎也在不断的完善自己。如何 将人类的知识和智能加入到检索中,如何 使搜索引擎的质量产生一个质的飞跃 ,也是国内搜索引擎努力 的 方向。 中国网民对智能化搜索需求 也是显而易见的。 这也意味着搜索不再是简单的技术或者是网络导航而已,而是会成为普通人生活中必备的工具之一。 1.3 本课题研究的意义 随着计算机技术和互联网技术的飞速发展,网络上的信息量急剧增长,要在浩如烟海的网络世界中寻找需要的信息,作为现代信息获取技术的主要应用,那么搜索引擎是必 不 可少的。通过 L,可以很方便的构建起搜索引擎,本毕业设计除了考查使学生综合运用以前所学知识的能力,同时也使学生了解当今 搜索 及编程的一些新技术,并模拟 简单的 搜索 引擎开发。 1.4 本课题的研究方法 在本系统的开发过程中,首先分 析 了 搜索引擎 的相关功能 , 写出需求分析;nts 第 2 页 共 19 页 其次,综合运用以前所学的相关知识(数据 库, C 等),选择所熟悉的开发工具进行开发(本系统选择了 Microsoft Visual Studio .NET 2003 作为开发平台,开发语言选择了 C#;数据库采用 Microsoft SQL Server 2000) 。 由于 Lucene不是完整的搜索引擎程序 , 只为搜索引擎应用提供了工具包 , 在 A 平台中,可使用 L 这个对 Lucene 兼容的库 。 使用 L 协助 完成搜索引擎相关的网页爬虫与抓取,为文档建立索引,关键词搜索的功能,通过 Ajax 优化系统,完成页面的局部刷新功能,给用户好的体验。 2 L 构建 搜索引擎原 理 2.1 全文 搜索引擎 2.1.1 搜索引擎的分类 获得网站网页资料,能够建立数据库并提供查询的系统,我们都可以把它叫做搜 索引擎。 真正意义上的搜索引擎,通常指的是收集了因特网上几千万到几十亿个网页并对网页中的每一个词(即关键词)进行索引,建立索引数据库的全文搜索引擎。当用户查找某个关键词的时候,所有在页面内容中包含了该关键词的网页都将作为搜索结果被搜出来。在经过复杂的算法进行排序后,这些结果将按照与搜索关键词的相关度排列 。 按照工作原理的不同,可以把它们分为两个基本类别:全文搜索和分类目录。 全文搜索引擎 通过从互联网上提取的各个网站的信息(以网页文字为主)而建立的数据库中,检索与用 户查询条件匹配的相关记录,然后按一定的排列顺序将 结果返回给用户 。 从搜索来源的角度,全文搜索引擎又可细分为两种,一种是拥有自己的检索程序( Indexer),俗称 “ 蜘蛛 ”( Spider) 程序或 “ 机器人 ” ( Robot)程序,并自建网页数据库,搜索结果直接从自身的数据库中调用;另一种则是租用其他引擎的数据库,并按自定的格式排列搜索结果 。 分类目录则是通过人工的方式收集整理网站资料形成数据库的,比如雅虎中国以及国内的搜狐、新浪、网易分类目录。另外,在网上的一些导航站点,也可以归属为原始的分类目录。 2.1.2 搜索引擎的工作原理 搜索引擎的原理,可以 看作 三步:从互 联网上抓取网页 , 建立索引数据库 ,在索引数据库中搜索。 全文搜索引擎的 “ 网络蜘蛛 ” 能够扫描一定地址范围内的网站,并沿着网络上的链接从一个网页到另一个网页,从一个网站到另一个网站采集网页资料。它为保证采集的资料最新,还会回访已抓取过的网页。网络机器人或网络蜘蛛采集的网页,还要有其它程序进行分析,根据一定的相关度算法进行大量的计算建立网页索引,才能添加到索引数据库中。我们平时看到的全文搜索引擎,nts 第 3 页 共 19 页 实际上只是一个搜索引擎系统的检索界面,当你输入关键词进行查询时,搜索引擎会从庞大的数据库中找到符合该关键词的所有相关网 页的索引,并按一定规则呈现给我们。不同的搜索引擎,网页索引数据库不同 , 搜索结果也就不尽相同。 利用能够从互联网上自动收集网页的 Spider 程序,自动访问互联网,并沿着 网页中的所有 URL 爬到其它网页,重复这过程,并把爬过的所有网页收集回来。 然后 建立索引数据库 , 由分析索引程序对收集回来的网页进行分析,提取相关网页信息(包括网页所在 URL、编码类型、页面内容包含的关键词、关键词位置、 生成时间、大小、与其它网页的链接关系等) ,然后用这些相关信息建立网页索引数据库。 接下来 在索引数据库中搜索排序 , 当用户输入关键词搜索后 ,由搜索系统程序从网页索引数据库中找到符合该关键词的所有相关网页。最后,由页面生成系统将搜索结果的链接地址和页面内容摘要等内容组织起来返回给用户。搜索引擎只能搜到它网页索引数据库里储存的内容。 2.2 Lucene 与搜索引擎 Lucene 是一个全文信息检索工具包,为应用程序提供索引和搜索功能。 和Java Lucene 兼容 的 L 可以用在 .net 平台。 Lucene 能够为文本类型的数据建立索引,所以你只要能把你要索引的数据格式转化的文本的, Lucene 就能对你的文档进行索引和搜索。比如你要对一些 HTML 文档, PDF 文档进行索引的话你就首先需要把 HTML 文档和 PDF 文档转化成文本格式的,然后将转化后的内容交给 Lucene 进行索引,然后把创建好的索引文件保存到磁盘或者内存中,最后根据用户输入的查询条件在索引文件上进行查询。不 规 定要索引的文档的格式也使 Lucene 能够适用于 几乎 所有的搜索应用程序。 如 图 1 表示了搜索应用程序和 Lucene 之间的关系,也反映了利用 Lucene构建搜索应用程序的流程: 图 1 应用程序和 Lucene nts 第 4 页 共 19 页 2.3 索引和搜索 索引是现代搜索引擎的核心,建立索引 是把数据 源 处理成非常方 便查询的索引文件的过程。为什么索引这么重要呢,试想你现在要在大量的文档中搜索含有某个关键词的文档,那么如果不建立索引的话你就需要把这些文档顺序的读入内存,然后检查这个文章中是不是含有要查找的关键词,这样的话就会耗费非常多的时间,想想搜索引擎可是在毫秒级的时间内查找出要搜索的结果的。这就是由于建立了索引的原因,你可以把索引想象成这样一种数据结构,他能够使你快速的随机访问存储在索引中的关键词,进而找到该关键词所关联的文档。 Lucene 采用的是一种称为反向索引( inverted index)的机制。反向索引就是说 我们维护了一个词 /短语表,对于这个表中的每个词 /短语,都有一个链表描述了有哪些文档包含了这个词 /短语。这样在用户输入查询条件的时候,就能非常快的得到搜索结果。我们将在本系列文章的第二部分详细介绍 Lucene 的索引机制,由于 Lucene 提供了简单易用的 API,所以 也可以非常容易的使用 Lucene对文档实现索引 的建立 。 对文档建立好索引后,就可以在这些索引上面进行搜索了。搜索引擎首先会对搜索的关键词进行解析,然后再在建立好的索引上面进行查找,最终返回和用户输入的关键词相关联的文档。 2.4 Ajax技术 Ajax 全称为 “Asynchronous JavaScript and XML”(异步 JavaScript 和 XML),是指一种创建交互式网页应用的网页开发技术。 Ajax 技术是目前在浏览器中通过 JavaScript 脚本可以使用的所有技术的集合。包括: HTML 和 CSS, 使用文档对象模型 DOM 作动态显示和交互 , 使用 XML 做数据交互和操作 , 使用XMLHttpRequest 进行异步数据接收 , 使用 JavaScript 将它们绑定在一起 。 Ajax 技术之中,核心的技术就是 XMLHttpRequest,它最初的名称叫做XMLHTTP,是微软公司为了满足开发者的需要, 1999 年在 IE5.0 浏览器中率先推出的。后来这个技术被上述的规范命名为 XMLHttpRequest。它正是 Ajax技术之所以与众不同的地方。简而言之, XMLHttpRequest 为运行于浏览器中的JavaScript脚本提供了一种在页面之内与服务器通信的手段。页面内的 JavaScript可以在不刷新页面的情况下从服务器获取数据,或者向服务器提交数据。XMLHttpRequest 的出现为 Web 开发提供了一种全新的可能性,甚至整个改变了人们对于 Web 应用由什么来组成的看法。 它可以使我们以一种全新的方式来做 Web 开发,为用户提供更好的交互体验。 传统的 web 应用模型 如 图 2: nts 第 5 页 共 19 页 图 2 Web 应用模型 与传 统的 Web 开发不同 , Ajax 并不是以一种基于静态页面的方式来看待Web 应用的。从 Ajax 的角度看来 , Web 应用应由少量的页面组成,其中每个页面其实是一个更小型的 Ajax 应用。每个页面上面都包括有一些使用 JavaScript开发 的 Ajax 组件。这些组件使用 XMLHttpRequest 对象以异步的方式与服务器通信,从服务器获取需 要的数据后使用 DOM API 来更新页面中的一部分内容。因此 Ajax 应用与传统的 Web 应 用的区别主要在三个地方: 1. 不刷新整个页面,在页面内与服务器通信。 2. 使用异步方式与服务器通信,不需要打断用户的操作,具有更加迅速的响应能力。 3. 系统 仅由少量页面组成。大部分交互在页面之内完成,不需要切换整个页面。 由此可 见, Ajax 使得 Web 应用更加动态,带来了更高的智能,并且提供了表现能力丰富的 Ajax UI 组件。 3 需求分析 3.1 同步环境 本系统的同步环境如图 3: 用户操作后等待 . 服务器端处理 客户端页面 处理 新的页面呈现 数据提交 数据返回 nts 第 6 页 共 19 页 因 特 网检 索 服 务 器图 3 同步环境 检索服务器通过 Internet 检索 Web 页面 。 3.2 功能需求 本设计要实现的功能: 1. 能够对 Internet 上的网页 内容、标题、链接等信息按链式收集 。 2. 能够实现一定 链接 深度的 网页收集 ,也就是在 Internet 上实现一定的 URL级的数据 收录 。 3. 对收集到的数据存入 MSSQL Server 2000 等关系型数据库中、或者存入文本文件中。 4. 网站信息库中的信息会不断的变动 ,对收集到的数据需要定期的自动维护,做到定期的删除、从新收集。 5. 对收集到的数据进行关键词的检索。 6. 对检索出 的数据要可定位性 , 即可以 显示 对数据的出处的链接。 7. 实现中英文分词功能 , 能够按中文或者英文单词检索数据。 8. 实现无刷新的显示搜索结果 , 对搜索用时的计算、显示,关键字高亮显示等。 9. 逻辑搜索功能比如“中国” AND“北京” AND NOT(“海淀区” AND“中关村”)。 3.3 性能需求 1. 精度 : 1.1 对收集到的信息需要一定的完整性,即对链接层次里的每个链接页面都能够收集得到,并写入收集的存储区里。 1.2 对搜索出的内容需要包含有关键字信息 2. 时间特性要求: 2.1 数据收集时,因为是对 Internet 网上 Web 信息的收 集,并且采用 URLnts 第 7 页 共 19 页 级链式的网页收集。收集数据时不能够出现无响应的等待。 2.2 搜索时响应时间应不超过 3 秒,无论搜索的记录多少。 3. 灵活性 3.1 具有良好的中文切词功能。 3.4 输入输出要求 输入: 搜索的关键字 。 处理: 去前后空格,关键字,查询索引库。 输出: Web 页面上显示搜索信息。 3.5 运行需求 1 硬件环境需求 : 需要使用 专用服务器, P4 以上, 512M 以上内存, 80G 以上硬盘; Internet网络连接。 2 软件环境: 源 端: Windows 2003/XP 操作系统、 MSSQL Server 2000 数据库、 IIS5.0、 .NET Framework1.1。 4 方案 设计 结合前面的同步原理,以及需求的介绍,下面给出同步的方案设计 。 4.1 搜索引擎 模型 模型包括 爬虫 、 索引 生成 、查询 以及 系统 配置 部分 。 爬虫 包括: 网页 抓取模块 、 网页减肥 模块 、 爬虫维持 模块 。 索引生成 包括 : 基于文本文件的索引 、基于数据库的索引 。 查询 部分 有 Ajax、后台处理 、前台界面 模块 。 如图 4 所示。 图 4 系统模块 4.2 数据库的设计 本课题包含一张 用于 存放 抓取回来的网页 信息 如表 1。 nts 第 8 页 共 19 页 表 1 网页 数据 存储 表 逻辑字段名 物理字段名 字段 类型 是否为空 主键 外键 说 明 编号 ID int NOT NULL Yes 自增加 地址 Url Varchar(50) NOT NULL 内容 Content VARCHAR(1000) NOT NULL meta标签内容 Mata Varchar(100) NOT NULL 网页标题 Title Varchar(100) NOT NULL 创建时间 Createdate Datetime(8) NOT NULL 4.3 模块设计 该模型按照功能划分为 三 个部分,一是 爬虫 抓取网页部分 ,二是 从数据库建立 索引 部 分 ,三是 从前台页面 查询 部 分 。系统的功能流程 (如 图 5.1 和 5.2)。 输 入 一 个 U R L结 果 列 表启 动 爬 虫 程 序 使 用 L u c e n e . n e t 文 档 类建 立 文 档 索 引不 断 的 抓 取 网 页写 入 数 据 库去 掉 多 余 标 签获 取 有 效 记 录页 面 上 输 入 关 键 字使 用 L u c e n e . n e t 搜 索 类是 否 成 功YA J A X图 5.1 功能流程图 nts 第 9 页 共 19 页 图 5.2 模块图 该系统用 3 个模块来实现搜索引擎的主要功能。流程如上图 所示。 从一个或 若干初始网页的 URL 开始,获得初始网页上的 URL,在抓取网页的过程中,不断从当前页面上抽取新的 URL 放入队列 ,直到满足系统的一定停止条件 。这条件可以是 限定的谋个 域名空间 、或者是限定的网页抓取级数。当在获取 URL 时 存在 这样的问题 就是 在实际应用中 主要以绝对地址和相对地址来表现。绝对地址是指一个准确的、无歧义的 Internet 资源的位置,包含域名(主机名)、路径名和文件名;相对地址是绝对地址的一部分 。 然后把抓取到的网页信息包括 网页内容 、 标题 、 链接 抓取时间 等信息 经过 减肥 后 保存到网页存储数据库表里 。 然后 通过正则表达式,去掉多余的 HTML 标签。因为抓取的网页含有 HTML 标签、 Javascript 等,对搜索多余的信息,如果抓取到的网页不经过处理就会使搜索变得不够 精确。 让爬虫程序能继续运行下去 , 就得抓取这个网页上的其它 URL, 所 以 要 用正则 将这个网页上的所有 URL 都取出来 放到一个队列里 。 用同样的方法继续抓取网页 , 这里将运用到多线程技术 。 为 了对 文档进行索引, Lucene 提供了五个基础的类,他们分别是 Document,Field, IndexWriter, Analyzer, Directory Document 是用来描述文档的,这里的文档可以指一个 HTML 页面,一封电子邮件,或者是一个文本文件。一个Document 对象由多个 Field 对象组成的。可以把一个 Document 对象想象成数据库中的一个记录,而每个 Field 对象就是记录的一个字段 。 在一个文档被索引之前,首先需要对文档内容进行分词处理,这部分工作就是由 Analyzer 来做的。Analyzer 类是一个抽象类,它有多个实现。针对不同的语言和应用需要选择适合的 Analyzer。 Analyzer 把分词后的内容交给 IndexWriter 来建立 索引 。 所有的搜索引擎的目标都是为了用户查询。通过查询页面,输入关键字,提交给系统,程序就开始处理,最后把结果以列表的形式显示出来 。 在用 Lucene的搜索引擎中,用到了 Lucene 提供的方法,可从所建立的索引文档中获得结果。 nts 第 10 页 共 19 页 5 系统 实现 5.1 开发环境 开发平台的选择:本系统的开发平台选择微软公司的 .NET,开发工具采用ASP.NET。 .NET 是 Microsoft 面向 Web 服务的平台,由框架、 Web 服务、 .NET企业服务器等几部分组成,提供涉及面较广、功能较全面的解决方案。数据库选择:根据需求分析选择了 MSSQL Server 2000。 5.2 关键代码详解 5.2.1 代码结构 如图 6: 写入 读取 生成 引用 检索 图 6 代码结构 在网页爬虫 Console 端应用程序里输入一个有效的 URL后这部份就开始从第一个 URL 开始遍历相关的链接并把相关的信息写入到网页数据存储数据库里,然后就由索引生成程序读取网页数据存储数据库,对每条记录生成索引记录,存放于生成的索引库文件里。生成索引需要调用 Lucene.Net 类。索引生成后在查询部分就能够在网页上输入关键字,对刚才抓取的信息的查询。并可以定位到信息的出处。下面对各部分关键代码进行详解。 5.2.2 爬虫 部分 这部份的功能就是从输入的 URL 开始遍历各个相关的网页,它包括三个功能模块: 网页抓取模块、网页减肥 模块、爬虫维持模块。 首先定义一些变量用于保存抓取到的网页信息, urlList 用于保存当前页面上的 URL集合。然后根据全局变量 url抓取此 URL的网页信息到字节流变量里,经过转码后读取到变量 PageString 里,下步通过函数 GetHttpUrl(PageString)对PageString 中的 URL 标 记 进 行 提 取并 返 回 到 urlList 变量里,函数GetTitle(PageString) 、 parseScript(PageString) 、 parseHtml(PageString) 、网页爬虫 Console 端应用程序 数 据 库 索引生成 Console 端应用 Lucene.Net Lucene.Net 查询 Web 程序 nts 第 11 页 共 19 页 parseChar(Content)分别对网页信息变量获取标题、去除脚本块、去除 HTML 标记、去除特殊字符操作。再下步就是对获取到的标题、网页内容、链接等信息调用数据库操作通用类 DAI 保存到数据库里,这就实现了一个网页的抓取。再下步就是循环的对获取到的 URL 列表创建线程,针对每个 URL 来循环的执行上面的网页信息的抓取操作。 具体代码如下: private static void UrlThread() String title=; String Content=; String mata=; string URL=; string urlArr = null; StringBuilder urlList = new StringBuilder(); System.Net.WebClient Client=new System.Net.WebClient(); try Stream strm=null; try /读取一个 URL的信息到 流变量里 Stream strm=Client.OpenRead(url); catch console.WriteLine(url无法找到! ); return; StreamReader sr=new StreamReader(strm,Encoding.GetEncoding(gb2312); String PageString=sr.ReadToEnd();/从流中读取 网页 信息到 字符串变量中 strm.Close(); urlList = GetHttpUrl(PageString); title=GetTitle(PageString); Content = parseScript(PageString); /去掉脚本 的网页文本 Content=parseHtml(PageString); /得到去了 HTML标签的 网页文本 URL=url; mata=; Content = parseChar(Content); if(title != | title != string.Empty) & URL != ) DAI.RunSqlNonQuery(insert into WebContent(url,content,title,mata) values(+URL+,+Content+,+title+,+mata+); Console.WriteLine(对 url:+URL+相关信息写入数据库成功 !); else nts 第 12 页 共 19 页 Console.WriteLine(对 url:+URL+相关信息写入数据库失败 !); urlArr=urlList.ToString().Split(|); /对前面获取的 URL列表 循环的创建线程 再执行本方法实现 爬虫的 维持 for(int i=0;i结果数 :+result+ 所用时间 :+t+毫秒 ); 前台显示结果记录的代码 ,动态生成 table 标签 ,如下 : for(int i = startNum ; i +keywords+); sb.Append(); sb.Append(+doc.Get(title)+); nts 第 14 页 共 19 页 sb.Append(); sb.Append(); sb.Append(+content+doc.Get(CreateDate)+); sb.Append(); 6 测试 为了检验搜索引擎的基本功能是否实现,过程是否出现错误,以及是否达到了需求说明中所定义的需求,测试结果介绍如下: 6.1 功能测试 第一步:确定数据库中数据为空。运行 spider 爬虫,抓取网页。运行界面及过程 如 图 7: 图 7 spider 第二步:运行 index 模块,把数据库中的记录建立索引,运行界面及过程如下: 如果存放索引的文件已经存在,则会清除 当数据库里没有记录时 ,如图 8: 图 8 index1 有记录时创建索引文件 如图 9: nts 第 15 页 共 19 页 图 9 index2 第三步:运行 search web 模块,从表单中进行关键字搜索,此搜索结果数据来源于前 2 步的操作 ,如图 10。 图 10 search1 当在表单中输入信息时,结果以列表形式显示, 其中 关键字显示为红色 ,网页的 title 显示为蓝色, 其他信息包括 搜集信息时的 日期,内容 。图片显示如 图 11: 图 11 search2 nts 第 16 页 共 19 页 结 论 本 课题 主要探讨 了 搜索引擎 的原理, 介绍了原理和过程 , 并给出了 使用Lucene 与 Ajax 实现的方法 。 该系统 引入了当前 用于构建搜索引擎的 Lucene 工具包 , 在 .Net 环境下 ,充分利用 Lucene 所提供的工具, 完成搜索引擎 的基本功能。 在论文中具体做了以下的实验研究工作: 1. 对搜索引擎的原理进行研究和探讨 。比较搜索引擎的实现方法,选择适用于 .Net 平台的语言和相关技术。 2. 在 Microsoft Visual Studio .NET 2003, MSSQL Server 2000 开发环境 基础上构建基于 Ajax 和 Lucene 的搜索引擎。 Ajax 技术解决了数据与服务器的异步交互问题,在前台不再出现整个页面的 重新加 载。 在 Lucene工具包的协助下,完成了对 数据库里的记录建立索引 ,查询等功能。 3. 用模块的形式分步展示搜索引擎的原理 。 有效地 验证了使用 Lucene 构建搜索引擎的可行性。 本课题的创新之处在于 在 .net 平台下,使用 Lucene 工具包完成搜索引擎的基本功能,同时辅助 Ajax 技术优化页面体验 。 但从总的情况看来,使用 Ajax 和Lucene
- 温馨提示:
1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
2: 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
3.本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

人人文库网所有资源均是用户自行上传分享,仅供网友学习交流,未经上传用户书面授权,请勿作他用。
2:不支持迅雷下载,请使用浏览器下载
3:不支持QQ浏览器下载,请用其他浏览器
4:下载后的文档和图纸-无水印
5:文档经过压缩,下载后原文更清晰
|