ImageVerifierCode 换一换
格式:DOCX , 页数:13 ,大小:25.39KB ,
资源ID:8626645      下载积分:3 金币
快捷下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

加入VIP,免费下载
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.bdocx.com/down/8626645.html】到电脑端继续下载(重复下载不扣费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  

下载须知

1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
2: 试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。
3: 文件的所有权益归上传用户所有。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

本文(lunce搜索引擎框架教程.docx)为本站会员(b****7)主动上传,冰豆网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知冰豆网(发送邮件至service@bdocx.com或直接QQ联系客服),我们立即给予删除!

lunce搜索引擎框架教程.docx

1、lunce搜索引擎框架教程全文搜索 lucene使用与优化2008-01-23 20:581 lucene简介1.1 什么是luceneLucene是一个全文搜索框架,而不是应用产品。因此它并不像 或者google Desktop那么拿来就能用,它只是提供了一种工具让你能实现这些产品。1.2 lucene能做什么要 回答这个问题,先要了解lucene的本质。实际上lucene的功能很单一,说到底,就是你给它若干个字符串,然后它为你提供一个全文搜索服务,告诉你 你要搜索的关键词出现在哪里。知道了这个本质,你就可以发挥想象做任何符合这个条件的事情了。你可以把站内新闻都索引了,做个资料库;你可以把一

2、个数据库 表的若干个字段索引起来,那就不用再担心因为“%like%”而锁表了;你也可以写个自己的搜索引擎1.3 你该不该选择lucene下面给出一些测试数据,如果你觉得可以接受,那么可以选择。测试一:250万记录,300M左右文本,生成索引380M左右,800线程下平均处理时间300ms。测试二:37000记录,索引数据库中的两个varchar字段,索引文件2.6M,800线程下平均处理时间1.5ms。2 lucene的工作方式lucene提供的服务实际包含两部分:一入一出。所谓入是写入,即将你提供的源(本质是字符串)写入索引或者将其从索引中删除;所谓出是读出,即向用户提供全文搜索服务,让用户

3、可以通过关键词定位源。2.1写入流程源字符串首先经过analyzer处理,包括:分词,分成一个个单词;去除stopword(非索引字)(可选)。将源中需要的信息加入Document的各个Field中,并把需要索引的Field索引起来,把需要存储的Field存储起来。将索引写入存储器,存储器可以是内存或磁盘。2.2读出流程用户提供搜索关键词,经过analyzer处理。对处理后的关键词搜索索引找出对应的Document。用户根据需要从找到的Document中提取需要的Field。3 一些需要知道的概念lucene用到一些概念,了解它们的含义,有利于下面的讲解。3.1 analyzerAnalyze

4、r 是分析器,它的作用是把一个字符串按某种规则划分成一个个词语,并去除其中的无效词语,这里说的无效词语是指英文中的“of”、 “the”,中文中的 “的”、“地”等词语,这些词语在文章中大量出现,但是本身不包含什么关键信息,去掉有利于缩小索引文件、提高效率、提高命中率。分词的规则千变万化,但目的只有一个:按语义划分。这点在英文中比较容易实现,因为英文本身就是以单词为单位的,已经用空格分开;而中文则必须以某种方法将连成一片的句子划分成一个个词语。具体划分方法下面再详细介绍,这里只需了解分析器的概念即可。3.2 document用户提供的源是一条条记录,它们可以是文本文件、字符串或者数据库表的一条

5、记录等等。一条记录经过索引之后,就是以一个Document的形式存储在索引文件中的。用户进行搜索,也是以Document列表的形式返回。3.3 field一个Document可以包含多个信息域,例如一篇文章可以包含“标题”、“正文”、“最后修改时间”等信息域,这些信息域就是通过Field在Document中存储的。Field有两个属性可选:存储和索引。通过存储属性你可以控制是否对这个Field进行存储;通过索引属性你可以控制是否对该Field进行索引。这看起来似乎有些废话,事实上对这两个属性的正确组合很重要,下面举例说明:还 是以刚才的文章为例子,我们需要对标题和正文进行全文搜索,所以我们要把

6、索引属性设置为真,同时我们希望能直接从搜索结果中提取文章标题,所以我们把标题 域的存储属性设置为真,但是由于正文域太大了,我们为了缩小索引文件大小,将正文域的存储属性设置为假,当需要时再直接读取文件;我们只是希望能从搜索解 果中提取最后修改时间,不需要对它进行搜索,所以我们把最后修改时间域的存储属性设置为真,索引属性设置为假。上面的三个域涵盖了两个属性的三种组合,还 有一种全为假的没有用到,事实上Field不允许你那么设置,因为既不存储又不索引的域是没有意义的。3.4 termterm是搜索的最小单位,它表示文档的一个词语,term由两部分组成:它表示的词语和这个词语所出现的field。3.5

7、 tockentocken是term的一次出现,它包含term文本和相应的起止偏移,以及一个类型字符串。一句话中可以出现多次相同的词语,它们都用同一个term表示,但是用不同的tocken,每个tocken标记该词语出现的地方。3.6 segment添加索引时并不是每个document都马上添加到同一个索引文件,它们首先被写入到不同的小文件,然后再合并成一个大索引文件,这里每个小文件都是一个segment。4 lucene的结构lucene包括core和sandbox两部分,其中core是lucene稳定的核心部分,sandbox包含了一些附加功能,例如highlighter、各种分析器。Lu

8、cene core有七个包:analysis,document,index,queryParser,search,store,util。4.1 analysisAnalysis包含一些内建的分析器,例如按空白字符分词的WhitespaceAnalyzer,添加了stopwrod过滤的StopAnalyzer,最常用的StandardAnalyzer。4.2 documentDocument包含文档的数据结构,例如Document类定义了存储文档的数据结构,Field类定义了Document的一个域。4.3 indexIndex 包含了索引的读写类,例如对索引文件的segment进行写、合并、优

9、化的IndexWriter类和对索引进行读取和删除操作的 IndexReader类,这里要注意的是不要被IndexReader这个名字误导,以为它是索引文件的读取类,实际上删除索引也是由它完成, IndexWriter只关心如何将索引写入一个个segment,并将它们合并优化;IndexReader则关注索引文件中各个文档的组织形式。4.4 queryParserQueryParser 包含了解析查询语句的类,lucene的查询语句和sql语句有点类似,有各种保留字,按照一定的语法可以组成各种查询。 Lucene有很多种 Query类,它们都继承自Query,执行各种特殊的查询,QueryPa

10、rser的作用就是解析查询语句,按顺序调用各种 Query类查找出结果。4.5 searchSearch包含了从索引中搜索结果的各种类,例如刚才说的各种Query类,包括TermQuery、BooleanQuery等就在这个包里。4.6 storeStore包含了索引的存储类,例如Directory定义了索引文件的存储结构,FSDirectory为存储在文件中的索引,RAMDirectory为存储在内存中的索引,MmapDirectory为使用内存映射的索引。4.7 utilUtil包含一些公共工具类,例如时间和字符串之间的转换工具。5 如何建索引5.1 最简单的能完成索引的代码片断Index

11、Writer writer = new IndexWriter(“/data/index/”, new StandardAnalyzer(), true);Document doc = new Document();doc.add(new Field(title, lucene introduction, , ;doc.add(new Field(content, lucene works well, , ;writer.addDocument(doc);writer.optimize();writer.close();下面我们分析一下这段代码。首先我们创建了一个writer,并指定存放索引的

12、目录为“/data/index”,使用的分析器为StandardAnalyzer,第三个参数说明如果已经有索引文件在索引目录下,我们将覆盖它们。然后我们新建一个document。我们向document添加一个field,名字是“title”,内容是“lucene introduction”,对它进行存储并索引。再添加一个名字是“content”的field,内容是“lucene works well”,也是存储并索引。然后我们将这个文档添加到索引中,如果有多个文档,可以重复上面的操作,创建document并添加。添加完所有document,我们对索引进行优化,优化主要是将多个segment合并

13、到一个,有利于提高索引速度。随后将writer关闭,这点很重要。对,创建索引就这么简单!当然你可能修改上面的代码获得更具个性化的服务。5.2 将索引直接写在内存你需要首先创建一个RAMDirectory,并将其传给writer,代码如下:Directory dir = new RAMDirectory();IndexWriter writer = new IndexWriter(dir, new StandardAnalyzer(), true);Document doc = new Document();doc.add(new Field(title, lucene introduction

14、, , ;doc.add(new Field(content, lucene works well, , ;writer.addDocument(doc);writer.optimize();writer.close();5.3 索引文本文件如果你想把纯文本文件索引起来,而不想自己将它们读入字符串创建field,你可以用下面的代码创建field:Field field = new Field(content, new FileReader(file);这里的file就是该文本文件。该构造函数实际上是读去文件内容,并对其进行索引,但不存储。6 如何维护索引索引的维护操作都是由IndexReade

15、r类提供。6.1 如何删除索引lucene提供了两种从索引中删除document的方法,一种是void deleteDocument(int docNum)这种方法是根据document在索引中的编号来删除,每个document加进索引后都会有个唯一编号,所以根据编号删除是一种精确删除,但是这个编号是索引的内部结构,一般我们不会知道某个文件的编号到底是几,所以用处不大。另一种是void deleteDocuments(Term term)这种方法实际上是首先根据参数term执行一个搜索操作,然后把搜索到的结果批量删除了。我们可以通过这个方法提供一个严格的查询条件,达到删除指定document的

16、目的。下面给出一个例子:Directory dir = FSDirectory.getDirectory(PATH, false);IndexReader reader = IndexReader.open(dir);Term term = new Term(field, key);reader.deleteDocuments(term);reader.close();6.2 如何更新索引lucene并没有提供专门的索引更新方法,我们需要先将相应的document删除,然后再将新的document加入索引。例如:Directory dir = FSDirectory.getDirectory(

17、PATH, false);IndexReader reader = IndexReader.open(dir);Term term = new Term(“title”, “lucene introduction”);reader.deleteDocuments(term);reader.close();IndexWriter writer = new IndexWriter(dir, new StandardAnalyzer(), true);Document doc = new Document();doc.add(new Field(title, lucene introduction,

18、 , ;doc.add(new Field(content, lucene is funny, , ;writer.addDocument(doc);writer.optimize();writer.close();7 如何搜索lucene 的搜索相当强大,它提供了很多辅助查询类,每个类都继承自Query类,各自完成一种特殊的查询,你可以像搭积木一样将它们任意组合使用,完成一些复杂操 作;另外lucene还提供了Sort类对结果进行排序,提供了Filter类对查询条件进行限制。你或许会不自觉地拿它跟SQL语句进行比较: “lucene能执行and、or、order by、where、like

19、%xx%操作吗?”回答是:“当然没问题!”7.1 各种各样的Query下面我们看看lucene到底允许我们进行哪些查询操作:7.1.1 TermQuery首先介绍最基本的查询,如果你想执行一个这样的查询:“在content域中包含lucene的document”,那么你可以用TermQuery:Term t = new Term(content, lucene;Query query = new TermQuery(t);7.1.2 BooleanQuery如果你想这么查询:“在content域中包含java或perl的document”,那么你可以建立两个TermQuery并把它们用Bool

20、eanQuery连接起来:TermQuery termQuery1 = new TermQuery(new Term(content, java);TermQuery termQuery 2 = new TermQuery(new Term(content, perl);BooleanQuery booleanQuery = new BooleanQuery();booleanQuery.add(termQuery 1, ;booleanQuery.add(termQuery 2, ;7.1.3 WildcardQuery如果你想对某单词进行通配符查询,你可以用WildcardQuery,通配

21、符包括?匹配一个任意字符和*匹配零个或多个任意字符,例如你搜索use*,你可能找到useful或者useless:Query query = new WildcardQuery(new Term(content, use*);7.1.4 PhraseQuery你可能对中日关系比较感兴趣,想查找中和日挨得比较近(5个字的距离内)的文章,超过这个距离的不予考虑,你可以:PhraseQuery query = new PhraseQuery();query.setSlop(5);query.add(new Term(content , “中”);query.add(new Term(“content

22、”, “日”);那么它可能搜到“中日合作”、“中方和日方”,但是搜不到“中国某高层领导说日本欠扁”。7.1.5 PrefixQuery如果你想搜以中开头的词语,你可以用PrefixQuery:PrefixQuery query = new PrefixQuery(new Term(content , 中);7.1.6 FuzzyQueryFuzzyQuery用来搜索相似的term,使用Levenshtein算法。假设你想搜索跟wuzza相似的词语,你可以:Query query = new FuzzyQuery(new Term(content, wuzza);你可能得到fuzzy和wuzzy

23、。7.1.7 RangeQuery另一个常用的Query是RangeQuery,你也许想搜索时间域从到之间的document,你可以用RangeQuery:RangeQuery query = new RangeQuery(new Term(“time”, “”), new Term(“time”, “”), true);最后的true表示用闭合区间。7.2 QueryParser看 了这么多Query,你可能会问:“不会让我自己组合各种Query吧,太麻烦了!”当然不会,lucene提供了一种类似于SQL语句的查询语句,我们 姑且叫它lucene语句,通过它,你可以把各种查询一句话搞定,lu

24、cene会自动把它们查分成小块交给相应Query执行。下面我们对应每种 Query演示一下:TermQuery可以用“field:key”方式,例如“content:lucene”。BooleanQuery中与用+,或用 ,例如“content:java contenterl”。WildcardQuery仍然用?和*,例如“content:use*”。PhraseQuery用,例如“content:中日5”。PrefixQuery用*,例如“中*”。FuzzyQuery用,例如“content: wuzza ”。RangeQuery用或,前者表示闭区间,后者表示开区间,例如“time: TO

25、”,注意TO区分大小写。你 可以任意组合query string,完成复杂操作,例如“标题或正文包括lucene,并且时间在到之间的文章”可以表示为:“+ (title:lucene content:lucene) +time: TO ”。代码如下:Directory dir = FSDirectory.getDirectory(PATH, false);IndexSearcher is = new IndexSearcher(dir);QueryParser parser = new QueryParser(content, new StandardAnalyzer();Query quer

26、y = parser.parse(+(title:lucene content:lucene) +time: TO ;Hits hits = is.search(query);for (int i = 0; i hits.length(); i+)Document doc = hits.doc(i);title);is.close();首先我们创建一个在指定文件目录上的IndexSearcher。然后创建一个使用StandardAnalyzer作为分析器的QueryParser,它默认搜索的域是content。接着我们用QueryParser来parse查询字串,生成一个Query。然后利用这

27、个Query去查找结果,结果以Hits的形式返回。这个Hits对象包含一个列表,我们挨个把它的内容显示出来。7.3 Filterfilter 的作用就是限制只查询索引的某个子集,它的作用有点像SQL语句里的where,但又有区别,它不是正规查询的一部分,只是对数据源进行预处理,然后交给 查询语句。注意它执行的是预处理,而不是对查询结果进行过滤,所以使用filter的代价是很大的,它可能会使一次查询耗时提高一百倍。最常用的filter是RangeFilter和QueryFilter。RangeFilter是设定只搜索指定范围内的索引;QueryFilter是在上次查询的结果中搜索。Filter的

28、使用非常简单,你只需创建一个filter实例,然后把它传给searcher。继续上面的例子,查询“时间在到之间的文章”除了将限制写在query string中,你还可以写在RangeFilter中:Directory dir = FSDirectory.getDirectory(PATH, false);IndexSearcher is = new IndexSearcher(dir);QueryParser parser = new QueryParser(content, new StandardAnalyzer();Query query = parser.parse(title:luc

29、ene content:lucene;RangeFilter filter = new RangeFilter(time, , , true, true);Hits hits = is.search(query, filter);for (int i = 0; i hits.length(); i+)Document doc = hits.doc(i);title);is.close();7.4 Sort有时你想要一个排好序的结果集,就像SQL语句的“order by”,lucene能做到:通过Sort。Sort sort = new Sort(“time”); /相当于SQL的“order

30、by time”Sort sort = new Sort(“time”, true); / 相当于SQL的“order by time desc”下面是一个完整的例子:Directory dir = FSDirectory.getDirectory(PATH, false);IndexSearcher is = new IndexSearcher(dir);QueryParser parser = new QueryParser(content, new StandardAnalyzer();Query query = parser.parse(title:lucene content:lucene;RangeFilter filter = new RangeFilter(time, , , true, true);Sort sort = new Sort(“time”);Hits hits = is.search(query, filter, sort);for (int i = 0; i hits.length(); i+)Document doc = hits.doc(i);title);is.close();8 分析器在 前面的概念介绍中我们已经知道了分析器的作用,就是把句子按照语义切分成一个个词语。英文切分已经有了很成熟的分

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1