[转]lucene简单实例<一>+<二>(2.0版)

简介:
1、在windows系统下的的C盘,建一个名叫s的文件夹,在该文件夹里面随便建三个txt文件,随便起名啦,就叫"1.txt","2.txt"和"3.txt"啦 
其中1.txt的内容如下: 
  1. 中华人民共和国   
  2. 全国人民   
  3. 2006年  
而"2.txt"和"3.txt"的内容也可以随便写几写,这里懒写,就复制一个和1.txt文件的内容一样吧 
2、下载lucene包,放在classpath路径中 
建立索引: 
java代码:
package  lighter.javaeye.com;

import  java.io.BufferedReader;
import  java.io.File;
import  java.io.FileInputStream;
import  java.io.IOException;
import  java.io.InputStreamReader;
import  java.util.Date;

import  org.apache.lucene.analysis.Analyzer;
import  org.apache.lucene.analysis.standard.StandardAnalyzer;
import  org.apache.lucene.document.Document;
import  org.apache.lucene.document.Field;
import  org.apache.lucene.index.IndexWriter;

/**
 * author lighter date 2006-8-7
 
*/

public   class  TextFileIndexer  {
    
public static void main(String[] args) throws Exception {
        
/* 指明要索引文件夹的位置,这里是C盘的S文件夹下 */
        File fileDir 
= new File("c:\\s");

        
/* 这里放索引文件的位置 */
        File indexDir 
= new File("c:\\index");
        Analyzer luceneAnalyzer 
= new StandardAnalyzer();
        IndexWriter indexWriter 
= new IndexWriter(indexDir, luceneAnalyzer,
                
true);
        File[] textFiles 
= fileDir.listFiles();
        
long startTime = new Date().getTime();
        
        
//增加document到索引去
        for (int i = 0; i < textFiles.length; i++{
            
if (textFiles[i].isFile()
                    
&& textFiles[i].getName().endsWith(".txt")) {
                System.out.println(
"File " + textFiles[i].getCanonicalPath()
                        
+ "正在被索引.");
                String temp 
= FileReaderAll(textFiles[i].getCanonicalPath(),
                        
"GBK");
                System.out.println(temp);
                Document document 
= new Document();
                Field FieldPath 
= new Field("path", textFiles[i].getPath(),
                        Field.Store.YES, Field.Index.NO);
                Field FieldBody 
= new Field("body", temp, Field.Store.YES,
                        Field.Index.TOKENIZED,
                        Field.TermVector.WITH_POSITIONS_OFFSETS);
                document.add(FieldPath);
                document.add(FieldBody);
                indexWriter.addDocument(document);
            }

        }

        
//optimize()方法是对索引进行优化
        indexWriter.optimize();
        indexWriter.close();
        
        
//测试一下索引的时间
        long endTime = new Date().getTime();
        System.out
                .println(
"这花费了"
                        
+ (endTime - startTime)
                        
+ " 毫秒来把文档增加到索引里面去!"
                        
+ fileDir.getPath());
    }


    
public static String FileReaderAll(String FileName, String charset)
            
throws IOException {
        BufferedReader reader 
= new BufferedReader(new InputStreamReader(
                
new FileInputStream(FileName), charset));
        String line 
= new String();
        String temp 
= new String();
        
        
while ((line = reader.readLine()) != null{
            temp 
+= line;
        }

        reader.close();
        
return temp;
    }

}
索引的结果: 
File C:\s\ 1 .txt正在被索引.
中华人民共和国全国人民2006年
File C:\s\
2 .txt正在被索引.
中华人民共和国全国人民2006年
File C:\s\
3 .txt正在被索引.
中华人民共和国全国人民2006年
这花费了297 毫秒来把文档增加到索引里面去
! c:\s
3、建立了索引之后,查询啦.... 
java代码:
package  lighter.javaeye.com;

import  java.io.IOException;

import  org.apache.lucene.analysis.Analyzer;
import  org.apache.lucene.analysis.standard.StandardAnalyzer;
import  org.apache.lucene.queryParser.ParseException;
import  org.apache.lucene.queryParser.QueryParser;
import  org.apache.lucene.search.Hits;
import  org.apache.lucene.search.IndexSearcher;
import  org.apache.lucene.search.Query;

public   class  TestQuery  {
    
public static void main(String[] args) throws IOException, ParseException {
        Hits hits 
= null;
        String queryString 
= "中华";
        Query query 
= null;
        IndexSearcher searcher 
= new IndexSearcher("c:\\index");

        Analyzer analyzer 
= new StandardAnalyzer();
        
try {
            QueryParser qp 
= new QueryParser("body", analyzer);
            query 
= qp.parse(queryString);
        }
 catch (ParseException e) {
        }

        
if (searcher != null{
            hits 
= searcher.search(query);
            
if (hits.length() > 0{
                System.out.println(
"找到:" + hits.length() + " 个结果!");
            }

        }

    }


}
其运行结果: 
找到: 3  个结果 !
具体的API的用法,这里就不说了,具体的做法参考lucene的官方文档吧... 
注:lucene2.0的API 与lucene1.4.3的API 有了一些区别. (例子中用到的)
这是lucene2.0的API 
 QueryParser qp  =   new  QueryParser( " body " , analyzer);   
 query 
=  qp.parse(queryString);   
这是lucene1.4.3版的API 
 query  =  QueryParser.parse(key,queryString, new   new  StandardAnalyzer());
================================
搜索篇:lucene的简单实例<二> 
原文地址: http://www.javaeye.com/post/190576  
写文章的时候,感觉比较难写的就是标题,有时候不知道起什么名字好,反正这里写的都是关于lucene的一些简单的实例,就随便起啦. 
Lucene 其实很简单的,它最主要就是做两件事:建立索引和进行搜索 
来看一些在lucene中使用的术语,这里并不打算作详细的介绍,只是点一下而已----因为这一个世界有一种好东西,叫搜索。 
IndexWriter :lucene中最重要的的类之一,它主要是用来将文档加入索引,同时控制索引过程中的一些参数使用。 
Analyzer :分析器,主要用于分析搜索引擎遇到的各种文本。常用的有StandardAnalyzer分析器,StopAnalyzer分析器,WhitespaceAnalyzer分析器等。 
Directory :索引存放的位置;lucene提供了两种索引存放的位置,一种是磁盘,一种是内存。一般情况将索引放在磁盘上;相应地lucene提供了FSDirectory和RAMDirectory两个类。 
Document :文档;Document相当于一个要进行索引的单元,任何可以想要被索引的文件都必须转化为Document对象才能进行索引。 
Field :字段。 
IndexSearcher :是lucene中最基本的检索工具,所有的检索都会用到IndexSearcher工具; 
Query :查询,lucene中支持模糊查询,语义查询,短语查询,组合查询等等,如有TermQuery,BooleanQuery,RangeQuery,WildcardQuery等一些类。 
QueryParser : 是一个解析用户输入的工具,可以通过扫描用户输入的字符串,生成Query对象。 
Hits :在搜索完成之后,需要把搜索结果返回并显示给用户,只有这样才算是完成搜索的目的。在lucene中,搜索的结果的集合是用Hits类的实例来表示的。 
上面作了一大堆名词解释,下面就看几个简单的实例吧: 
1、简单的的StandardAnalyzer测试例子 
java代码:
package  lighter.javaeye.com;

import  java.io.IOException;
import  java.io.StringReader;

import  org.apache.lucene.analysis.Analyzer;
import  org.apache.lucene.analysis.Token;
import  org.apache.lucene.analysis.TokenStream;
import  org.apache.lucene.analysis.standard.StandardAnalyzer;

public   class  StandardAnalyzerTest 
{
    
//构造函数,
    public StandardAnalyzerTest()
    
{
    }

    
public static void main(String[] args) 
    
{
        
//生成一个StandardAnalyzer对象
        Analyzer aAnalyzer = new StandardAnalyzer();
        
//测试字符串
        StringReader sr = new StringReader("lighter javaeye com is the are on");
        
//生成TokenStream对象
        TokenStream ts = aAnalyzer.tokenStream("name", sr);    
        
try {
            
int i=0;
            Token t 
= ts.next();
            
while(t!=null)
            
{
                
//辅助输出时显示行号
                i++;
                
//输出处理后的字符
                System.out.println(""+i+"行:"+t.termText());
                
//取得下一个字符
                t=ts.next();
            }

        }
 catch (IOException e) {
            e.printStackTrace();
        }

    }

}
显示结果:
第1行:lighter 
第2行:javaeye 
第3行:com
提示一下: 
StandardAnalyzer是lucene中内置的"标准分析器",可以做如下功能: 
1、对原有句子按照空格进行了分词 
2、所有的大写字母都可以能转换为小写的字母 
3、可以去掉一些没有用处的单词,例如"is","the","are"等单词,也删除了所有的标点 
查看一下结果与"new StringReader("lighter javaeye com is the are on")"作一个比较就清楚明了。 
这里不对其API进行解释了,具体见lucene的官方文档。需要注意一点,这里的代码使用的是lucene2的API,与1.43版有一些明显的差别。 
2、看另一个实例,简单地建立索引,进行搜索 
java代码:
package  lighter.javaeye.com;
import  org.apache.lucene.analysis.standard.StandardAnalyzer;
import  org.apache.lucene.document.Document;
import  org.apache.lucene.document.Field;
import  org.apache.lucene.index.IndexWriter;
import  org.apache.lucene.queryParser.QueryParser;
import  org.apache.lucene.search.Hits;
import  org.apache.lucene.search.IndexSearcher;
import  org.apache.lucene.search.Query;
import  org.apache.lucene.store.FSDirectory;

public   class  FSDirectoryTest  {

    
//建立索引的路径
    public static final String path = "c:\\index2";

    
public static void main(String[] args) throws Exception {
        Document doc1 
= new Document();
        doc1.add( 
new Field("name""lighter javaeye com",Field.Store.YES,Field.Index.TOKENIZED));

        Document doc2 
= new Document();
        doc2.add(
new Field("name""lighter blog",Field.Store.YES,Field.Index.TOKENIZED));

        IndexWriter writer 
= new IndexWriter(FSDirectory.getDirectory(path, true), new StandardAnalyzer(), true);
        writer.setMaxFieldLength(
3);
        writer.addDocument(doc1);
        writer.setMaxFieldLength(
3);
        writer.addDocument(doc2);
        writer.close();

        IndexSearcher searcher 
= new IndexSearcher(path);
        Hits hits 
= null;
        Query query 
= null;
        QueryParser qp 
= new QueryParser("name",new StandardAnalyzer());
        
        query 
= qp.parse("lighter");
        hits 
= searcher.search(query);
        System.out.println(
"查找\"lighter\" 共" + hits.length() + "个结果");

        query 
= qp.parse("javaeye");
        hits 
= searcher.search(query);
        System.out.println(
"查找\"javaeye\" 共" + hits.length() + "个结果");

    }


}
运行结果: 
查找 " lighter "  共2个结果
查找
" javaeye "  共1个结果
本文转自博客园执着的笨蛋的博客,原文链接:[转]lucene简单实例<一>+<二>(2.0版),如需转载请自行联系原博主。

目录
相关文章
|
5天前
|
云安全 人工智能 安全
AI被攻击怎么办?
阿里云提供 AI 全栈安全能力,其中对网络攻击的主动识别、智能阻断与快速响应构成其核心防线,依托原生安全防护为客户筑牢免疫屏障。
|
15天前
|
域名解析 人工智能
【实操攻略】手把手教学,免费领取.CN域名
即日起至2025年12月31日,购买万小智AI建站或云·企业官网,每单可免费领1个.CN域名首年!跟我了解领取攻略吧~
|
9天前
|
安全 Java Android开发
深度解析 Android 崩溃捕获原理及从崩溃到归因的闭环实践
崩溃堆栈全是 a.b.c?Native 错误查不到行号?本文详解 Android 崩溃采集全链路原理,教你如何把“天书”变“说明书”。RUM SDK 已支持一键接入。
590 212
|
4天前
|
编解码 Linux 数据安全/隐私保护
教程分享免费视频压缩软件,免费视频压缩,视频压缩免费,附压缩方法及学习教程
教程分享免费视频压缩软件,免费视频压缩,视频压缩免费,附压缩方法及学习教程
236 138
|
存储 人工智能 监控
从代码生成到自主决策:打造一个Coding驱动的“自我编程”Agent
本文介绍了一种基于LLM的“自我编程”Agent系统,通过代码驱动实现复杂逻辑。该Agent以Python为执行引擎,结合Py4j实现Java与Python交互,支持多工具调用、记忆分层与上下文工程,具备感知、认知、表达、自我评估等能力模块,目标是打造可进化的“1.5线”智能助手。
828 60
|
7天前
|
人工智能 移动开发 自然语言处理
2025最新HTML静态网页制作工具推荐:10款免费在线生成器小白也能5分钟上手
晓猛团队精选2025年10款真正免费、无需编程的在线HTML建站工具,涵盖AI生成、拖拽编辑、设计稿转代码等多种类型,均支持浏览器直接使用、快速出图与文件导出,特别适合零基础用户快速搭建个人网站、落地页或企业官网。
1226 157
|
6天前
|
存储 安全 固态存储
四款WIN PE工具,都可以实现U盘安装教程
Windows PE是基于NT内核的轻量系统,用于系统安装、分区管理及故障修复。本文推荐多款PE制作工具,支持U盘启动,兼容UEFI/Legacy模式,具备备份还原、驱动识别等功能,操作简便,适合新旧电脑维护使用。
515 109