`
北风norther
  • 浏览: 14246 次
  • 性别: Icon_minigender_1
  • 来自: 邯郸
社区版块
存档分类
最新评论
阅读更多

lucene。。数据从数据库中获得,

所以我下面展示的代码描述的就是一个,

    1,从数据库查数据,然后把这些数据通过lucene创建索引库保存在硬盘上。

    2,从索引库查出数据。

    3,完!

package com.bjtc;

import java.io.File;     
import java.io.Reader;
import java.io.StringReader;
import java.sql.Connection;     
import java.sql.ResultSet;     
import java.sql.Statement;     
import java.util.regex.Pattern;


import org.apache.lucene.analysis.Analyzer;     
import org.apache.lucene.analysis.TokenStream;
import org.apache.lucene.analysis.Analyzer.TokenStreamComponents;
import org.apache.lucene.analysis.cn.smart.SmartChineseAnalyzer;
import org.apache.lucene.analysis.pattern.PatternTokenizer;
import org.apache.lucene.document.Document;     
import org.apache.lucene.document.Field;     
import org.apache.lucene.document.Field.Store;
import org.apache.lucene.document.FieldType;
import org.apache.lucene.document.FieldType.NumericType;
import org.apache.lucene.document.FloatField;
import org.apache.lucene.document.IntField;
import org.apache.lucene.document.StringField;
import org.apache.lucene.index.IndexWriter;
import org.apache.lucene.index.IndexWriterConfig;
import org.apache.lucene.index.IndexWriterConfig.OpenMode;
import org.apache.lucene.store.Directory;
import org.apache.lucene.store.FSDirectory;
import org.apache.lucene.util.Version;

import com.PatternAnalyzer;

public class CreateIndex {
	static String indexpath="e:\\indextest\\index";
	static File indexFile = null; 
    Analyzer analyzer = null;  
    String brandsql="(select b.name from brand b where b.id=g.brand_id) as brandName";
    String categorySql="(select c.name from category c where c.id=g.category_id) as categroyName";
    String price ="(select max(s.price) from seller_goods s where s.goods_id=g.id) as Sprice";
    String attrSql="select * from Goods_Attr where goods_id=";
    String sql="select g.* ,"+brandsql+","+categorySql+","+price+" from goods g";
	
	public void create() throws Exception{
		//连接数据库,获得数据源
		Connection conn =DButil.getConnection();
		if(conn == null) {     
            throw new Exception("数据库连接失败");     
        }
		Statement stmt=conn.createStatement();
		ResultSet rs=stmt.executeQuery(sql);
		
		//控制创建索引,与之对应的有IndexReader来读取索引
		IndexWriter indexWriter = null;
		
		 indexFile = new File(indexpath);//创建文件夹
		 if(!indexFile.exists()) {     
            indexFile.mkdir();     
        } 
		 
		 //打开存放索引的路径
		 Directory directory = FSDirectory.open(indexFile); 
		 
		 //中文标准分词器
		 Analyzer analyzer = new SmartChineseAnalyzer(Version.LUCENE_4_9);
		 //Analyzer analyzer2= new IK_CAnalyzer();
		 IndexWriterConfig inWC=new IndexWriterConfig(Version.LUCENE_4_9, analyzer);//IndexWriterConfig
		 inWC.setOpenMode(OpenMode.CREATE);//每次生成索引时把原有索引删除,生存新的索引
		 indexWriter = new IndexWriter(directory,inWC);     
		 
		 Document doc = null;  
		 int x=0;//查看最后一共搜出多少条数据
		 System.out.println("正在创建索引ing.....");
        while(rs.next()) {     
            doc = new Document(); 
            //因为是最新版本的lucene,所以网上很多的方法不能直接使用
            //使用lucene版本是4_9的,下面的方法已经过时不用
            //Field id = new Field("id", String.valueOf(rs.getInt("id")),Field.Store.YES, Field.Index.NOT_ANALYZED);
           
            FieldType fstr=new FieldType();//定义field字段的属性
            fstr.setIndexed(true);//索引
            fstr.setStored(true);//存储
            
            //下面用的StringField,默认是不分词的!
            doc.add(new StringField("brand",rs.getString("brandName"),Field.Store.YES));
            doc.add(new StringField("category",rs.getString("categroyName"),Field.Store.YES));
            doc.add(new StringField("brief",rs.getString("brief")==null?" ":rs.getString("brief"),Field.Store.YES));
            doc.add(new StringField("type_no", rs.getString("type_no"), Field.Store.YES));
            //下面用到了FieldType使其分词并被索引。不推荐这样用
            //建议使用TextField("name", rs.getString("name"),Store.YES);
            doc.add(new Field("name", rs.getString("name"),fstr));   
            doc.add(new StringField("code",rs.getString("code"),Field.Store.YES));
            //document中可以存空串,但放null
            doc.add(new StringField("image",rs.getString("image")==null?"":rs.getString("image"),Store.YES));
            
           /* FieldType fInt=new FieldType();配置数字类型,
            fInt.setNumericType(NumericType.INT);
            fInt.setIndexed(false);不索引
            fInt.setStored(true);
            FieldType fFloat=new FieldType();
            fFloat.setNumericType(NumericType.FLOAT);
            fFloat.setIndexed(true);
            fFloat.setStored(true);*/
            doc.add(new IntField("id",rs.getInt("id"),Store.YES));
            doc.add(new FloatField("price", rs.getFloat("Sprice"),Store.YES));
            doc.add(new IntField("click_count",rs.getInt("click_count"),Store.YES));
            doc.add(new IntField("attention",rs.getInt("attention"),Store.YES));
            String strs="";
            String sqll=attrSql+rs.getInt("id");
            Statement stmt2=conn.createStatement();
    		ResultSet rs2=stmt2.executeQuery(sqll);
    		while(rs2.next()){
    			strs=rs2.getString("attr_value")+","+strs;
    		}
    		/*PatternAnalyzer pa=new PatternAnalyzer(",");此处使用的是自定义分词器,可以在doc里存TokenStream,但不可以存储
    		TokenStream ts= analyzer.tokenStream("GoodsAttr", new StringReader(strs));*/
    		rs2.close();
    		doc.add(new Field("GoodsAttr",strs,fstr));
            indexWriter.addDocument(doc);
            x++;
        }
        System.out.println("数据库查询结果   :"+x);
        System.out.println("索引创建完成!");
        indexWriter.close();  
        directory.close();
	}
	public static void main(String[] args) throws Exception{
		new CreateIndex().create();
	}
}

 建立好索引库后就开始搜索吧

package com.bjtc;

import java.io.File;
import java.io.IOException;
import java.util.ArrayList;
import java.util.List;

import org.apache.lucene.analysis.cn.smart.SmartChineseAnalyzer;
import org.apache.lucene.document.Document;
import org.apache.lucene.index.DirectoryReader;
import org.apache.lucene.index.IndexReader;
import org.apache.lucene.index.Term;
import org.apache.lucene.queryparser.classic.MultiFieldQueryParser;
import org.apache.lucene.queryparser.classic.ParseException;
import org.apache.lucene.queryparser.classic.QueryParser;
import org.apache.lucene.queryparser.classic.QueryParser.Operator;
import org.apache.lucene.search.BooleanClause.Occur;
import org.apache.lucene.search.BooleanQuery;
import org.apache.lucene.search.IndexSearcher;
import org.apache.lucene.search.NumericRangeQuery;
import org.apache.lucene.search.Query;
import org.apache.lucene.search.Sort;
import org.apache.lucene.search.SortField;
import org.apache.lucene.search.TermQuery;
import org.apache.lucene.search.TopDocs;
import org.apache.lucene.store.Directory;
import org.apache.lucene.store.FSDirectory;
import org.apache.lucene.util.Version;

import TEST.MyAnalyzer;


public class search {
	String indexPath = "e:\\indextest\\index";
	private Integer currentPage;
	private Integer MaxPage;
	private List<Goods> list;
	
	public Integer getMaxPage() {
		return MaxPage;
	}

	public List<Goods> getList() {
		return list;
	}

	public Integer getCurrentPage() {
		return currentPage;
	}
	/**@NortherSong
	 * 多个条件精确搜索,下面有类似淘宝京东大搜索框搜索
	 * 实现了分页功能
	 * @param brand	搜索条件
	 * @param category 	搜索条件
	 * @param price	搜索条件
	 * @param attr	搜索条件
	 * @param pagerSize	一页中含数据
	 * @param currentPage	页码
	 * @throws IOException
	 * @throws ParseException
	 */
	
	public search(String brand,String category,String price,String attr,int pagerSize,int currentPage) throws IOException, ParseException{
		System.out.println("搜索条件:");
		System.out.println("category ------"+category);
		System.out.println("brand    ------"+brand);
		System.out.println("attr     ------"+attr);
		
		BooleanQuery bq=new BooleanQuery();//多个搜索条件的Query
		
		//Term是最小的搜索单元
		TermQuery termQuery1 = new TermQuery(new Term("brand", brand));
		TermQuery termQuery2 = new TermQuery(new Term("category", category));
		
		if(price.length()>0){
			String[] ps=price.split("-");
			//NumericRangeQuery.newFloatRange范围搜索
			Query q= NumericRangeQuery.newFloatRange("price", Float.valueOf(ps[0]), Float.valueOf(ps[1]), true, true);
			bq.add(q, Occur.MUST);
		}
		//Occur.MUST表示BooleanQuery中条件为并的关系,SHORLD:或
		if(null!=brand&&brand.trim().length()!=0)
			bq.add(termQuery1, Occur.MUST);
		if(null!=category&&category.trim().length()!=0)
			bq.add(termQuery2, Occur.MUST);
		if(null!=attr&&attr.trim().length()!=0)
		{
			String[] attrs = attr.split(" ");
			for(String atr:attrs){
				if(atr.length()>1){
					atr= atr.trim();
					System.out.println(attr);
					bq.add(new TermQuery(new Term("goodsAttr", atr)), Occur.MUST);
					//bq.add(q, Occur.MUST);
				}
			}
		}
		
		//同创建索引时一样,要打开存放索引的路径
		Directory d = FSDirectory.open(new File(indexPath));
		IndexReader reader = DirectoryReader.open(d);//流读取
		//对所搜索出的数据进行排序
		Sort sort= new Sort();
		//默认为false 升序
		SortField s= new SortField("price", SortField.Type.FLOAT);
		sort.setSort(s);
		
		IndexSearcher searcher = new IndexSearcher(reader);//搜索  
		//searcher.search(QUERY,FILTER过滤器,最多获取数据DOCUMENT条数,sort排序);
		TopDocs topDocs = searcher.search(bq, null, 10000,sort);
		System.out.println("符合条件的" + topDocs.totalHits + "---");
		//分页
		int begin=pagerSize*(currentPage-1);
		int end=Math.min(topDocs.scoreDocs.length, begin+pagerSize);
		
		List<Goods> list = new ArrayList<Goods>();
		Goods g = null;
		for(int i=begin;i<end;i++){
			int docSn = topDocs.scoreDocs[i].doc;
			Document doc = reader.document(docSn);
			g = new Goods();
			g.setId(Integer.parseInt(doc.get("id")));
			g.setName(doc.get("name"));
			g.setCode(doc.get("code"));
			g.setBrandName(doc.get("brand"));
			g.setCategoryName(doc.get("category"));
			g.setPrice(Float.valueOf(doc.get("price")));
			g.setS(doc.get("goodsAttr"));//z注意大小写
			list.add(g);
		}
		//用完记得关闭流~
		reader.close();
		d.close();
		this.MaxPage=topDocs.totalHits;
		this.currentPage=currentPage;
		this.list= list;
	}
	
	public  search(String queryStr,int pagerSize,int currentPage) throws IOException, ParseException {
		
	//	QueryParser qp = new QueryParser(Version.LUCENE_4_9, "goodsAttr",
	//			new PatternAnalyzer(" "));对单一的字段进行搜索 例如条件可以是“联想   G”这样,我可能搜出手机或者电脑
		MultiFieldQueryParser mp = new MultiFieldQueryParser(//搜索多个字段 例如“联想  电脑  红色”
				Version.LUCENE_4_9, new String[] {"name","brandName","categoryName"},
				new SmartChineseAnalyzer(Version.LUCENE_4_9));
		mp.setDefaultOperator(Operator.AND);//多个字段之间的关系是或还是并专业点是  &&还是||
		
		Query query= mp.parse(queryStr);
		
		Directory d = FSDirectory.open(new File(indexPath));
		IndexReader reader = DirectoryReader.open(d);
		
		Sort s= new Sort();
		//默认为false 升序
		SortField sf= new SortField("price", SortField.Type.FLOAT);
		s.setSort(sf);
		IndexSearcher searcher = new IndexSearcher(reader);

		TopDocs topDocs = searcher.search(query, null, 10000,s);
		System.out.println("符合条件的" + topDocs.totalHits + "---");
		int begin=pagerSize*(currentPage-1);
		int end=Math.min(topDocs.scoreDocs.length, begin+pagerSize);
		
		List<Goods> list = new ArrayList<Goods>();
		Goods g = null;
		for(int i=begin;i<end;i++){
			int docSn = topDocs.scoreDocs[i].doc;
			Document doc = reader.document(docSn);
			g = new Goods();
			g.setId(Integer.parseInt(doc.get("id")));
			g.setName(doc.get("name"));
			g.setCode(doc.get("code"));
			g.setBrandName(doc.get("brand"));
			g.setCategoryName(doc.get("category"));
			g.setPrice(Float.valueOf(doc.get("price")));
			g.setS(doc.get("goodsAttr"));
			list.add(g);
		}
		
		reader.close();
		d.close();
		this.MaxPage=topDocs.totalHits;
		this.currentPage=currentPage;
		this.list= list;
	}
	
	public static void main(String[] args) throws IOException, ParseException{
		search ss= new search("8.5Kg 2500W tcl", 13,1);
		for(Goods g:ss.getList()){
			System.out.println("name           "+g.getName());
			System.out.println("attr           "+g.getS());
			
		}
	}
	
}

 

分享到:
评论

相关推荐

    lucene 数据库

    总的来说,这个压缩包提供了全面的Lucene学习资源,无论你是刚刚接触Lucene的新手,还是希望深化理解的开发者,都能从中受益。通过学习和实践,你将能够熟练运用Lucene构建高效的全文搜索引擎,解决大数据环境下的...

    lucene in action

    无论是对于初次接触 Lucene 的新手还是已经有一定经验的开发者来说,都是一本非常有价值的参考书。通过阅读本书,不仅可以学习到如何使用 Lucene 构建高效的搜索系统,还能深入了解其背后的原理和技术细节。

    lucene实战第二版(最新)

    Fort Worth Java Users Group认为,这本书非常适合那些刚接触Lucene的开发者,或者需要在应用中集成强大索引和搜索功能的开发者,或者是需要一个关于Lucene的优秀参考资料的人。 总而言之,《Lucene实战第二版》是...

    lucene 5.4.1 官方文档离线版

    Apache Lucene是一个高性能、全文本搜索库,由Java编写,被广泛用于开发搜索引擎和信息检索系统。这个离线版的Lucene 5.4.1官方文档提供了关于...无论是初次接触Lucene的新手,还是有经验的开发者,都能从中受益匪浅。

    大型网站站内搜索(Lucene_In_Action).pdf

    - **接触方式**:通过文档学习、在线资源了解、实践项目等方式接触Lucene。 - **应用场景**:适用于各种规模的网站,特别是大型网站的站内搜索功能。 **知识点4:索引机制** - **原理**:通过建立文档内容与关键词...

    Lucene in Action 英文版(2nd Edition)

    《Lucene in Action》第二版是一部全面、实用且易于理解的指南,无论你是刚接触Lucene的新手还是寻求进一步提高的高级用户,都能从中获得巨大的价值。通过本书的学习,你将能够掌握如何有效地利用Lucene来满足各种...

    Lucene in action second edition

    综上所述,《Lucene in Action 第二版》是一本全面、深入的Lucene指南,无论你是初次接触Lucene的新手,还是寻求进阶知识的开发者,都能从中受益匪浅。通过阅读这本书,你可以掌握构建高效全文搜索引擎所需的全部...

    lucene_in_action中文版.pdf

    首先,接触Lucene章节让读者了解Lucene的起源和基本理念,以及它在Java生态系统中的地位。接着,索引章节深入讲解了如何使用Lucene创建和管理索引,包括文档的分析和存储过程。为程序添加搜索章节则涵盖了如何在自己...

    Lucene in action 第二版 英文版

    无论你是初次接触Lucene的新手还是希望进一步提升技能的开发者,本书都将是一本不可多得的好书。通过阅读本书,你不仅可以了解到Lucene 3.0版本的重要变化,还能学到如何有效地利用Lucene来解决实际问题。

    LUCENE IN ACTION

    - **初学者**: 对于刚接触Lucene的开发者来说,这本书是一个很好的起点。 - **有经验的开发者**: 即使是有经验的开发者也会从中获得新的见解和技巧。 - **想要集成搜索功能的应用开发者**: 如果你的应用需要强大的...

    Lucene In Action

    #### 一、接触Lucene **Lucene** 是一款高性能、功能丰富的全文搜索引擎库,由 **Doug Cutting** 在1997年创建。最初作为个人项目,目的是为了学习 Java 编程语言。Lucene 的设计目标是提供一个简单易用但功能强大...

    JAVA_Lucene_in_Action教程完整版

    - **接触Lucene**:介绍Lucene的基本概念和技术特点,适合初学者入门。 - **索引**:详解如何使用Lucene建立文档索引,包括索引的结构设计、存储策略等。 - **为程序添加搜索功能**:讲解如何将Lucene集成到现有的...

    lucene入门知识

    【Lucene入门知识详解】 Lucene是一个基于Java的全文索引引擎工具包,它并不是一个完整的全文搜索引擎,而是...对于初次接触Lucene的人来说,理解其核心概念、API的使用以及如何定制化以适应特定需求,是学习的重点。

    LuceneinAction(中文版).pdf

    "接触Lucene"章节涵盖了Lucene的历史背景,以及为何从一个私有项目转变为成功的开源项目。Lucene最初由Doug Cutting创建,因其对编程和搜索软件的兴趣,他在1997年用Java实现了Lucene。随着时间推移,Lucene逐渐发展...

    javacc lucene全文检索语言转换.jjt

    这种方式允许用户以更直观、更友好的方式来表达他们的搜索需求,而无需直接接触Lucene的复杂查询API。 例如,用户可能会输入一个像"title:(java AND book) OR author:(Smith)"这样的查询,这个自定义查询语言可能被...

    Lucene in action 2nd Edition MEAP(英文版第二版)

    《Lucene in Action 2nd Edition MEAP》是关于Apache Lucene...书中提供的实例代码和实践指导有助于读者快速上手并提升技能,无论你是初次接触Lucene还是希望深化理解的资深开发者,这本书都将是你不可或缺的参考资料。

Global site tag (gtag.js) - Google Analytics