lucene。。数据从数据库中获得,
所以我下面展示的代码描述的就是一个,
1,从数据库查数据,然后把这些数据通过lucene创建索引库保存在硬盘上。
2,从索引库查出数据。
3,完!
package com.bjtc; import java.io.File; import java.io.Reader; import java.io.StringReader; import java.sql.Connection; import java.sql.ResultSet; import java.sql.Statement; import java.util.regex.Pattern; import org.apache.lucene.analysis.Analyzer; import org.apache.lucene.analysis.TokenStream; import org.apache.lucene.analysis.Analyzer.TokenStreamComponents; import org.apache.lucene.analysis.cn.smart.SmartChineseAnalyzer; import org.apache.lucene.analysis.pattern.PatternTokenizer; import org.apache.lucene.document.Document; import org.apache.lucene.document.Field; import org.apache.lucene.document.Field.Store; import org.apache.lucene.document.FieldType; import org.apache.lucene.document.FieldType.NumericType; import org.apache.lucene.document.FloatField; import org.apache.lucene.document.IntField; import org.apache.lucene.document.StringField; import org.apache.lucene.index.IndexWriter; import org.apache.lucene.index.IndexWriterConfig; import org.apache.lucene.index.IndexWriterConfig.OpenMode; import org.apache.lucene.store.Directory; import org.apache.lucene.store.FSDirectory; import org.apache.lucene.util.Version; import com.PatternAnalyzer; public class CreateIndex { static String indexpath="e:\\indextest\\index"; static File indexFile = null; Analyzer analyzer = null; String brandsql="(select b.name from brand b where b.id=g.brand_id) as brandName"; String categorySql="(select c.name from category c where c.id=g.category_id) as categroyName"; String price ="(select max(s.price) from seller_goods s where s.goods_id=g.id) as Sprice"; String attrSql="select * from Goods_Attr where goods_id="; String sql="select g.* ,"+brandsql+","+categorySql+","+price+" from goods g"; public void create() throws Exception{ //连接数据库,获得数据源 Connection conn =DButil.getConnection(); if(conn == null) { throw new Exception("数据库连接失败"); } Statement stmt=conn.createStatement(); ResultSet rs=stmt.executeQuery(sql); //控制创建索引,与之对应的有IndexReader来读取索引 IndexWriter indexWriter = null; indexFile = new File(indexpath);//创建文件夹 if(!indexFile.exists()) { indexFile.mkdir(); } //打开存放索引的路径 Directory directory = FSDirectory.open(indexFile); //中文标准分词器 Analyzer analyzer = new SmartChineseAnalyzer(Version.LUCENE_4_9); //Analyzer analyzer2= new IK_CAnalyzer(); IndexWriterConfig inWC=new IndexWriterConfig(Version.LUCENE_4_9, analyzer);//IndexWriterConfig inWC.setOpenMode(OpenMode.CREATE);//每次生成索引时把原有索引删除,生存新的索引 indexWriter = new IndexWriter(directory,inWC); Document doc = null; int x=0;//查看最后一共搜出多少条数据 System.out.println("正在创建索引ing....."); while(rs.next()) { doc = new Document(); //因为是最新版本的lucene,所以网上很多的方法不能直接使用 //使用lucene版本是4_9的,下面的方法已经过时不用 //Field id = new Field("id", String.valueOf(rs.getInt("id")),Field.Store.YES, Field.Index.NOT_ANALYZED); FieldType fstr=new FieldType();//定义field字段的属性 fstr.setIndexed(true);//索引 fstr.setStored(true);//存储 //下面用的StringField,默认是不分词的! doc.add(new StringField("brand",rs.getString("brandName"),Field.Store.YES)); doc.add(new StringField("category",rs.getString("categroyName"),Field.Store.YES)); doc.add(new StringField("brief",rs.getString("brief")==null?" ":rs.getString("brief"),Field.Store.YES)); doc.add(new StringField("type_no", rs.getString("type_no"), Field.Store.YES)); //下面用到了FieldType使其分词并被索引。不推荐这样用 //建议使用TextField("name", rs.getString("name"),Store.YES); doc.add(new Field("name", rs.getString("name"),fstr)); doc.add(new StringField("code",rs.getString("code"),Field.Store.YES)); //document中可以存空串,但放null doc.add(new StringField("image",rs.getString("image")==null?"":rs.getString("image"),Store.YES)); /* FieldType fInt=new FieldType();配置数字类型, fInt.setNumericType(NumericType.INT); fInt.setIndexed(false);不索引 fInt.setStored(true); FieldType fFloat=new FieldType(); fFloat.setNumericType(NumericType.FLOAT); fFloat.setIndexed(true); fFloat.setStored(true);*/ doc.add(new IntField("id",rs.getInt("id"),Store.YES)); doc.add(new FloatField("price", rs.getFloat("Sprice"),Store.YES)); doc.add(new IntField("click_count",rs.getInt("click_count"),Store.YES)); doc.add(new IntField("attention",rs.getInt("attention"),Store.YES)); String strs=""; String sqll=attrSql+rs.getInt("id"); Statement stmt2=conn.createStatement(); ResultSet rs2=stmt2.executeQuery(sqll); while(rs2.next()){ strs=rs2.getString("attr_value")+","+strs; } /*PatternAnalyzer pa=new PatternAnalyzer(",");此处使用的是自定义分词器,可以在doc里存TokenStream,但不可以存储 TokenStream ts= analyzer.tokenStream("GoodsAttr", new StringReader(strs));*/ rs2.close(); doc.add(new Field("GoodsAttr",strs,fstr)); indexWriter.addDocument(doc); x++; } System.out.println("数据库查询结果 :"+x); System.out.println("索引创建完成!"); indexWriter.close(); directory.close(); } public static void main(String[] args) throws Exception{ new CreateIndex().create(); } }
建立好索引库后就开始搜索吧
package com.bjtc; import java.io.File; import java.io.IOException; import java.util.ArrayList; import java.util.List; import org.apache.lucene.analysis.cn.smart.SmartChineseAnalyzer; import org.apache.lucene.document.Document; import org.apache.lucene.index.DirectoryReader; import org.apache.lucene.index.IndexReader; import org.apache.lucene.index.Term; import org.apache.lucene.queryparser.classic.MultiFieldQueryParser; import org.apache.lucene.queryparser.classic.ParseException; import org.apache.lucene.queryparser.classic.QueryParser; import org.apache.lucene.queryparser.classic.QueryParser.Operator; import org.apache.lucene.search.BooleanClause.Occur; import org.apache.lucene.search.BooleanQuery; import org.apache.lucene.search.IndexSearcher; import org.apache.lucene.search.NumericRangeQuery; import org.apache.lucene.search.Query; import org.apache.lucene.search.Sort; import org.apache.lucene.search.SortField; import org.apache.lucene.search.TermQuery; import org.apache.lucene.search.TopDocs; import org.apache.lucene.store.Directory; import org.apache.lucene.store.FSDirectory; import org.apache.lucene.util.Version; import TEST.MyAnalyzer; public class search { String indexPath = "e:\\indextest\\index"; private Integer currentPage; private Integer MaxPage; private List<Goods> list; public Integer getMaxPage() { return MaxPage; } public List<Goods> getList() { return list; } public Integer getCurrentPage() { return currentPage; } /**@NortherSong * 多个条件精确搜索,下面有类似淘宝京东大搜索框搜索 * 实现了分页功能 * @param brand 搜索条件 * @param category 搜索条件 * @param price 搜索条件 * @param attr 搜索条件 * @param pagerSize 一页中含数据 * @param currentPage 页码 * @throws IOException * @throws ParseException */ public search(String brand,String category,String price,String attr,int pagerSize,int currentPage) throws IOException, ParseException{ System.out.println("搜索条件:"); System.out.println("category ------"+category); System.out.println("brand ------"+brand); System.out.println("attr ------"+attr); BooleanQuery bq=new BooleanQuery();//多个搜索条件的Query //Term是最小的搜索单元 TermQuery termQuery1 = new TermQuery(new Term("brand", brand)); TermQuery termQuery2 = new TermQuery(new Term("category", category)); if(price.length()>0){ String[] ps=price.split("-"); //NumericRangeQuery.newFloatRange范围搜索 Query q= NumericRangeQuery.newFloatRange("price", Float.valueOf(ps[0]), Float.valueOf(ps[1]), true, true); bq.add(q, Occur.MUST); } //Occur.MUST表示BooleanQuery中条件为并的关系,SHORLD:或 if(null!=brand&&brand.trim().length()!=0) bq.add(termQuery1, Occur.MUST); if(null!=category&&category.trim().length()!=0) bq.add(termQuery2, Occur.MUST); if(null!=attr&&attr.trim().length()!=0) { String[] attrs = attr.split(" "); for(String atr:attrs){ if(atr.length()>1){ atr= atr.trim(); System.out.println(attr); bq.add(new TermQuery(new Term("goodsAttr", atr)), Occur.MUST); //bq.add(q, Occur.MUST); } } } //同创建索引时一样,要打开存放索引的路径 Directory d = FSDirectory.open(new File(indexPath)); IndexReader reader = DirectoryReader.open(d);//流读取 //对所搜索出的数据进行排序 Sort sort= new Sort(); //默认为false 升序 SortField s= new SortField("price", SortField.Type.FLOAT); sort.setSort(s); IndexSearcher searcher = new IndexSearcher(reader);//搜索 //searcher.search(QUERY,FILTER过滤器,最多获取数据DOCUMENT条数,sort排序); TopDocs topDocs = searcher.search(bq, null, 10000,sort); System.out.println("符合条件的" + topDocs.totalHits + "---"); //分页 int begin=pagerSize*(currentPage-1); int end=Math.min(topDocs.scoreDocs.length, begin+pagerSize); List<Goods> list = new ArrayList<Goods>(); Goods g = null; for(int i=begin;i<end;i++){ int docSn = topDocs.scoreDocs[i].doc; Document doc = reader.document(docSn); g = new Goods(); g.setId(Integer.parseInt(doc.get("id"))); g.setName(doc.get("name")); g.setCode(doc.get("code")); g.setBrandName(doc.get("brand")); g.setCategoryName(doc.get("category")); g.setPrice(Float.valueOf(doc.get("price"))); g.setS(doc.get("goodsAttr"));//z注意大小写 list.add(g); } //用完记得关闭流~ reader.close(); d.close(); this.MaxPage=topDocs.totalHits; this.currentPage=currentPage; this.list= list; } public search(String queryStr,int pagerSize,int currentPage) throws IOException, ParseException { // QueryParser qp = new QueryParser(Version.LUCENE_4_9, "goodsAttr", // new PatternAnalyzer(" "));对单一的字段进行搜索 例如条件可以是“联想 G”这样,我可能搜出手机或者电脑 MultiFieldQueryParser mp = new MultiFieldQueryParser(//搜索多个字段 例如“联想 电脑 红色” Version.LUCENE_4_9, new String[] {"name","brandName","categoryName"}, new SmartChineseAnalyzer(Version.LUCENE_4_9)); mp.setDefaultOperator(Operator.AND);//多个字段之间的关系是或还是并专业点是 &&还是|| Query query= mp.parse(queryStr); Directory d = FSDirectory.open(new File(indexPath)); IndexReader reader = DirectoryReader.open(d); Sort s= new Sort(); //默认为false 升序 SortField sf= new SortField("price", SortField.Type.FLOAT); s.setSort(sf); IndexSearcher searcher = new IndexSearcher(reader); TopDocs topDocs = searcher.search(query, null, 10000,s); System.out.println("符合条件的" + topDocs.totalHits + "---"); int begin=pagerSize*(currentPage-1); int end=Math.min(topDocs.scoreDocs.length, begin+pagerSize); List<Goods> list = new ArrayList<Goods>(); Goods g = null; for(int i=begin;i<end;i++){ int docSn = topDocs.scoreDocs[i].doc; Document doc = reader.document(docSn); g = new Goods(); g.setId(Integer.parseInt(doc.get("id"))); g.setName(doc.get("name")); g.setCode(doc.get("code")); g.setBrandName(doc.get("brand")); g.setCategoryName(doc.get("category")); g.setPrice(Float.valueOf(doc.get("price"))); g.setS(doc.get("goodsAttr")); list.add(g); } reader.close(); d.close(); this.MaxPage=topDocs.totalHits; this.currentPage=currentPage; this.list= list; } public static void main(String[] args) throws IOException, ParseException{ search ss= new search("8.5Kg 2500W tcl", 13,1); for(Goods g:ss.getList()){ System.out.println("name "+g.getName()); System.out.println("attr "+g.getS()); } } }
相关推荐
总的来说,这个压缩包提供了全面的Lucene学习资源,无论你是刚刚接触Lucene的新手,还是希望深化理解的开发者,都能从中受益。通过学习和实践,你将能够熟练运用Lucene构建高效的全文搜索引擎,解决大数据环境下的...
无论是对于初次接触 Lucene 的新手还是已经有一定经验的开发者来说,都是一本非常有价值的参考书。通过阅读本书,不仅可以学习到如何使用 Lucene 构建高效的搜索系统,还能深入了解其背后的原理和技术细节。
Fort Worth Java Users Group认为,这本书非常适合那些刚接触Lucene的开发者,或者需要在应用中集成强大索引和搜索功能的开发者,或者是需要一个关于Lucene的优秀参考资料的人。 总而言之,《Lucene实战第二版》是...
Apache Lucene是一个高性能、全文本搜索库,由Java编写,被广泛用于开发搜索引擎和信息检索系统。这个离线版的Lucene 5.4.1官方文档提供了关于...无论是初次接触Lucene的新手,还是有经验的开发者,都能从中受益匪浅。
《Lucene in Action》第二版是一部全面、实用且易于理解的指南,无论你是刚接触Lucene的新手还是寻求进一步提高的高级用户,都能从中获得巨大的价值。通过本书的学习,你将能够掌握如何有效地利用Lucene来满足各种...
综上所述,《Lucene in Action 第二版》是一本全面、深入的Lucene指南,无论你是初次接触Lucene的新手,还是寻求进阶知识的开发者,都能从中受益匪浅。通过阅读这本书,你可以掌握构建高效全文搜索引擎所需的全部...
首先,接触Lucene章节让读者了解Lucene的起源和基本理念,以及它在Java生态系统中的地位。接着,索引章节深入讲解了如何使用Lucene创建和管理索引,包括文档的分析和存储过程。为程序添加搜索章节则涵盖了如何在自己...
无论你是初次接触Lucene的新手还是希望进一步提升技能的开发者,本书都将是一本不可多得的好书。通过阅读本书,你不仅可以了解到Lucene 3.0版本的重要变化,还能学到如何有效地利用Lucene来解决实际问题。
- **初学者**: 对于刚接触Lucene的开发者来说,这本书是一个很好的起点。 - **有经验的开发者**: 即使是有经验的开发者也会从中获得新的见解和技巧。 - **想要集成搜索功能的应用开发者**: 如果你的应用需要强大的...
#### 一、接触Lucene **Lucene** 是一款高性能、功能丰富的全文搜索引擎库,由 **Doug Cutting** 在1997年创建。最初作为个人项目,目的是为了学习 Java 编程语言。Lucene 的设计目标是提供一个简单易用但功能强大...
- **接触Lucene**:介绍Lucene的基本概念和技术特点,适合初学者入门。 - **索引**:详解如何使用Lucene建立文档索引,包括索引的结构设计、存储策略等。 - **为程序添加搜索功能**:讲解如何将Lucene集成到现有的...
【Lucene入门知识详解】 Lucene是一个基于Java的全文索引引擎工具包,它并不是一个完整的全文搜索引擎,而是...对于初次接触Lucene的人来说,理解其核心概念、API的使用以及如何定制化以适应特定需求,是学习的重点。
"接触Lucene"章节涵盖了Lucene的历史背景,以及为何从一个私有项目转变为成功的开源项目。Lucene最初由Doug Cutting创建,因其对编程和搜索软件的兴趣,他在1997年用Java实现了Lucene。随着时间推移,Lucene逐渐发展...
这种方式允许用户以更直观、更友好的方式来表达他们的搜索需求,而无需直接接触Lucene的复杂查询API。 例如,用户可能会输入一个像"title:(java AND book) OR author:(Smith)"这样的查询,这个自定义查询语言可能被...
《Lucene in Action 2nd Edition MEAP》是关于Apache Lucene...书中提供的实例代码和实践指导有助于读者快速上手并提升技能,无论你是初次接触Lucene还是希望深化理解的资深开发者,这本书都将是你不可或缺的参考资料。