- 浏览: 204137 次
- 性别:
- 来自: 北京
文章分类
最新评论
-
zoutuo1986:
翻过的帖子,这篇讲配置最细
solr -
18612536750:
Struts2 标签,取得Map的某一个key对应value值 -
zhangzhihua5:
solr -
xiaguangme:
“capacity才是真正的Entry数组的大小,即真实的En ...
源码阅读之Map和Set -
qiyang199132:
我擦民工 都没人来。。 我来捧场了
JSP 防止重复提交 防止重复刷新 防止后退问题以及处理方式
一个搜索功能:要求将所有包括搜索字段的文章的标题列出来(文章的内容存储在Oracle的CLOB字段中),也就是要用Lucene实现对数据库的大字段进行索引和搜索。创建lucene通过java定时任务来完成。
定时调用建立索引方法
建立索引的核心实现
配置文件管理类:
常量配置
数据类型处理类:
配置文件 :
核心搜索类:
配置文件管理类:
通过ServletContextListener配置定时任务
web.xml 配置
数据库表文件
通过以上的代码,可以做到移植到新项目只需要修改配置文件即可。lucene索引建立,不需要考虑什么时候进行。只要保证数据库连接处于正常状态即可,索引字段和搜索字段都可以通知配置的形式表现出来。分页功能和高亮的功能都在其中
定时调用建立索引方法
package com.qqw.index; import java.util.Timer; public class IndexerServer { /** * 定时调用建立索引任务 * @author matieli * @create 2011-10-23 */ public static void main(String[] args) { String propFile = "directory.properties"; Config.setConfigFileName(propFile); Timer timer = new Timer(); LuceneDBIndexerTask luceneTask=LuceneDBIndexerTask.getInstance(); timer.scheduleAtFixedRate(luceneTask, 0,DataTypeUtil.toLong(Constant.CREATE_INDEX_SLEEP_TIME)); } }
建立索引的核心实现
package com.qqw.index; import java.io.BufferedReader; import java.io.File; import java.io.IOException; import java.io.StringWriter; import java.sql.Connection; import java.sql.DriverManager; import java.sql.ResultSet; import java.sql.SQLException; import java.sql.Statement; import java.text.SimpleDateFormat; import java.util.Arrays; import java.util.Date; import java.util.TimerTask; import oracle.sql.CLOB; import org.apache.lucene.analysis.Analyzer; import org.apache.lucene.document.Document; import org.apache.lucene.document.Field; import org.apache.lucene.index.IndexWriter; import org.apache.lucene.index.IndexWriterConfig; import org.apache.lucene.index.IndexWriterConfig.OpenMode; import org.apache.lucene.store.FSDirectory; import org.apache.lucene.util.Version; import org.wltea.analyzer.lucene.IKAnalyzer; /** * 建立索引的任务类 * @author matieli * @create 2011-10-23 */ public class LuceneDBIndexerTask extends TimerTask { //缺省索引目录 private static String DEFAULT_INDEX_DIR="C:\\IndexDB"; //临时索引目录的父目录 private File parentDir=null; //被搜索的索引文件 private static LuceneDBIndexerTask index=new LuceneDBIndexerTask(); //构造方法 private LuceneDBIndexerTask(){ String dirStr=Constant.INDEX_STORE_DIRECTORY; if(dirStr!=null&&!"".equals(dirStr)){ this.parentDir=new File(dirStr); }else{ this.parentDir=new File(DEFAULT_INDEX_DIR); } if(!this.parentDir.exists()){ this.parentDir.mkdir(); } } /** * 单实例访问接口 * @return */ public static LuceneDBIndexerTask getInstance(){ return index; } /** * 锁定目录以及文件 * 只允许单线程访问 * */ /*public synchronized void singleRunning(){ if(flag==false){ flag=true; run(parentDir); } }*/ /** * 为数据库字段建立索引 */ public void run() { System.out.println("====LuceneDBIndexerTask$run()==============="); System.out.println("~~~开始建立索引文件~~~~~~~~~~~~~~~"); Connection conn=null; Statement stmt=null; ResultSet rs=null; String filedir="d:\\fileIndex\\blogs"; File indexDir = new File(filedir); Analyzer analyzer = new IKAnalyzer(); IndexWriterConfig conf = new IndexWriterConfig(Version.LUCENE_33, analyzer); conf.setOpenMode(OpenMode.CREATE); try { Class.forName(Constant.DB_DRIVER_STRING).newInstance(); conn = DriverManager.getConnection(Constant.DB_URI_STRING, Constant.DB_USERNAME, Constant.DB_PWD); stmt = conn.createStatement(); rs = stmt.executeQuery(Constant.DB_QUERY_STRING); File file=new File(parentDir+File.separator+new SimpleDateFormat("yyyyMMddHHmmss").format(new Date())+File.separator); if(!file.exists()){ file.mkdir(); } IndexWriter writer = new IndexWriter(FSDirectory.open(indexDir), conf); long startTime = new Date().getTime(); while (rs.next()) { Document doc = new Document(); doc.add(new Field("ARTICLEID", rs.getString("ARTICLEID"), Field.Store.YES,Field.Index.ANALYZED)); doc.add(new Field("TITLE", rs.getString("TITLE"), Field.Store.YES,Field.Index.ANALYZED)); doc.add(new Field("USERNAME", rs.getString("USERNAME"), Field.Store.YES,Field.Index.ANALYZED)); doc.add(new Field("USERID", rs.getString("USERID"), Field.Store.YES,Field.Index.ANALYZED)); //对日期建立索引 String createdate=new SimpleDateFormat("yyyy-MM-dd").format(rs.getTimestamp("CREATEDATE")); doc.add(new Field("CREATEDATE", createdate, Field.Store.YES,Field.Index.ANALYZED)); //对大字段建立索引 BufferedReader in=null; String content=""; CLOB clob = (CLOB) rs.getClob("CONTENT"); if (clob != null) { //得到一个读入流 in=new BufferedReader(clob.getCharacterStream()); StringWriter out=new StringWriter(); int c; while((c=in.read())!=-1){ out.write(c); } content=out.toString(); } doc.add(new Field("CONTENT", content, Field.Store.YES, Field.Index.ANALYZED)); writer.addDocument(doc); } writer.optimize(); writer.close(); //测试一下索引的时间 long endTime = new Date().getTime(); System.out.println("索引文件"+file.getPath()+"建立成功..."); System.out.println("这花费了" + (endTime - startTime) + " 毫秒来把文档增加到索引里面去!"); //判断文件目录file下的文件个数如果大于3,就将文件建立最早的文件给删除掉 checkFiles(parentDir); } catch (IOException e) { e.printStackTrace(); } catch (SQLException e) { e.printStackTrace(); } catch (ClassNotFoundException e) { e.printStackTrace(); } catch (InstantiationException e) { // TODO Auto-generated catch block e.printStackTrace(); } catch (IllegalAccessException e) { // TODO Auto-generated catch block e.printStackTrace(); }finally{ try { if(rs!=null){ rs.close(); } if(stmt!=null){ stmt.close(); } if(conn!=null){ conn.close(); } } catch (SQLException e) { e.printStackTrace(); } } } /** * 判断文件目录file下的文件个数如果大于3,就将文件建立最早的文件给删除掉 */ public void checkFiles(File dir) { int length=dir.listFiles().length; while(length>3){ //删除生成最早的文件 File [] files=dir.listFiles(); String[] names=dir.list(); Arrays.sort(names); File deletefile=files[0]; deleteDirectory(deletefile); length--; } } /* * 递归删除一个目录以及下面的文件 */ public boolean deleteDirectory(File path) { if( path.exists() ) { File[] files = path.listFiles(); for(int i=0; i<files.length; i++) { if(files[i].isDirectory()) { deleteDirectory(files[i]); } else { //删除文件 files[i].delete(); } } } //删除目录 boolean hasdelete=path.delete(); if(hasdelete){ System.out.println("删除索引目录"+path); } return hasdelete; } public static void main(String[] args) { new LuceneDBIndexerTask().run(); } }
配置文件管理类:
package com.qqw.index; import java.io.IOException; import java.io.InputStream; import java.util.Properties; /** * * @author matieli * @create 2011-10-23 * */ public class Config { private static Config cfg = null; private static String configFileName = null; private Properties props; public Config() { props = new java.util.Properties(); } /** * 单例访问接口 * @return */ public synchronized static Config getInstance() { if (cfg == null) { cfg = new Config(); cfg.loadConfig(); return cfg; } else { return cfg; } } private int loadConfig() { if (configFileName != null || configFileName.length() > 0) { InputStream inputStream = Config.class.getClassLoader() .getResourceAsStream("directory.properties"); System.out.println("configFileName=" + configFileName); try { props.load(inputStream); } catch (IOException e) { e.printStackTrace(); } return 1; } return 0; } public static void setConfigFileName(String cfg) { configFileName = cfg; } public String getProperty(String keyName) { return props.getProperty(keyName); } }
常量配置
package com.qqw.index; /** * 常量配置类 * * @author matieli * @create 2011-10-23 */ public class Constant { // 隔多长时间建立一次索引 public static final String CREATE_INDEX_SLEEP_TIME = Config.getInstance() .getProperty("create_index_sleep_time"); // 索引文件存放路径 public static final String INDEX_STORE_DIRECTORY = Config.getInstance() .getProperty("index_store_directory"); //数据库驱动程序 public static final String DB_DRIVER_STRING = Config.getInstance() .getProperty("db_driver_string"); //数据库连接URI public static final String DB_URI_STRING = Config.getInstance() .getProperty("db_uri_string"); //数据库连接username public static final String DB_USERNAME= Config.getInstance() .getProperty("db_username"); //数据库连接pwd public static final String DB_PWD= Config.getInstance() .getProperty("db_pwd"); //数据库查询语句db_query_str public static final String DB_QUERY_STRING= Config.getInstance() .getProperty("db_query_string"); }
数据类型处理类:
package com.qqw.index; /** * 数据类型转换工具类 * @author matieli * @create 2011-10-23 */ public class DataTypeUtil { /** * 将对象转换为整数型 * @param o 源对象 * @return 对应的Long值,如果出错,则返回Long.MIN_VALUE */ public static long toLong(Object o) { if (o == null) { throw new IllegalArgumentException("该对象为空"); } String s = o.toString(); try { return Long.parseLong(s); } catch (Exception ex) { return Long.MAX_VALUE; } } }
配置文件 :
#== the directory for store lucene-index ========# index_store_directory=D\:/lucene/indexDB/ #======== two hours ========# #create_index_sleep_time=7200000 #======== two minutes ========# create_index_sleep_time=7200000 db_driver_string=oracle.jdbc.driver.OracleDriver db_uri_string=jdbc\:oracle\:thin\:@localhost\:1521\:orcl db_username=test db_pwd=test db_query_string=SELECT * from journalarticle
核心搜索类:
package com.qqw.search; import java.io.File; import java.io.IOException; import java.util.ArrayList; import java.util.HashMap; import java.util.List; import java.util.Map; import org.apache.lucene.document.Document; import org.apache.lucene.index.CorruptIndexException; import org.apache.lucene.search.BooleanClause; import org.apache.lucene.search.IndexSearcher; import org.apache.lucene.search.Query; import org.apache.lucene.search.ScoreDoc; import org.apache.lucene.search.TopDocs; import org.apache.lucene.search.highlight.Formatter; import org.apache.lucene.search.highlight.Fragmenter; import org.apache.lucene.search.highlight.Highlighter; import org.apache.lucene.search.highlight.InvalidTokenOffsetsException; import org.apache.lucene.search.highlight.QueryScorer; import org.apache.lucene.search.highlight.Scorer; import org.apache.lucene.search.highlight.SimpleFragmenter; import org.apache.lucene.search.highlight.SimpleHTMLFormatter; import org.apache.lucene.store.FSDirectory; import org.wltea.analyzer.lucene.IKAnalyzer; import org.wltea.analyzer.lucene.IKQueryParser; import org.wltea.analyzer.lucene.IKSimilarity; /** * 负责搜索的类 */ public class LuceneDBQuery { private static LuceneDBQuery search = new LuceneDBQuery(); // 构造方法 private LuceneDBQuery() { } /** * 单实例访问接口 * * @return */ public static LuceneDBQuery getInstance() { return search; } public List<Map<String,Object>> seacherStr(String[] indexFields,String[] searchFields,String queryString, String searchdictory,String[] highlighterFields) { List<Map<String,Object>> list = null; TopDocs topDocs = null; Query query = null; IndexSearcher searcher = null; try { searcher = new IndexSearcher(FSDirectory.open(new File( searchdictory)), true);// read-only BooleanClause.Occur[] flags=new BooleanClause.Occur[]{BooleanClause.Occur.MUST,BooleanClause.Occur.MUST}; query = IKQueryParser.parseMultiField(searchFields, queryString,flags);// 多个 //在索引器中使用IKSimilarity相似度评估器 searcher.setSimilarity(new IKSimilarity()); // 准备高亮器 Formatter formatter = new SimpleHTMLFormatter( "<span class=\"highlighter\">", "</span>"); Scorer fragmentScorer = new QueryScorer(query); Highlighter highlighter = new Highlighter(formatter, fragmentScorer); Fragmenter fragmenter = new SimpleFragmenter(100);// 高亮范围 highlighter.setTextFragmenter(fragmenter); if (searcher != null) { topDocs = searcher.search(query, 100);// 100是显示队列的Size ScoreDoc[] hits = topDocs.scoreDocs; System.out.println("共有" + searcher.maxDoc() + "条索引,命中" + hits.length + "条"); list = new ArrayList<Map<String,Object>>(); for (int i = 0; i < hits.length; i++) {//长度遍历 ScoreDoc scoreDoc = topDocs.scoreDocs[i];// 读取第几条记录 int docSn = scoreDoc.doc; // 文档内部编号 Document document = searcher.doc(docSn); Map<String,Object> map=new HashMap<String, Object>(); // 高亮 for (int k = 0; k < indexFields.length; k++) {//遍历所有的字段 map.put(indexFields[k], document.get(indexFields[k])); for (int j = 0; j < highlighterFields.length; j++) {//遍历要高亮的字段,要高亮的字段肯定小于等于所有的字段 // 如果当前属性值中没有出现关键字,则返回null String hctemp = highlighter.getBestFragment( new IKAnalyzer(), "\""+highlighterFields[j]+"\"", document.get(highlighterFields[j])); if (hctemp == null) { hctemp = document.get(highlighterFields[j]); } map.put(highlighterFields[j], hctemp); } } list.add(map); } } } catch (CorruptIndexException e) { // TODO Auto-generated catch block e.printStackTrace(); } catch (IOException e) { // TODO Auto-generated catch block e.printStackTrace(); } catch (InvalidTokenOffsetsException e) { // TODO Auto-generated catch block e.printStackTrace(); } return list; } // 查询分页 public List<Map<String,Object>> seacherStrbyPage(String[] indexFields,String[] searchFields,String queryString, String searchdictory, int firstResult, int maxResult,String[] highlighterFields) { List<Map<String,Object>> list = null; TopDocs topDocs = null; Query query = null; IndexSearcher searcher = null; try { searcher = new IndexSearcher(FSDirectory.open(new File( searchdictory)), true);// read-only // QueryParser qp = new QueryParser(Version.LUCENE_33, fields, // new StandardAnalyzer(Version.LUCENE_33));// 有变化的地方 单个字段关联 // // 使用IKQueryParser查询分析器构造Query对象 // //声明BooleanClause.Occur[]数组,它表示多个条件之间的关系 // BooleanClause.Occur[] flags=new // BooleanClause.Occur[]{BooleanClause.Occur.MUST,BooleanClause.Occur.MUST}; query = IKQueryParser.parseMultiField(searchFields, queryString);// 多个 // //在索引器中使用IKSimilarity相似度评估器 searcher.setSimilarity(new IKSimilarity()); // query = IKQueryParser.parse(field, queryString); // QueryParser qp = new MultiFieldQueryParser(Version.LUCENE_33, // fields, // new IKAnalyzer());// 有变化的地方 多个地段关联 // // query = qp.parse(queryString); // 准备高亮器 Formatter formatter = new SimpleHTMLFormatter( "<span class=\"highlighter\">", "</span>"); Scorer fragmentScorer = new QueryScorer(query); Highlighter highlighter = new Highlighter(formatter, fragmentScorer); Fragmenter fragmenter = new SimpleFragmenter(100);// 高亮范围 highlighter.setTextFragmenter(fragmenter); if (searcher != null) { topDocs = searcher.search(query, 100);// 100是显示队列的Size ScoreDoc[] hits = topDocs.scoreDocs; System.out.println("共有" + searcher.maxDoc() + "条索引,命中" + hits.length + "条"); list = new ArrayList<Map<String,Object>>(); for (int i = firstResult - 1; i < firstResult + maxResult - 1; i++) {//按照分页的长度遍历 //for (int i = 0; i < hits.length; i++) {//长度遍历 ScoreDoc scoreDoc = topDocs.scoreDocs[i];// 读取第几条记录 int docSn = scoreDoc.doc; // 文档内部编号 Document document = searcher.doc(docSn); Map<String,Object> map=new HashMap<String, Object>(); // 高亮 for (int k = 0; k < indexFields.length; k++) {//遍历所有的字段 map.put(indexFields[k], document.get(indexFields[k])); for (int j = 0; j < highlighterFields.length; j++) {//遍历要高亮的字段,要高亮的字段肯定小于等于所有的字段 // 如果当前属性值中没有出现关键字,则返回null String hctemp = highlighter.getBestFragment( new IKAnalyzer(), "\""+highlighterFields[j]+"\"", document.get(highlighterFields[j])); if (hctemp == null) { hctemp = document.get(highlighterFields[j]); } map.put(highlighterFields[j], hctemp); } } list.add(map); } } } catch (CorruptIndexException e) { // TODO Auto-generated catch block e.printStackTrace(); } catch (IOException e) { // TODO Auto-generated catch block e.printStackTrace(); } catch (InvalidTokenOffsetsException e) { // TODO Auto-generated catch block e.printStackTrace(); } return list; } // 取得符合搜索条件的所有记录总数,以便分页 , 与上面方法类似 public int getResultCount(String[] searchFields,String queryString, String searchdictory) throws Exception { TopDocs topDocs = null; Query query = null; IndexSearcher searcher = null; try { searcher = new IndexSearcher(FSDirectory.open(new File( searchdictory)), true);// read-only query = IKQueryParser.parseMultiField(searchFields, queryString);// 多个 // //在索引器中使用IKSimilarity相似度评估器 searcher.setSimilarity(new IKSimilarity()); if (searcher != null) { topDocs = searcher.search(query, 100);// 100是显示队列的Size } } catch (CorruptIndexException e) { // TODO Auto-generated catch block e.printStackTrace(); } catch (IOException e) { // TODO Auto-generated catch block e.printStackTrace(); } // ScoreDoc[] hits = topDocs.scoreDocs;取得还是hits的length return topDocs.scoreDocs.length; } }
配置文件管理类:
package com.qqw.search; import java.io.IOException; import org.jdom.Document; import org.jdom.Element; import org.jdom.JDOMException; import org.jdom.input.SAXBuilder; public class LuceneDBQueryUtil { public static String getIndexPath(){ String filePath = "zxt_index.xml"; String indexPath=""; SAXBuilder builder = new SAXBuilder(false); try { Document doc = builder.build(Thread.currentThread().getContextClassLoader().getResource(filePath)); Element rootElement = doc.getRootElement(); Element index=rootElement.getChild("index"); indexPath=index.getText(); System.out.println(indexPath); } catch (JDOMException e) { e.printStackTrace(); } catch (IOException e) { e.printStackTrace(); } return indexPath; } }
通过ServletContextListener配置定时任务
package com.qqw.timer; import java.util.Timer; import javax.servlet.ServletContextEvent; import javax.servlet.ServletContextListener; import com.qqw.index.Constant; import com.qqw.index.LuceneDBIndexerTask; public class MyListener implements ServletContextListener { private Timer timer = null; public void contextInitialized(ServletContextEvent event) { timer = new Timer(true); //设置任务计划,启动和间隔时间 timer.schedule(LuceneDBIndexerTask.getInstance(), 0,Long.valueOf(Constant.CREATE_INDEX_SLEEP_TIME)); } public void contextDestroyed(ServletContextEvent event) { timer.cancel(); } }
web.xml 配置
<?xml version="1.0" encoding="UTF-8"?> <web-app version="2.4" xmlns="http://java.sun.com/xml/ns/j2ee" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://java.sun.com/xml/ns/j2ee http://java.sun.com/xml/ns/j2ee/web-app_2_4.xsd"> <welcome-file-list> <welcome-file>index.jsp</welcome-file> </welcome-file-list> <!-- 配置servlet --> <servlet> <servlet-name>SearchServlet</servlet-name> <servlet-class>dataFromOracle.servlet.SearchServlet</servlet-class> </servlet> <servlet-mapping> <servlet-name>SearchServlet</servlet-name> <url-pattern>/SearchServlet</url-pattern> </servlet-mapping> <listener> <listener-class>com.qqw.timer.MyListener</listener-class> </listener> </web-app>
数据库表文件
-- Create table create table JOURNALARTICLE ( ARTICLEID NUMBER(10) not null, TITLE VARCHAR2(255) not null, USERNAME VARCHAR2(4000) not null, USERID VARCHAR2(255) not null, CREATEDATE TIMESTAMP(6) not null, CONTENT CLOB ); -- Create/Recreate primary, unique and foreign key constraints alter table JOURNALARTICLE add constraint ARTICLEID primary key (ARTICLEID);
通过以上的代码,可以做到移植到新项目只需要修改配置文件即可。lucene索引建立,不需要考虑什么时候进行。只要保证数据库连接处于正常状态即可,索引字段和搜索字段都可以通知配置的形式表现出来。分页功能和高亮的功能都在其中
发表评论
-
SSH + Lucene + 分页 + 排序 + 高亮 模拟简单新闻网站搜索引擎
2011-10-26 09:33 1459SSH + Lucene + 分页 + 排序 + 高亮 模拟简 ... -
lucene最新版本3.3的基本功能用法(IK分词是3.2.8)
2011-10-25 17:00 23111.创建索引和查询 package dataFromOracl ... -
org.apache.lucene.analysis.TokenStream.incrementToken()Z
2011-10-25 14:06 2709在使用lucene3与IKAnalyzer集成的时候可能会出现 ... -
Lucene多字段搜索
2011-10-24 17:08 3886最近在学习Lucene的过程中遇到了需要多域搜索并排序的问题, ...
相关推荐
lucene,lucene教程,lucene讲解。 为了对文档进行索引,Lucene 提供了五个基础的类 public class IndexWriter org.apache.lucene.index.IndexWriter public abstract class Directory org.apache.lucene.store....
Lucene是一款强大的全文搜索引擎库,广泛应用于各种数据检索场景。在C#环境下,利用Lucene进行时间区间搜索是提高数据检索效率和精确度的重要手段。本篇将深入探讨如何在C#中实现Lucene的时间区间查询匹配,以及涉及...
【Lucene 4.7.0 全套JAR包详解】 Lucene是一个开源全文搜索引擎库,由Apache软件基金会开发并维护。它提供了一个高级、灵活的文本搜索API,允许开发者轻松地在应用程序中实现复杂的搜索功能。这次提供的“lucene-...
本压缩包包含的是Lucene 3.5.0版本的全部源码,对于想要深入理解Lucene工作原理、进行二次开发或者进行搜索引擎相关研究的开发者来说,是一份非常宝贵的学习资源。 Lucene 3.5.0是Lucene的一个重要版本,它在3.x...
《Lucene in Action 第二版》是一本深入探讨Apache Lucene全文检索库的专业书籍,它在Java开发领域具有很高的权威性。这本书详细介绍了如何利用Lucene进行高效的文本搜索和索引构建,是Java开发者和信息检索爱好者的...
在IT领域,搜索引擎技术是至关重要的,而Lucene作为一个开源全文搜索引擎库,广泛应用于各种文本检索系统中。本文将深入探讨Lucene示例中的BM25相似度计算,旨在帮助初学者理解如何利用Lucene 4.7.1版本构建索引、...
《Lucene与关系型数据库对比:深度解析与应用探索》 在信息爆炸的时代,数据管理和检索成为了企业乃至个人日常工作中不可或缺的部分。随着技术的发展,不同的数据处理方式应运而生,其中Lucene与关系型数据库作为两...
"计算机专业外文翻译(lucene相关)" 本文翻译了论文"Scale-up x Scale-out: A Case Study using Nutch/Lucene",介绍了计算机专业领域中关于Lucene相关的知识点。 Scale-up vs Scale-out 论文中讨论了两个相对...
赠送jar包:lucene-core-7.2.1.jar; 赠送原API文档:lucene-core-7.2.1-javadoc.jar; 赠送源代码:lucene-core-7.2.1-sources.jar; 赠送Maven依赖信息文件:lucene-core-7.2.1.pom; 包含翻译后的API文档:lucene...
**Lucene.NET 中文分词技术详解** Lucene.NET 是一个高性能、全文检索库,它是Apache Lucene项目在.NET平台上的实现。作为一个开源的搜索引擎框架,Lucene.NET为开发者提供了强大的文本搜索功能。而在处理中文文档...
赠送jar包:lucene-core-7.7.0.jar; 赠送原API文档:lucene-core-7.7.0-javadoc.jar; 赠送源代码:lucene-core-7.7.0-sources.jar; 赠送Maven依赖信息文件:lucene-core-7.7.0.pom; 包含翻译后的API文档:lucene...
《全面解析Lucene jar包:从基础到应用》 在信息技术高速发展的今天,搜索引擎已经成为我们获取信息不可或缺的工具。在Java领域,Lucene作为一个强大的全文搜索引擎库,深受开发者喜爱。本文将详细介绍“lucene所有...
Apache Lucene是一个开源全文搜索引擎库,它为Java开发者提供了强大的文本搜索功能。在这个"Lucene 5 主要jar包"中,我们找到了一系列与Lucene 5.0.0相关的jar文件,这些文件是构建和运行基于Lucene的搜索应用程序的...
**Lucene原理详解** Lucene是一个高性能、全文检索库,由Apache软件基金会开发并维护,是Java编程语言中广泛使用的搜索引擎库。它提供了一个简单但功能强大的API,用于索引和搜索文本数据,使得开发者可以轻松地在...
在信息检索和存储系统中,Lucene是一个开源的全文搜索引擎库,广泛应用于各种需要全文搜索功能的软件项目中。为了高效地处理和检索存储的词项(term),Lucene使用了FST(有限状态转换器,Finite State Transducer)...
**基于Lucene技术的增量索引** 在信息技术领域,全文搜索引擎是处理大量数据查询的关键工具。Apache Lucene是一个开源的全文检索库,被广泛应用于构建高效、可扩展的搜索功能。本文将深入探讨如何利用Lucene实现...
### Lucene对XML文档建立索引的技术解析与实践 #### 一、引言 随着互联网技术的迅猛发展,非结构化数据(如XML文档)在企业和组织中的应用日益广泛。如何高效地处理这些非结构化的数据,特别是进行快速检索成为了一...
【标题】"lucene的jar包,欢迎下载"所涉及的知识点主要集中在Lucene这个开源全文搜索引擎库上。Lucene是Apache软件基金会的顶级项目,它是一个高性能、全文本搜索库,提供了完整的搜索功能,包括索引、查询、排序等...
**Lucene学习指南** Lucene是一个高性能、全文检索库,由Apache软件基金会开发并维护,是Java编程语言中广泛使用的搜索引擎库。它提供了一个简单的API,使得开发者能够方便地在应用中实现全文检索功能。本篇文章将...