- 浏览: 347866 次
- 性别:
- 来自: 北京
文章分类
最新评论
-
pacoson:
感谢楼主。请受小生一拜。
ANT预编译JSP -
zhuhongming123:
一楼的同学Lucene4.* 以上的 已经改成了Numeric ...
Lucene日期排序及组合查询 -
ywjk520:
RangeQuery在哪个包里?
Lucene日期排序及组合查询 -
willwen:
有个疑问,楼主,为何初始化bits 从txt读取已有的网址是直 ...
布隆过滤器(Bloom Filter)之java实例 -
yu_226528:
还不如没有呢
jFreeChart 在jsp页上实现简单的折线图、柱状图
注明:该类主要是符合本人项目的需求,内容摘要的高亮点实现没这么复杂,此类中不仅仅包含了内容的高亮点实现,还包含了获取xml内容和html纯文本的提取。注意一点的是在对内容进行高亮度化的过程中,其实也就是进行全文检索的过程,所以对文本内容进行分词是必不可少的。否则将无法找到文本中对应的关键词。详细请看类的实现
/* * @(#)SummaryHighlighter.java * Copyright(c) */ package com.chengyi.util; import java.io.BufferedReader; import java.io.ByteArrayInputStream; import java.io.File; import java.io.FileInputStream; import java.io.FileNotFoundException; import java.io.IOException; import java.io.InputStreamReader; import java.io.Reader; import java.io.StringReader; import javax.swing.ListCellRenderer; import javax.xml.parsers.DocumentBuilder; import javax.xml.parsers.DocumentBuilderFactory; import javax.xml.parsers.ParserConfigurationException; import org.apache.lucene.analysis.Analyzer; import org.apache.lucene.analysis.SimpleAnalyzer; import org.apache.lucene.analysis.TokenStream; import org.apache.lucene.analysis.cw.Segmenter; import org.apache.lucene.analysis.cw.SegmenterUtils; import org.apache.lucene.queryParser.QueryParser; import org.apache.lucene.search.Query; import org.apache.lucene.search.highlight.Highlighter; import org.apache.lucene.search.highlight.QueryScorer; import org.apache.lucene.search.highlight.SimpleHTMLFormatter; import org.htmlparser.util.ParserException; import org.w3c.dom.CDATASection; import org.w3c.dom.Element; import org.w3c.dom.Node; import org.w3c.dom.NodeList; import org.w3c.dom.Text; /** * 用lucene实现搜索结果的高亮度 * * @version 1.0 2009.02.03 * @author zhx * */ public class SummaryHighlighter { /** 高亮度内容属性,只是有标识作用,没有具体意义*/ private static String CONTENT = "content"; /** * 实现内容摘要的高亮点 * 此方法传入的xmlContent内容是一个xml文本(格式见测试文件2.txt),我们需根据该xml的结构进行 * 分析,并提取该xml中的文本,特殊的是从xml中提取出来的文本又是html格式,所以又得做第二次提取, * 才能获取到纯文本 * * @param content * 需高亮度内容 * @param keyWord * 高亮度关键字 * @return 高亮度摘要 */ public static String getHighlighterSummary(String xmlContent, String keyWord) { // TODO Auto-generated method stub String hightContent = ""; String segmenterContent = ""; String htmlContent = ""; String content = ""; // 获取html内容 htmlContent = SummaryHighlighter.getHtmlContentFromXML(xmlContent); // 从html中提取纯文本 content = SummaryHighlighter.getTextFromHtml(htmlContent); //System.out.println("提取到的纯文本:" + content); // 对内容进行分词 segmenterContent = SummaryHighlighter.segmentString(content); // Analyzer analyzer = new CWordAnalyzer(); Analyzer analyzer = new SimpleAnalyzer(); QueryParser queryParser = new QueryParser(CONTENT, analyzer); // 设置相似度 queryParser.setFuzzyMinSim(0.9f); try { //分析关键词 Query query = queryParser.parse(segmentString(keyWord)); // Term term=new Term(CONTENT,keyWord); // Query query = new TermQuery(term); QueryScorer scorer = new QueryScorer(query); Highlighter highlighter = new Highlighter(new SimpleHTMLFormatter( "<font color=\"#cc0033\">", "</font>"), scorer); Reader reader = new StringReader(segmenterContent); TokenStream tokenStream = analyzer.tokenStream(CONTENT, reader); //获取高亮点后的内容 hightContent = highlighter.getBestFragments(tokenStream, segmenterContent, 0, "..."); //去除内容中的空格 hightContent = hightContent.replace(" ", "").replace( "<fontcolor=\"#cc0033\">", "<font color=\"#cc0033\">"); //System.out.println(hightContent); } catch (IOException e) { // TODO Auto-generated catch block e.printStackTrace(); } catch (org.apache.lucene.queryParser.ParseException e) { // TODO Auto-generated catch block e.printStackTrace(); } return hightContent; } /** * 分词处理 * * @param in * 处理内容 * @return 分词后的内容 */ public static String segmentString(String in) { String ret = null; Segmenter mainsegmenter; try { mainsegmenter = SegmenterUtils.getSegmenter(System .getProperty("java.io.tmpdir") + "/zword.obj"); StringBuffer buffer = null; if (mainsegmenter != null) { BufferedReader bin = new BufferedReader(new StringReader(in)); buffer = new StringBuffer(); String dataline; String processed; try { while ((dataline = bin.readLine()) != null) { processed = mainsegmenter.segmentLine(dataline, " "); buffer.append(processed).append("\n"); } } catch (IOException ioe) { // ignored } finally { try { bin.close(); } catch (Exception e) { } } } else { } if (buffer != null) { ret = buffer.toString(); } } catch (ClassCastException e1) { // TODO Auto-generated catch block e1.printStackTrace(); } catch (FileNotFoundException e1) { // TODO Auto-generated catch block e1.printStackTrace(); } catch (IOException e1) { // TODO Auto-generated catch block e1.printStackTrace(); } catch (ClassNotFoundException e1) { // TODO Auto-generated catch block e1.printStackTrace(); } // System.out.println(buffer.toString()); return ret; } /** * 读取一个文件到字符串里. * * @param sFileName * 文件名 * @param sEncode * String * @return 文件内容 */ public static String readTextFile(String sFileName, String sEncode) { StringBuffer sbStr = new StringBuffer(); try { File ff = new File(sFileName); InputStreamReader read = new InputStreamReader(new FileInputStream( ff), sEncode); BufferedReader ins = new BufferedReader(read); String dataLine = ""; while (null != (dataLine = ins.readLine())) { sbStr.append(dataLine); // sbStr.append("\r\n"); } ins.close(); } catch (Exception e) { e.printStackTrace(); } //System.out.println("读入的文章内容:" + sbStr.toString()); return sbStr.toString(); } /** * 从xml中获取内容,此方法对应测试文件2.txt的节点结构,目的是获取<![cdata[.....]]>中的内容 * * @param xmlContent * xml内容 * @return 提取出来的内容 */ public static String getHtmlContentFromXML(String xmlContent) { xmlContent = xmlContent.replaceAll("UTF-8", "GBK"); String content = ""; DocumentBuilderFactory factory = DocumentBuilderFactory.newInstance(); DocumentBuilder builder; try { builder = factory.newDocumentBuilder(); org.w3c.dom.Document doc = builder.parse(new ByteArrayInputStream( xmlContent.getBytes())); // normalize text representation doc.getDocumentElement().normalize(); NodeList listOfContents = doc .getElementsByTagName("static-content"); int totalContents = listOfContents.getLength(); // System.out.println("Total no of people : " + totalContents); for (int s = 0; s < listOfContents.getLength(); s++) { Node contentNode = listOfContents.item(s); NodeList listOfCdata = contentNode.getChildNodes(); int totalCdata = listOfCdata.getLength(); for (int i = 0; i < totalCdata; i++) { Node cdataNode = listOfCdata.item(i); if (cdataNode.getNodeType() == Node.CDATA_SECTION_NODE) { CDATASection cdataSection = (CDATASection) cdataNode; content = cdataSection.getWholeText(); // System.out.print(content); } /* * if (node1.getNodeType() == Node.TEXT_NODE) { n++; String * type = node1.getNodeName(); System.out.println("第" + n + * "个是" + type + "节点,内容:"); Text textNode = (Text) node1; * String content = textNode.getWholeText(); * System.out.print(content); } */ }// end of if clause }// end of for loop with s var } catch (ParserConfigurationException e) { // TODO Auto-generated catch block e.printStackTrace(); } catch (org.xml.sax.SAXException e) { // TODO Auto-generated catch block e.printStackTrace(); } catch (IOException e) { // TODO Auto-generated catch block e.printStackTrace(); } return content; } /** * 提取html中的纯文本内容 * * @param htmlContent html内容 * @return 纯文本内容 */ public static String getTextFromHtml(String htmlContent) { boolean bContent = true; StringBuffer sBuffer = new StringBuffer(8096 * 2); char[] cBuffer = htmlContent.toCharArray(); int nCount = cBuffer.length; for (int i = 0; i < nCount; i++) { if (bContent == false) { if (cBuffer[i] == '>') bContent = true; else continue; } else { if (cBuffer[i] == '<') { bContent = false; continue; } else if (cBuffer[i] == '\n' || cBuffer[i] == ' ' || cBuffer[i] == ' ' || cBuffer[i] == ' ') { continue; } else if (cBuffer[i] == '&' && cBuffer[i + 1] == 'n' && cBuffer[i + 2] == 'b' && cBuffer[i + 3] == 's' && cBuffer[i + 4] == 'p' && cBuffer[i + 5] == ';') { i = i + 5; continue; } sBuffer.append(cBuffer[i]); } } return sBuffer.toString(); } /** * test * * @param args */ public static void main(String[] args) { // TODO Auto-generated method stub String content = SummaryHighlighter.readTextFile("d:/2.txt", "gbk"); String keyWord = "中国"; SummaryHighlighter.getHighlighterSummary(content, keyWord); } }
测试文件2.txt的内容:
<?xml version='1.0' encoding='UTF-8'?>
<root available-locales="en_US," default-locale="en_US">
<static-content language-id="en_US">
<![CDATA[<p> 凡中国产业集群网在<a href="http://www.csic99.com">www.csic99.com</a>运作的网站明确标示由中国产业集群合作伙伴运营的中国产业集群该城市网页及该城市的相关页面,均由中国产业集群的合作伙伴按照中国产业集群授权书及中国产业集群网的用户协议、使用规则等规定,在其所获得授权范围与授权期限内予以运营中国产业集群在此申明会积极帮助您,以支持您合法权益得到保障。 <br /> 因中国产业集群合作伙伴在其被授权范围与期限内,按照法律法规规定及中国产业集群网的相关规定,所作之行为,如果您认为损害到了您的合法权益,您可以按照中国产业集群网约定的办法予以解决;中国产业集群合作伙伴在其被 授权范围以外或违反 法律法规规定及违反中国产业集群网的规定,所作之行为( 包括网上及非网上行为)而使您(任何中国产业集群网用户或任何第三方)受到的任何损失,或与一名或多名用户发生争议,就上述损失和/或争议产生或在任何方面与上述损失和/或争议有关的每一种类和性质的已知或未知、可疑或非可疑、披露或未披露的索赔、要求和损害,特此申明如下:鉴于中国产业集群合作伙伴之授权范围自其被授权之日起,已在本网站显著位置予以公开,中国产业集群网的用户协议及相关规定与免责申明等也在本网站显著位置予以,且中国产业集群仅作为网上分发信息的渠道,而并非信息的发布方,同时,中国产业集群没有事先审核用户上传的内容,也没有事后参与用户之间的实际联络之义务,故对于因为中国产业集群合作伙伴在其被授权范围以外或违反法律法规规定及中国产业集群网的相关规定,所作之行为(包括网上及非网上行为)而使您受到任何损失,或与一名或多名用户发生争议,就上述损失和/或争议产生或在任何方面与上述损失和/或争议有关的每一种类和性质的已知或未知、可疑或非可疑、披露或未披露的索赔、要求和损害, 特此申明免除中国产业集群(和中国产业集群的高级职员、董事、代理人、关联公司、母公司、子公司和雇员)的任何责任。 <br />请您仔细阅读相关授权文书,本网站用户协议及相关规定与免责申明等,以避免不必要的损失。 中国产业集群网</p>]]>
</static-content>
</root>
发表评论
-
布隆过滤器(Bloom Filter)之java实例
2010-08-26 14:40 6402在日常生活中,包括在设计计算机软件时,我们经常要判断一个 ... -
Lucene查询语法详解
2010-07-16 10:55 1231Lucene提供了丰富的API来 ... -
使用Lucene的Highlighter实现文件摘要的自动提取
2010-07-03 15:19 1414使用Lucene自带的Highlighter就可以实现对原始文 ... -
ICTCLAS 中科院分词系统 代码 注释 中文分词 词性标注
2010-04-16 15:45 1830中科院分词系统概述 这几天看完了中科院分词程序的代码,现在来 ... -
Lucene日期排序及组合查询
2009-11-19 14:31 4913public class SearchUtil { //索 ... -
Lucene中自定义排序的实现
2009-11-07 17:59 955使用Lucene来搜索内容,搜索结果的显示顺序当然是比较重要 ... -
在Lucene中应用poading进行分词
2009-11-07 17:52 12511、下载poading解牛 http://code.googl ... -
Lucene日期索引搜索
2009-11-07 17:42 1436注意使用lucene的版本,调试本例的时候,作者使用的是luc ... -
Lucene 中文引擎,庖丁解牛的辞典参数配置方法
2009-11-07 16:34 2012随机文档指示可以在环境变量里配置。原文如下 庖丁中文分词需要一 ... -
Lucene 2.4更新索引的方法(Update Index)
2009-11-07 16:32 2071在Lucene里面没有update方法,我查了文档,我们只能删 ... -
庖丁解牛的Lucene 2.4的全文搜索代码
2009-11-07 16:30 1400package com.laozizhu.article.ut ... -
Lucene 搜索方式
2009-11-07 16:23 1155Lucene有多种搜索方式, ... -
转一篇lucene的使用的文章,写的比较全
2009-11-07 16:20 9851 lucene简介 1.1 什么是lucene Lucene ...
相关推荐
本篇文章主要探讨如何利用Lucene实现文件摘要的自动提取,并进行关键词高亮显示。这一过程涉及到Lucene的Highlighter组件,它专门用于突出显示搜索结果中的关键词。 首先,我们了解Lucene的Highlighter是如何工作的...
### 利用Lucene实现高级搜索的关键知识点 #### Lucene简介 Lucene是Apache软件基金会下的一个开源全文检索库,提供了高性能的文本搜索能力。它不仅适用于网站的搜索功能,还可以用于任何需要文本搜索的应用场景,如...
java代码 结合 lucene 实现的 公交搜索系统 java代码 结合 lucene 实现的 公交搜索系统 java代码 结合 lucene 实现的 公交搜索系统 java代码 结合 lucene 实现的 公交搜索系统 java代码 结合 lucene 实现的 公交...
在提供的压缩包"LuceneOldSearch"中,可能包含了使用旧版本Lucene实现的一个简单的搜索引擎示例。这个示例可能涵盖了从建立索引到执行查询的完整流程,以及如何处理文本数据和错误检查。学习这个示例能帮助开发者更...
在本文中,我们将深入探讨如何使用Lucene来实现一个类似当当网的企业产品检索系统,特别关注如何结合庖丁解牛分词器提升搜索体验。 首先,我们需要理解Lucene的基本工作原理。Lucene的核心是建立索引,将原始文本...
最后,使用Formatter类将得分高的关键字用特殊格式(如加粗、颜色变化)标记出来。 6. **优化与性能**:在Android设备上,由于资源有限,需要考虑性能和内存管理。例如,可以使用倒排索引(Inverted Index)来减少...
Lucene是Apache软件基金会的一个开放源代码项目,它是一个全文搜索引擎库,主要用Java编写,但也有其他语言的版本。Lucene提供了高级的文本分析、索引和搜索功能,是构建高效、可扩展的信息检索应用的基础。在Java的...
本文将详细介绍如何使用 Compass 和 Lucene 实现一个简单的全文检索功能。 首先,Lucene 是一个高性能、全功能的文本分析库,主要用于信息检索。它提供了索引和搜索大量文本数据的能力,包括分词、分析、存储和搜索...
下面我们将深入探讨如何使用Lucene来实现企业级的搜索实例。 首先,我们需要理解Lucene的基本架构。Lucene的核心概念包括索引(Index)、文档(Document)、字段(Field)和术语(Term)。索引是Lucene的主要数据...
在这个“Lucene 高级搜索项目”中,我们将深入探讨如何利用Lucene实现附件搜索、附件内容搜索以及全文搜索等高级功能。 **1. Lucene 搜索引擎基础** Lucene 的核心工作流程包括索引创建和搜索两部分。首先,我们...
通过以上步骤和技巧,我们可以使用 Lucene 实现一个强大的搜索引擎,提供类似百度的搜索体验。无论是在网站、应用还是大数据环境中,Lucene 都能以其高效的全文检索能力,为用户提供快速、准确的搜索结果。
Lucene是一个由Java编写的高性能、可扩展的全文搜索引擎库。它提供了一种机制,使得开发者能够轻松地为自己的应用程序添加索引和搜索功能。作为Apache软件基金会的项目,Lucene具有开源和免费的特性,受到Apache软件...
lucene实现文件检索Demo,
利用Lucene接口编写简单的信息检索系统,实现对本地目录建立索引和搜索功能。代码包含两个JSP页面,放入tomcat的webapp目录中即可在浏览器中运行程序。选择文档路径时如若涉及浏览器权限问题,可直接输入。
《使用Lucene实现站内检索的深度解析》 在信息爆炸的时代,快速准确地从海量数据中查找所需信息成为一项挑战。Lucene,作为Apache软件基金会下的一个开源全文检索库,以其高效、灵活的特点,被广泛应用于各种站内...
在这个使用案例中,我们将深入探讨如何利用Lucene实现对Word文档中的关键字检索并高亮显示结果。 首先,我们需要理解Lucene的基本工作原理。Lucene通过建立倒排索引(Inverted Index)来加速查询。倒排索引是一种...
安装完成后,你需要创建一个索引器,使用Paoding对输入的文本进行分词,然后用Lucene的API将这些词构建为索引。索引过程通常包括打开读写器、创建文档对象、添加字段(如标题、内容等)、设置分词器,以及将文档添加...