`

Apache Lucene Tika 文件内容提取工具

阅读更多

Tika入门

 

Tika是一个内容抽取的工具集合(a toolkit for text extracting)。它集成了POI, Pdfbox 并且为文本抽取工作提供了一个统一的界面。其次,Tika也提供了便利的扩展API,用来丰富其对第三方文件格式的支持。

 

在当前版本中,Tika提供了对如下文件格式的支持:

 

PDF - 通过Pdfbox

MS-* - 通过POI

HTML - 使用nekohtml将不规范的html整理成为xhtml

OpenOffice 格式 - Tika提供

Archive - zip, tar, gzip, bzip

RTF - Tika提供

Java class - Class解析由ASM完成

Image - 只支持图像的元数据抽取

XML

 

下面来一个例子:

 

import java.io.BufferedInputStream;
import java.io.BufferedOutputStream;
import java.io.File;
import java.io.FileInputStream;
import java.io.FileOutputStream;
import java.io.IOException;
import java.io.InputStream;
import java.io.OutputStream;

import org.apache.tika.exception.TikaException;
import org.apache.tika.metadata.Metadata;
import org.apache.tika.parser.ParseContext;
import org.apache.tika.parser.Parser;
import org.apache.tika.parser.html.HtmlParser;
import org.apache.tika.parser.microsoft.ooxml.OOXMLParser;
import org.apache.tika.parser.pdf.PDFParser;
import org.apache.tika.sax.BodyContentHandler;
import org.xml.sax.ContentHandler;
import org.xml.sax.SAXException;

public class TikaDemo {
	// public static String PATH = "E:\\test.docx";
	// public static String PATH = "g:\\丁聪生前访谈:画漫画有个屁用!_夏冬红_新浪博客.htm";
	public static String PATH = "g:\\你眷恋的 都已离去 歌词 - Google 搜索.htm";

	// public static String PATH = "E:\\summerbell的博客文章(32).pdf";

	public static String OUTPATH = PATH + ".OUT";

	/**
	 * @param args
	 * @throws TikaException
	 * @throws SAXException
	 * @throws IOException
	 */
	public static void main(String[] args) throws IOException, SAXException,
			TikaException {
		// Parser parser = new OOXMLParser();
		// Parser parser = new PDFParser();
		Parser parser = new HtmlParser();
		/**
		 * */
		// InputStream iStream = new BufferedInputStream(new FileInputStream(
		// new File(PATH)));
		// OutputStream oStream = new BufferedOutputStream(new FileOutputStream(
		// new File(OUTPATH)));
		// ContentHandler iHandler = new BodyContentHandler(oStream);
		// parser.parse(iStream, iHandler, new Metadata(), new ParseContext());
		/**
		 * 处理指定编码的html.
		 */
		InputStream iStream = new BufferedInputStream(new FileInputStream(
				new File(PATH)));
		OutputStream oStream = new BufferedOutputStream(new FileOutputStream(
				new File(OUTPATH)));
		ContentHandler iHandler = new BodyContentHandler(oStream);
		Metadata meta = new Metadata();
		meta.add(Metadata.CONTENT_ENCODING, "utf-8");
		parser.parse(iStream, iHandler, meta, new ParseContext());

	}
}

 

 

 

为了检测tika的效率,选取了一个较大的docx文档。

利用=rand(x,y)功能写出1000个段落,每个段落100包含100句文字。

Tika可以正常处理。

 

源码已附上,用到的jar包在这里:

 

 

(如果要处理其他类型的文件,如pdf,还需引入其他的jar包。如Pdfbox等。)

分享到:
评论
12 楼 gzklyzf 2015-03-13  
为啥我解析的PDF文档没有作者、文章题目等信息啊,下面是我的代码
public class TikaTest {
public static void main(String[] args) throws Exception {
Parser parser = new PDFParser();
BodyContentHandler handler = new BodyContentHandler();
ParseContext context = new ParseContext();
context.set(Parser.class,parser); 
String filepath = "G:\\3.pdf";
InputStream is = new FileInputStream(filepath);
Metadata metadata = new Metadata();
parser.parse(is, handler, metadata, context);
for(String name:metadata.names()) { 
             System.out.println(name+":"+metadata.get(name)); 
         }

}
}求大神指教
11 楼 hesai_vip 2014-01-07  
正在学习,mark一下
10 楼 wyczlexus 2012-12-10  
请问楼主
Metadata meta = new Metadata();  
        meta.add(Metadata.CONTENT_ENCODING, "utf-8");  
        parser.parse(iStream, iHandler, meta, new ParseContext());  
  这段代码是干什么的啊?
我把这段注释掉了以后还是可以正常解析pdf文档的
9 楼 summerbell 2010-01-27  
kexzcle 写道
summerbell 写道
kexzcle 写道
谢谢。!!!
还有个问题,就是解析字很少的txt文本。
比如:2-7个字。 就会出现乱码。。。

这个问题请假LZ 怎么解决!


你指定的编码和txt文件的编码是一致的么?

是的!! 只是在 少于8个字的随便建个txt中文 ,提取编码格式是utf-16le

你试一下建立索引时候 解析应该是乱码~!

我们用HtmlParser去抽取一个包含4个字的txt,txt的编码和meta的编码都指定为utf8,可以正常提取的。
8 楼 kexzcle 2010-01-26  
summerbell 写道
kexzcle 写道
谢谢。!!!
还有个问题,就是解析字很少的txt文本。
比如:2-7个字。 就会出现乱码。。。

这个问题请假LZ 怎么解决!


你指定的编码和txt文件的编码是一致的么?

是的!! 只是在 少于8个字的随便建个txt中文 ,提取编码格式是utf-16le

你试一下建立索引时候 解析应该是乱码~!
7 楼 summerbell 2010-01-26  
kexzcle 写道
谢谢。!!!
还有个问题,就是解析字很少的txt文本。
比如:2-7个字。 就会出现乱码。。。

这个问题请假LZ 怎么解决!


你指定的编码和txt文件的编码是一致的么?
6 楼 kexzcle 2010-01-26  
谢谢。!!!
还有个问题,就是解析字很少的txt文本。
比如:2-7个字。 就会出现乱码。。。

这个问题请假LZ 怎么解决!
5 楼 summerbell 2010-01-25  
kexzcle 写道
有进展么!HTML 编码!


指定编码方式的html处理已经包含在新代码中。
在Metadata中指定即可~
4 楼 kexzcle 2010-01-25  
有进展么!HTML 编码!
3 楼 kexzcle 2010-01-22  
好啊!
最近就想把指定目录或服务器盘符下的html文档格式的charset提取出来,是UTF-8的给转换成GBK,结果不太会
呵呵。辛苦楼主哈!
希望早日听到你的捷报!
2 楼 summerbell 2010-01-22  
summerbell 写道
kexzcle 写道
你好 ,我想问一下,TIKA对html解析时吗,不同编码格式是怎么处理的,
是我们自己提取再转换么,我用TIKA 解析html时UTF-8出现乱码

应该都是tika自己处理的啊,我试过utf8和gbk都可以正常转换啊

额,我搞错了~
果然是有编码的问题。我研究研究哈。
1 楼 summerbell 2010-01-22  
kexzcle 写道
你好 ,我想问一下,TIKA对html解析时吗,不同编码格式是怎么处理的,
是我们自己提取再转换么,我用TIKA 解析html时UTF-8出现乱码

应该都是tika自己处理的啊,我试过utf8和gbk都可以正常转换啊

相关推荐

    tika+lucene完整jar包

    2. 创建Lucene索引:利用`Directory`、`Analyzer`和`IndexWriter`等类,将Tika提取的文本内容建立索引。 3. 查询Lucene索引:使用`IndexSearcher`和`QueryParser`创建查询,并获取匹配的结果集。 4. 更新和删除索引...

    apache中的tika包

    Tika与Apache Lucene项目密切相关,Lucene是一个高性能、全文本搜索库,而Tika则为Lucene提供了一种方便的方式去解析各种复杂的文件类型,从而提取出可用于索引的文本内容。 Tika的核心功能包括: 1. **文件解析**...

    tika0.5基本jar包

    Apache Tika是一款强大的内容检测和元数据提取工具,主要用于从各种文件格式中抽取文本内容和元数据。在Java环境中,Tika提供了丰富的API,使得开发者能够轻松地处理各种类型的文件,包括但不限于文档、图片、音频和...

    lucene对doc.xlsx操作包

    总结,利用Apache Lucene、POI和Tika,我们可以有效地处理doc.xlsx文档,将其内容纳入Lucene索引,从而实现高效的全文搜索。在实际开发中,根据项目需求,可能还需要考虑性能优化、错误处理以及与其他系统的集成等...

    跟益达学Solr5之使用Tika从PDF中提取数据导入索引

    在提交文档时,Solr会调用Tika来提取内容,并自动将其索引到指定的字段。这使得你可以对PDF中的内容进行全文检索,而不仅仅是基于文件名或元数据。 在实际应用中,你可能还需要处理一些复杂情况,比如PDF中的表格、...

    Lucene in Action 中文版

     《Lucene实战 第2版 》基于Apache的Lucene 3 0 从Lucene核心 Lucene应用 案例分析3个方面详细系统地介绍了Lucene 包括认识Lucene 建立索引 为应用程序添加搜索功能 高级搜索技术 扩展搜索 使用Tika提取文本 Lucene...

    Lucene实战

    《Lucene实战(第2版)》基于Apache的Lucene 3.0,从Lucene核心、Lucene应用、案例分析3个方面详细系统地介绍了Lucene,包括认识Lucene、建立索引、为应用程序添加搜索功能、高级搜索技术、扩展搜索、使用Tika提取文本...

    lucence7.7.1+tika

    Tika,全称为Apache Tika,是另一个Apache项目,主要用于内容检测和元数据提取。它能够解析各种格式的文件,包括但不限于PDF、Word、Excel、HTML、图片等,并从中提取出文本内容和元数据。这对于构建搜索引擎来说至...

    lucene-and-tika

    Lucene和Tika是Java开发中两个非常重要的工具,它们分别在全文检索和内容提取领域发挥着关键作用。本文将详细探讨这两个库的功能、原理以及如何在实际项目中进行集成和应用。 一、Lucene:Java全文搜索引擎 1. ...

    ApacheConNA2015:ApacheCon NA 2015(Apache CXF、Tika 和 Lucene)的演示和示例项目

    例如,可能有一个项目展示了如何使用CXF创建一个RESTful服务,该服务接收不同类型的文件,然后利用Tika提取内容,最后用Lucene建立索引进行搜索。 总的来说,Apache CXF、Tika和Lucene是Java开发者构建复杂系统时的...

    我写的lucene全文检索,只支持英文

    如果要支持其他格式的文件,比如PDF和DOC,可能还需要借助于额外的库,如Apache Tika,来提取文件内容。 为了实现对中文的支持,你需要引入能处理中文分词的Analyzer,如IKAnalyzer或SmartChineseAnalyzer,并确保...

    Lucene3.0做的文件搜索

    例如,对于PDF或DOC文件,可以使用BinaryField来存储二进制内容,然后使用Tika或者Apache POI库进行解析,提取文本内容用于索引。 **3. 分析器的选择与自定义** Lucene中的Analyzer负责分词和词形还原等任务。3.0...

    lucene 搜索中文PDF文档

    为了从PDF中提取可搜索的文本,我们需要一个PDF解析库,如PDFBox或Apache Tika。这些库可以读取PDF内容,并将其转换为纯文本,以便Lucene进行处理。在处理中文PDF时,确保选择的解析库能正确处理中文字符集,如UTF-8...

    Lucene in action(中文版)

    《Lucene实战(第2版)》基于Apache的Lucene 3.0,从Lucene核心、Lucene应用、案例分析3个方面详细系统地介绍了Lucene,包括认识Lucene、建立索引、为应用程序添加搜索功能、高级搜索技术、扩展搜索、使用Tika提取文本...

    基于lucene的桌面搜索引擎

    例如,使用Apache Tika库解析非纯文本文件。 3. **索引优化**:为了提高性能,可以定期进行索引合并和优化,减少索引碎片,同时也可以设置实时更新机制,即时索引新创建或修改的文件。 4. **用户体验**:提供友好的...

    LuceneInAction(第2版)_cn.pdf

    《Lucene实战(第2版)》基于Apache的Lucene 3.0,从Lucene核心、Lucene应用、案例分析3个方面详细系统地介绍了Lucene,包括认识Lucene、建立索引、为应用程序添加搜索功能、高级搜索技术、扩展搜索、使用Tika提取文本...

    Lucene实战中文版第2版.pdf

    lcene实战(第2版)》基于apache的lucene3.0,从lucene核心、lucene应用、案例分析3个方面详细系统地介绍了lucene,包括认识lucene、建立索引、为应用程序添加搜索功能、高级搜索技术、扩展搜索、使用tika提取文本、...

    Lucene4.X实战类baidu搜索的大型文档海量搜索系统-28.Lucene项目实战6 共5页.pptx

    Tika能够提取文档内容,为Lucene提供可索引的数据。通过集成Tika,系统能够处理不同类型的文档,确保全文检索的广泛覆盖。 在实现全文检索的过程中,Lucene的高亮功能是关键。为了突出显示与查询匹配的关键词,我们...

Global site tag (gtag.js) - Google Analytics