Parsing and extracting using Tika
在最早的那本Lucene in Action书中提到,如果用户需要对非文本内容进行索引的话需要首先将文本内容从二进制格式的文档中抽取出来。 因此针对不同类型的文件格式,需要不同处理。当然open community中已经有了许多成熟的方案来对付,PDF, MS-Word, HTML等。不过逐一使用这些不同的工具,为不同的文件格式进行开发,也是相当头疼的事情。
Apache Tika的出现,为我这样的懒人带来了无穷的便利。
首先,Tika是一个内容抽取的工具集合(a toolkit for text extracting)。它集成了POI, Pdfbox 并且为文本抽取工作提供了一个统一的界面。其次,Tika也提供了便利的扩展API,用来丰富其对第三方文件格式的支持。
在当前的0.2-SNAPSHOT版本中, Tika提供了对如下文件格式的支持:
- PDF - 通过Pdfbox
- MS-* - 通过POI
- HTML - 使用nekohtml将不规范的html整理成为xhtml
- OpenOffice 格式 - Tika提供
- Archive - zip, tar, gzip, bzip等
- RTF - Tika提供
- Java class - Class解析由ASM完成
- Image - 只支持图像的元数据抽取
- XML
public void parse(InputStream stream, ContentHandler handler, Metadata metadata)
用stream参数传递需要解析的文件流, 文本内容会被传入handler,而元数据会更新至metadata。
可以使用Tika的ParserUtils工具来根据文件的
mime-type
来得到一个适当的Parser来进行解析工作。或者Tika还提供了一个AutoDetectParser根据不同的二进制文件的特殊格式 (比如说Magic Code),来寻找适合的Parser。
0 comments:
Post a Comment