12、tika的使用(lucene笔记)

一、概述

主要用于打开各种不同的文档。也就是我们需要处理不同格式的文档,比如word、pdf等,这个软件就是用来处理不同格式的文档。也是需要使用命令
java -jar tika-app-1.13.jar运行。直接file->open打开相关的文档,这样它就会解析此文档。

二、入门(工程lucene-tika

先编写创建索引的工具类:
IndexUtil.java

public void index(){
    try {
        File f = new File("E:/myeclipse/Lucene/complexFile/相关问题.docx");
        Directory dir = FSDirectory.open(new File("E:/myeclipse/Lucene/index1"));
    
        IndexWriter writer = new IndexWriter(dir, new IndexWriterConfig(Version.LUCENE_35, new MMSegAnalyzer()));
        Document doc = new Document();
        //doc.add(new Field("content", new Tika().parse(f)));
        doc.add(new Field("content", new FileReader(f)));
        writer.addDocument(doc);
        writer.close();
    } catch (CorruptIndexException e) {
        e.printStackTrace();
    } catch (LockObtainFailedException e) {
        e.printStackTrace();
    } catch (IOException e) {
        e.printStackTrace();
    }
}

这里我们先不使用它tika,看看索引的情况,
TestIndex.java

@Test
public void testIndex(){
    IndexUtil util = new IndexUtil();
    util.index();
}

这里我们试验一下对一篇word文档进行分词。然后我们使用luke进行查看,发现里面的信息都看不懂,完全不能满足我们的要求。在来看使用tika的情况。注意:这里我们在添加文档的时候也可以使用tika的方式,不需要传递FileReader

  • 第一种方式
    IndexUtil.java
public String fileToTxt(File f){
    //使用AutoDetectParser可以使Tika根据实际情况自动转换需要使用的parser,不需要再手工指定
    Parser parser = new AutoDetectParser();
    InputStream is = null;//文件输入流
    try {
        Metadata metadata = new Metadata();
        //改变相关的内容,Tika解析文档时会生成的一组说明数据
        metadata.set(Metadata.AUTHOR, "yj");
        
        is = new FileInputStream(f);
        //所有解析出来的内容会放到它的子类BodyContentHandler中
        ContentHandler handler = new BodyContentHandler();
        //用来存储需要填入的参数,最少需要设置tikaParser本身
        ParseContext context = new ParseContext();
        context.set(Parser.class, parser);//为parser指定对象
        
        parser.parse(is, handler, metadata, context);
        //获取metadata的信息
        for(String name : metadata.names()){
            System.out.println(name + ":" + metadata.get(name));
        }
        
        return handler.toString();//解析完之后会将结果存在handler中
        
    } catch (FileNotFoundException e) {
        e.printStackTrace();
    } catch (IOException e) {
        e.printStackTrace();
    } catch (SAXException e) {
        e.printStackTrace();
    } catch (TikaException e) {
        e.printStackTrace();
    }finally{
        if(is != null){
            try {
                is.close();
            } catch (IOException e) {
                e.printStackTrace();
            }
        }
    }
    return null;
}

说明:在试验之前需要导入相关的依赖包。其中我们实例化AutoDetectParser类来实例化一个Parser对象,可以让tika根据不同的文档类型自动转换需要使用的Parser,不需要手动指定;而Metadata表示解析文档后生成的一些说明信息,如作者、日期等内容;ContentHandler就是用来存放解析文档后的内容的;ParseContext对象用来将之前的Parser设置进来。
测试:

@Test
public void testTika01(){
    IndexUtil util = new IndexUtil();
    System.out.println(util.fileToTxt(new File("E:/myeclipse/Lucene/complexFile/相关问题.docx")));
}

说明:测试之后我们可以使用luke或者tika查看相关的内容。

  • 第二种方式
    IndexUtil.java
public String tikaTool(File f) throws IOException, TikaException{
    
    Tika tika = new Tika();
    Metadata metadata = new Metadata();
    metadata.set(Metadata.REALIZATION, "相关问题.docx");
    //获取metadata的信息
    /*for(String name : metadata.names()){
        System.out.println(name + ":" + metadata.get(name));
    }*/
    //当然也是可以将信息存入到metadata中的
    String str = tika.parseToString(new FileInputStream(f), metadata);
    for(String name : metadata.names()){
        System.out.println(name + ":" + metadata.get(name));
    }
    return tika.parseToString(f);
}

说明:可以看到这种方式相比第一种方式要简单的多,但是注意,默认情况下Metadata对象中是不会有数据的,这和上面那种方式不一样,当然我们也可以使用parseToString方法将相关信息设置到Metadata中。

三、对多个文件进行索引(工程lucene-tika1

首先我们建立索引FileIndexUtil.java

package cn.itcast.util;
import java.io.File;
import java.io.FileInputStream;
import java.io.FileReader;
import java.io.IOException;
import java.util.Random;
import org.apache.commons.io.FilenameUtils;
import org.apache.lucene.analysis.standard.StandardAnalyzer;
import org.apache.lucene.document.Document;
import org.apache.lucene.document.Field;
import org.apache.lucene.document.NumericField;
import org.apache.lucene.index.CorruptIndexException;
import org.apache.lucene.index.IndexWriter;
import org.apache.lucene.index.IndexWriterConfig;
import org.apache.lucene.store.Directory;
import org.apache.lucene.store.FSDirectory;
import org.apache.lucene.store.LockObtainFailedException;
import org.apache.lucene.util.Version;
import org.apache.tika.Tika;
import org.apache.tika.metadata.Metadata;
import com.chenlb.mmseg4j.analysis.MMSegAnalyzer;

public class FileIndexUtil {

    private static Directory directory = null;
    static {
        try {
            directory = FSDirectory.open(new File("E:/myeclipse/Lucene/index1"));
        } catch (IOException e) {
            e.printStackTrace();
        }
    }

    public static Directory getDirectory() {
        return directory;
    }
    
    private static Document generatorDoc(File f) throws IOException{
        Document doc = new Document();
        Metadata metadata = new Metadata();
        //通过tika进行存储
        doc.add(new Field("content", new Tika().parse(new FileInputStream(f), metadata)));
        //存储页数,而像html这类文档是没有页数的,需要判断
        int pages = 0;
        try{
            pages = Integer.parseInt(metadata.get("xmpTPg:NPages"));
        }catch(Exception e){
            e.printStackTrace();
        }
        doc.add(new NumericField("page",Field.Store.YES, true).setIntValue(pages));
        
        //存储标题
        doc.add(new Field("title", FilenameUtils.getBaseName(f.getName()), Field.Store.YES, Field.Index.ANALYZED));
        //存储文件类型
        doc.add(new Field("type", FilenameUtils.getExtension(f.getName()), Field.Store.YES, Field.Index.NOT_ANALYZED_NO_NORMS));
        doc.add(new Field("filename", f.getName(),Field.Store.YES, Field.Index.NOT_ANALYZED));
        doc.add(new Field("path", f.getAbsolutePath(),Field.Store.YES, Field.Index.NOT_ANALYZED));
        doc.add(new NumericField("date", Field.Store.YES, true).setLongValue(f.lastModified()));
        doc.add(new NumericField("size", Field.Store.YES, true).setIntValue((int) (f.length())));
        return doc;
    }

    // 创建索引
    public static void index(boolean hasNew) {
        IndexWriter writer = null;
        try {
            writer = new IndexWriter(directory, new IndexWriterConfig(
                    Version.LUCENE_35, new MMSegAnalyzer()));
            if (hasNew) {
                writer.deleteAll();//如果我们要新建索引,那么将之前创建的删除
            }
            File file = new File("E:/myeclipse/Lucene/complexFile");

            Document doc = null;
            for (File f : file.listFiles()) {
                doc = generatorDoc(f);
                writer.addDocument(doc);
            }
        } catch (CorruptIndexException e) {
            e.printStackTrace();
        } catch (LockObtainFailedException e) {
            e.printStackTrace();
        } catch (IOException e) {
            e.printStackTrace();
        } finally {
            if (writer != null) {
                try {
                    writer.close();
                } catch (CorruptIndexException e) {
                    e.printStackTrace();
                } catch (IOException e) {
                    e.printStackTrace();
                }
            }
        }
    }
}

说明:这里在创建索引时就不使用FileReader了,而是使用Tika对象,我们将输入流传递进去。其他内容和之前一样,只是这里如果我们对一个html文档进行索引时,这个索引是没有页数的,所以我们需要判断,不然会报异常。使用Tika对文档进行解析之后我们再使用IndexWriter进行写入。

测试:

@Test
public void testTika03(){
    FileIndexUtil.index(true);
}

说明:在测试的时候,虽然通过了测试,但是却报下面这个异常:

com.drew.lang.BufferBoundsException: Attempt to read from beyond end of underlying data source (requested index: 6, requested count: 2, max index: 5)

不知道是不是这个原因,导致我的索引感觉有问题,最明显的就是没有进行中文分词,虽然我给出的分词器是MMSEG。最后我将tika换成1.0版本就好了。而这里之所以没有进行中文分词,是因为MMSEG的包用的不对,应该使用mmseg4j-all-1.8.5-with-dic.jar。这样就正确了。我们可以使用luke进行查看。

我们在编写一个搜索方法:
SearchUtill.java

package cn.itcast.util;
import org.apache.lucene.document.Document;
import org.apache.lucene.index.IndexReader;
import org.apache.lucene.index.Term;
import org.apache.lucene.search.IndexSearcher;
import org.apache.lucene.search.ScoreDoc;
import org.apache.lucene.search.TermQuery;
import org.apache.lucene.search.TopDocs;

public class SearchUtill {
    
    public void search01() throws Exception{
        IndexSearcher searcher = new IndexSearcher(IndexReader.open(FileIndexUtil.getDirectory()));
        TermQuery query = new TermQuery(new Term("content", "网络"));
        TopDocs tds = searcher.search(query, 20);
        for(ScoreDoc sd : tds.scoreDocs){
            Document doc = searcher.doc(sd.doc);
            System.out.println(doc.get("title"));
        }
        searcher.close();
    }
}

测试:

@Test
public void testTika04() throws Exception{
    SearchUtill util = new SearchUtill();
    util.search01();
}

说明:我们可以对相关关键词进行搜索,效率挺高的。

四、高亮显示

未完待续。。。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,547评论 6 477
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,399评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,428评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,599评论 1 274
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,612评论 5 365
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,577评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,941评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,603评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,852评论 1 297
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,605评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,693评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,375评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,955评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,936评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,172评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 43,970评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,414评论 2 342

推荐阅读更多精彩内容

  • Spring Cloud为开发人员提供了快速构建分布式系统中一些常见模式的工具(例如配置管理,服务发现,断路器,智...
    卡卡罗2017阅读 134,587评论 18 139
  • 1. Java基础部分 基础部分的顺序:基本语法,类相关的语法,内部类的语法,继承相关的语法,异常的语法,线程的语...
    子非鱼_t_阅读 31,562评论 18 399
  • 1 XML解析No29 【 XML:可拓展标记语言,语言和HTML类似,也是一种标记语言。 特点:标记是自定义...
    征程_Journey阅读 1,624评论 0 9
  • 一. Java基础部分.................................................
    wy_sure阅读 3,785评论 0 11
  • 清晨的许昌市被白雾笼罩,增添一股朦胧的凄美,似乎诉说那三国英雄豪杰,也如雾般地消逝在岁月洪流里。 “闻听三国事,每...
    輕醒阅读 226评论 0 4