利用HanLP与Flink/Spark做实时中文分词

这两天又开始忙起来了,继续写小短文。

最近刚刚接了一个实时舆情监控的任务,大体思路是实时接入并处理各微信群内用户的发言。一是从中发现规律,为各群用户生成画像,方便做推广;二是及时将用户的不满与抱怨及时上报给业务方。显然,千里之行的第一步就是将用户的发言做词法分析——通俗来讲就是“分词”。

HanLP(主页见这里,项目repo见这里)是目前Java环境下非常流行的中文NLP工具集。要与Spark或Flink等分布式计算框架一起使用,我们首先得把词典和模型放到共享的文件系统——也就是HDFS上。根据项目readme的描述:

下载data.zip,然后将解压的内容上传到HDFS。如果有自定义词典或模型的话,就一并上传上去。

unzip data-for-1.7.5.zip
hdfs dfs -mkdir /hanlp
hdfs dfs -copyFromLocal ./data /hanlp

然后下载hanlp-release.zip,将解压出来的JAR包放到项目中的特定文件夹(如lib)内,再将配置文件hanlp.properties移入项目的resources文件夹。

HanLP默认的I/O适配器是基于普通文件系统的。要想让它能读取HDFS存储的词典和模型数据,需要自定义新的I/O适配器。

public class HadoopFileIOAdapter implements IIOAdapter {
  @Override
  public InputStream open(String path) throws IOException {
    Configuration conf = new Configuration();
    FileSystem fs = FileSystem.get(URI.create(path), conf);
    return fs.open(new Path(path));
  }

  @Override
  public OutputStream create(String path) throws IOException {
    Configuration conf = new Configuration();
    FileSystem fs = FileSystem.get(URI.create(path), conf);
    return fs.create(new Path(path));
  }
}

再修改hanlp.properties文件,指定数据文件夹的路径与新的文件适配器类名。

root=hdfs://our-cluster-123/hanlp/
IOAdapter=com.xyz.bigdata.nlp.adapter.HadoopFileIOAdapter

最后在pom文件里加入JAR包的依赖。

    <dependency>
      <groupId>com.hankcs</groupId>
      <artifactId>hanlp</artifactId>
      <version>${hanlp.version}</version>
      <type>jar</type>
      <scope>system</scope>
      <systemPath>${basedir}/lib/hanlp-${hanlp.version}.jar</systemPath>
    </dependency>

接下来就可以写程序了,以Flink为例,输出每句话的分词结果与没每个词的词性:

dataStream.map(str -> {
    List<Term> terms = HanLP.segment(str);
    List<Tuple2<String, String>> result = new ArrayList<>();     
    for (Term term : terms) {
        result.add(new Tuple2<>(term.word, term.nature.toString()));
    }
    return result;
});

Spark的代码类似,将map()算子换成mapPartitions()就行。

特别需要注意,HanLP类的静态代码块里初始化了大量对象(词典、模型),并且它们都没有实现Serializable接口。所以,我们不要在transformation算子外面调用HanLP相关的任何逻辑,以免出现Driver向Executor无法序列化传输数据的问题。虽然这样每个Executor都会持有全部的HanLP相关数据,但毕竟处于大数据环境,对这点开销是不太敏感的。

晚安。

©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • spark-submit的时候如何引入外部jar包 在通过spark-submit提交任务时,可以通过添加配置参数...
    博弈史密斯阅读 2,775评论 1 14
  • 1 前言 在大数据计算领域,Spark已经成为了越来越流行、越来越受欢迎的计算平台之一。Spark的功能涵盖了大数...
    wisfern阅读 2,444评论 3 39
  • 前篇主要介绍流式计算相关的核心概念,这篇简要聊聊Flink总体架构、运行环境及其在大数据生态系统中的位置,让大家先...
    data之道阅读 1,265评论 0 6
  • Spark的性能调优实际上是由很多部分组成的,不是调节几个参数就可以立竿见影提升作业性能的。我们需要根据不同的业务...
    东皇Amrzs阅读 1,631评论 0 17
  • 生命是什么?生命是夜晚的萤火虫光,是冬天里野牛的呼吸,是在草地上掠过的一小片阴影,转瞬便消失在落日里。如果地球诞生...
    靈兰碎雨阅读 298评论 0 1