240 发简信
IP属地:新疆
  • 大佬,我版本是zeppelin 0.10.0 flink 1.12.1 创建kafka流表读取消息报Caused by: org.apache.kafka.common.KafkaException: class org.apache.kafka.common.serialization.ByteArrayDeserializer is not an instance of org.apache.kafka.common.serialization.Deserializer
    at org.apache.kafka.common.config.AbstractConfig.getConfiguredInstance(AbstractConfig.java:374)
    at org.apache.kafka.common.config.AbstractConfig.getConfiguredInstance(AbstractConfig.java:392)
    at org.apache.kafka.clients.consumer.KafkaConsumer.<init>(KafkaConsumer.java:713)
    ... 15 more这个错。这是为啥啊

    Flink SQL 1.11 on Zeppelin集成指南

    前言 大数据领域SQL化开发的风潮方兴未艾(所谓"Everybody knows SQL"),Flink自然也不能“免俗”。Flink SQL是Flink系统内部最高级别的A...

  • kafka

    kafka 是一个分布式的,分区的,复制的提交日志服务 分布式:kafka可以提供集群服务,它是由一个或者多个broker组成,每个broker都可以响应客户端请求 分区:体...

  • 120
    spark 相关总结

    spark 部署有几种模式spark 可分为单机模式和集群模式集群模式又可分为standalone独立集群模式,yarn 集群模式和mesos集群模式图为spark 集群架构...

  • 120
    spark on hbase 读写

    本文主要讲述了spark对hbase进行独写的两种方式,这两种方式分别为:1.利用spark提供的 newAPIHadoopRDD api 对hbase进行读写2.Spark...

  • 120
    hdfs 故障切换

    hdfs 集群为我们提供分布式的存储资源,hdfs 主要由namenode 和 datanode 组件构成,文件在hdfs中是以块来存储的,根据文件大小占用一个block或多...

  • 120
    mr

    mr 的设计思想是分而治之,它分为两个阶段,分别为map阶段和reduce阶段,map阶段体现了分的思想,将一个复杂的任务分解成若干个简单的任务去执行,将大数据量划分为一个个...

  • hadoop 小文件处理方案

    hadoop hdfs 被设计用作海量数据存储,适合存储大文件,文件在hdfs中是以block的形式存储的,在hadoop 1.x中,hdfs block的默认大小为64m,...

  • 120
    hbase bulkload 写入数据

    hbase 写入数据有以下三种方式: 1.利用hbase提供的api写入 2.通过mr任务将数据写入 3.通过bulkload工具将数据写入 前两种写入方式在面对大数据量写入...