flink使用03-数据输入的几种不同方法

flink的数据输入源主要分为两大类:

1. 内置数据源

  • 集合数据源

    可以将数组或者集合作为 flink 的数据源,分别有不同的方法可以使用, 这种方式比较适合本地调试使用

    // 添加数组作为数据输入源
    String[] elementInput = new String[]{"hello Flink", "Second Line"};
    DataStream<String> text = env.fromElements(elementInput);
    
    // 添加List集合作为数据输入源
    List<String> collectionInput = new ArrayList<>();
    collectionInput.add("hello Flink");
    DataStream<String> text2 = env.fromCollection(collectionInput);
    
  • Socket数据源

    // 添加Socket作为数据输入源
    // 4个参数 -> (hostname:Ip地址, port:端口, delimiter:分隔符, maxRetry:最大重试次数)
    DataStream<String> text3 = env.socketTextStream("localhost", 9999, "\n", 4);
    
  • 文件数据源

    可以使用 readTextFile 方法直接读取文本文件, 这种方式可以用来监控一下 log 日志文件, 也可以使用 readFile 方法通过指定 InputFormat 来读取特定数据类型的文件, InputFormat可以是内置类,如 CsvInputFormat 或者用户自定义 InputFormat 接口类.

    // 添加文件源
    // 直接读取文本文件
    DataStream<String> text4 = env.readTextFile("/opt/history.log");
    
    // 指定 CsvInputFormat, 监控csv文件(两种模式), 时间间隔是10ms
            DataStream<String> text5 = env.readFile(new CsvInputFormat<String>(new Path("/opt/history.csv")) {
                @Override
                protected String fillRecord(String s, Object[] objects) {
                    return null;
                }
            },"/opt/history.csv", FileProcessingMode.PROCESS_CONTINUOUSLY,10);
    

    在 readFile() 方法中有一项参数为 WatchType, 共有两种模式 (PROCESS_CONTINUOUSLY / PROCESS_ONCE). 在 PROCESS_CONTINUOUSLY 模式下, 检测到文件变动就会将文件全部内容加载在 flink, 在 PROCESS_ONCE 模式下, 只会将文件变动的那部分加载到 flink.

2. 外部数据源

外部数据源是重头戏, 一般来说项目中均是使用外部数据源作为数据的源头, flink 通过实现 SourceFunction 定义了非常丰富的第三方数据连接器

  • 数据源连接器

    对于第三方数据源, flink的支持分为三种,有只读型(Twitter Streaming API / Netty ), 只写型( Cassandra / Elasticsearch / hadoop FileSystem), 支持读写(Kafka / Amazon Kinesis / RabbitMQ)

    Apache Kafka (Source / Sink)

    Apache Cassandra (Sink)

    Amazon Kinesis Streams (Source / Sink)

    Elasticsearch (Sink)

    Hadoop FileSystem (Sink)

    RabbitMQ (Source / Sink)

    Apache NiFI (Source / Sink)

    Twitter Streaming API (Source)

    Apache Bahir 中的连接器:

    Apache ActiveMQ (Source / Sink)

    Apache Flume (Sink)

    Redis (Sink)

    Akka (Sink)

    Netty (Source)

以Kafka 为例 做演示

final StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();

// 配置 kafka 连接参数
String topic = "topic_name";
String bootStrapServers = "localhost:9092";
String zkConnect = "localhost:2181";
String groupID = "group_A";
Properties prop = new Properties();
prop.setProperty("bootstrap.servers", bootStrapServers);
prop.setProperty("zookeeper.connect", zkConnect);
prop.setProperty("group.id", groupID);

// 创建 kafka connector source
FlinkKafkaConsumer010<String> consumer010 = new FlinkKafkaConsumer010<>(topic, new SimpleStringSchema(), prop);

// add source
DataStreamSource<String> dataStream = env.addSource(consumer010);
  • 自定义数据源连接器

    用户也可以自己定义连接器, 通过实现 SourceFunction 定义单个线程的接入的数据连接器, 也可以通过实现ParallelSourceFunction 接口或者继承 RichParallelSourceFunction 类定义并发数据源接入器.

©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • Flink中的DataStream主要用于实现数据流的转换操作(例如,过滤,更新状态,定义窗口,聚合)。最初可以从...
    大菜鸟_阅读 1,740评论 0 3
  • Flink中的DataStream程序是实现数据流转换的常规程序(例如:filtering, updating s...
    尼小摩阅读 5,141评论 0 7
  • 本文为《Flink大数据项目实战》学习笔记,想通过视频系统学习Flink这个最火爆的大数据计算框架的同学,推荐学习...
    大数据研习社阅读 909评论 0 0
  • 巜达芬奇传》,我最喜欢的一本书,并用积分换了一本此书,留给我的子孙们。[呲牙][呲牙][呲牙] 孩子是上天赐予我...
    马海风阅读 245评论 0 0
  • 刚刚有点感想,想迅速把他记录下来 怕睡觉之前再回想记不清楚了了 刚才读了一篇很好的文章 是说:“成年之后一切靠自己...
    岭南花开阅读 305评论 0 0