Flink学习笔记-阿里云Blink

因为项目环境限制,流处理引擎只能使用阿里云 Blink3.3.0 版本,翻阅阿里云官网 Blink 和 GitHub Flink 的Blink分支资料,成功构建并运行 Blink 的 DataStream 和 Table,记录在此作为笔记。

一、说明

1、据阿里云官网资料显示,Blink已经停售

https://help.aliyun.com/document_detail/168049.html

Blink.png

2、Blink3.X版本完全兼容Flink1.5版本

https://help.aliyun.com/document_detail/111873.html

Flink-Blnk.png

3、Datastream完全兼容开源Flink1.5.2版本

https://help.aliyun.com/document_detail/156813.html

Blink-Datastream.png

4、GitHub上的Blink分支显示兼容Flink1.5.1

https://github.com/apache/flink/tree/blink

Blink-GitHubTree.png

5、当前 Apache Flink 版本是 1.14.0

https://flink.apache.org/news/2021/09/29/release-1.14.0.html

查阅Apache Flink官网版本资料发现,对阿里内部版本 Blink 合并后的首次版本发布是Apache Flink 1.9.0

二、构建Blink3.3.0工程

使用Maven3、IntelliJ IDEA构建开发环境

1、pom.xml文件

    <properties>
        <scala.version>2.11.12</scala.version>
        <scala.binary.version>2.11</scala.binary.version>
        <blink.version>blink-3.3.0</blink.version>
        <java.version>1.8</java.version>
        <maven.compiler.source>1.8</maven.compiler.source>
        <maven.compiler.target>1.8</maven.compiler.target>
    </properties>
    
     <dependencies>
        <dependency>
            <groupId>com.alibaba.blink</groupId>
            <artifactId>flink-core</artifactId>
            <version>${blink.version}</version>
            <!-- <scope>provided</scope> -->
        </dependency>
        <dependency>
            <groupId>com.alibaba.blink</groupId>
            <artifactId>flink-java</artifactId>
            <version>${blink.version}</version>
            <!-- <scope>provided</scope> -->
        </dependency>
        <dependency>
            <groupId>com.alibaba.blink</groupId>
            <artifactId>flink-streaming-java_${scala.binary.version}</artifactId>
            <version>${blink.version}</version>
            <exclusions>
                <exclusion>
                    <artifactId>slf4j-api</artifactId>
                    <groupId>org.slf4j</groupId>
                </exclusion>
            </exclusions>
            <!-- <scope>provided</scope> -->
        </dependency>
        <dependency>
            <groupId>com.alibaba.blink</groupId>
            <artifactId>flink-streaming-scala_${scala.binary.version}</artifactId>
            <version>${blink.version}</version>
            <exclusions>
                <exclusion>
                    <artifactId>scala-library</artifactId>
                    <groupId>org.scala-lang</groupId>
                </exclusion>
            </exclusions>
            <!--            <scope>test</scope>-->
        </dependency>
        <dependency>
            <groupId>com.alibaba.blink</groupId>
            <artifactId>flink-table_2.11</artifactId>
            <version>${blink.version}</version>
            <exclusions>
                <exclusion>
                    <artifactId>commons-codec</artifactId>
                    <groupId>commons-codec</groupId>
                </exclusion>
                <exclusion>
                    <artifactId>commons-collections</artifactId>
                    <groupId>commons-collections</groupId>
                </exclusion>
                <exclusion>
                    <artifactId>slf4j-api</artifactId>
                    <groupId>org.slf4j</groupId>
                </exclusion>
                <exclusion>
                    <artifactId>snappy-java</artifactId>
                    <groupId>org.xerial.snappy</groupId>
                </exclusion>
                <exclusion>
                    <artifactId>antlr4-runtime</artifactId>
                    <groupId>org.antlr</groupId>
                </exclusion>
            </exclusions>
            <!-- <scope>provided</scope> -->
        </dependency>
        <!-- Add test framework -->
        <dependency>
            <groupId>junit</groupId>
            <artifactId>junit</artifactId>
            <version>4.8.1</version>
            <scope>test</scope>
        </dependency>
        <dependency>
            <groupId>org.scala-lang</groupId>
            <artifactId>scala-library</artifactId>
            <version>2.11.12</version>
        </dependency>

        <!-- Add logging framework -->
        <dependency>
            <groupId>org.slf4j</groupId>
            <artifactId>slf4j-log4j12</artifactId>
            <version>1.7.7</version>
            <scope>runtime</scope>
        </dependency>
        <dependency>
            <groupId>log4j</groupId>
            <artifactId>log4j</artifactId>
            <version>1.2.17</version>
            <scope>runtime</scope>
        </dependency>
        <dependency>
            <groupId>org.antlr</groupId>
            <artifactId>antlr4-runtime</artifactId>
            <version>4.7.2</version>
        </dependency>
    </dependencies>

2、Blink Datastream简单示例

使用Socket产生流数据:

public class SocketServerTest {

    public static void main(String[] args) throws Exception {
        ServerSocket server = new ServerSocket(9000);
        Socket client = server.accept();
        System.out.println("客户端:" + client.getInetAddress().getHostAddress());
        BufferedWriter bw = new BufferedWriter(new OutputStreamWriter(client.getOutputStream()));
        while (true) {
            bw.write((int) (Math.random() * 100) % 10 + "\n");
            bw.flush();
            Thread.sleep(1000L);
        }
    }
}

Flink socketTextStream处理流数据:

public class StreamWordCountTest {

    public static void main(String[] args) throws Exception {
        StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
        //生成DataSource
        DataStream dataSource = env.socketTextStream("localhost", 9000, "\n");
        //解析数据:传入的数据使用Tuple2结构化,窗口周期5秒,按Tuple2第1个元素分组,第2个元素统计,
        DataStream<Tuple2<String, Integer>> windowCounts = dataSource
                .flatMap(new FlatMapFunction<String, Tuple2<String, Integer>>() {
                    @Override
                    public void flatMap(String value, Collector<Tuple2<String, Integer>> out) {
                        System.out.println("value=" + value);
                        for (String word : value.split("\\n")) {
                            out.collect(new Tuple2<String, Integer>(word, 1));
                        }
                    }
                })
                .keyBy(0)
                .timeWindow(Time.seconds(5))
                .sum(1);

        windowCounts.print().setParallelism(1);

        //执行
        env.execute("StreamTest");
    }
}

3、Blink Table简单示例

public class TableWordCountTest {

    public static void main(String[] args) throws Exception {

        //构建环境
        StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
        BatchTableEnvironment tEnv = TableEnvironment.getBatchTableEnvironment(env);

        //生成DataSource
        DataStreamSource<WordCount> elementSource = env.fromElements(
                new WordCount("Lily", 1),
                new WordCount("Lily", 1),
                new WordCount("Lily", 1),
                new WordCount("Tom", 1),
                new WordCount("Tom", 1),
                new WordCount("Jack", 1));

        //注册 WordCountTableTemp 表,设置字段
        tEnv.registerBoundedStream("TEMP_TABLE", elementSource, "word, num");

        Table table = tEnv.sqlQuery(
                "SELECT word, SUM(num) as num FROM TEMP_TABLE GROUP BY word");
        //输出
        table.printSchema();
        table.print();
        //执行
        tEnv.execute("TableTest");
    }


    public static class WordCount {
        public String word;
        public long num;

        public WordCount() {
        }

        public WordCount(String word, long num) {
            this.word = word;
            this.num = num;
        }

        @Override
        public String toString() {
            return "WordCount{" +
                    "word='" + word + '\'' +
                    ", num=" + num +
                    '}';
        }
    }
}

三、总结

Blink 3.X 对应 Flink 1.5版本;

开源Flink1.9版本首次完成阿里Blink整合,但其实 Blink 的查询处理器的集成还没有完全完成;

开源Flink1.10版本完全整合Blink,增强了流式SQL处理能力和成熟的批处理能力;

开源Flink1.12版本,DataStream流批一体迈出了第一步;

流批一体化,也是大数据实时处理的趋势。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 217,657评论 6 505
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,889评论 3 394
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 164,057评论 0 354
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,509评论 1 293
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,562评论 6 392
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,443评论 1 302
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,251评论 3 418
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,129评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,561评论 1 314
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,779评论 3 335
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,902评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,621评论 5 345
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,220评论 3 328
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,838评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,971评论 1 269
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,025评论 2 370
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,843评论 2 354

推荐阅读更多精彩内容

  • PyFlink官方文档: https://ci.apache.org/projects/flink/flink-d...
    bigdata张凯翔阅读 1,217评论 0 0
  • MaxComputer简介 大数据计算服务(MaxCompute,原名ODPS)是一种快速、完全托管的EB级数据仓...
    c88c424c7f3d阅读 2,479评论 0 1
  • 【背景】公司采购阿里云SSL证书服务,其选择CFCA颁发的SSL证书进行通信,证书类型为通配符域名类型。在阿里云的...
    刘_小_二阅读 4,314评论 0 1
  • 16宿命:用概率思维提高你的胜算 以前的我是风险厌恶者,不喜欢去冒险,但是人生放弃了冒险,也就放弃了无数的可能。 ...
    yichen大刀阅读 6,049评论 0 4
  • 公元:2019年11月28日19时42分农历:二零一九年 十一月 初三日 戌时干支:己亥乙亥己巳甲戌当月节气:立冬...
    石放阅读 6,879评论 0 2