栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 软件开发 > 后端开发 > Java

Flink使用(一) Streaming API处理有界流

Java 更新时间: 发布时间: IT归档 最新发布 模块sitemap 名妆网 法律咨询 聚返吧 英语巴士网 伯小乐 网商动力

Flink使用(一) Streaming API处理有界流

前提:

目前,Flink版本支持,批流处理使用一套API完成。

即,使用DataStream API既能处理流数据,又能处理批数据(有界流)。

如何使用DataStream API处理数据,并且以BATCH的方式运行呢?

方式一:在程序中指定运行模式(不推荐,调试可以):

        env.setRuntimeMode(RuntimeExecutionMode.BATCH);

方式二:

提交任务时,使用bin/flink/run -Dexecution.runtime-mode=BATCH 指定BATCH方式运行程序。

使用BATCH方式运行的目的?

我理解是将最终的结果进行输出,而不是获取一条记录后就输出一条结果。

示范例子

例子数据源word.txt,只有三行数据

hello word
hello flink
hello java

正常情况下,使用DataStream API对数据进行流式处理。
package org.galaxy.foundation.core.courses;

import org.apache.flink.api.common.RuntimeExecutionMode;
import org.apache.flink.api.common.typeinfo.Types;
import org.apache.flink.api.java.tuple.Tuple2;
import org.apache.flink.streaming.api.datastream.DataStreamSource;
import org.apache.flink.streaming.api.datastream.KeyedStream;
import org.apache.flink.streaming.api.datastream.SingleOutputStreamOperator;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
import org.apache.flink.util.Collector;

 
public class Stream10 {

    public static void main(String[] args) throws Exception {
        final StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();

        DataStreamSource lineDataStreamSource = env.readTextFile("/tmp/foundation-core/words.txt");
       SingleOutputStreamOperator> wordAndOneTuple=  lineDataStreamSource.flatMap((String line, Collector> out) -> {
            String[] words = line.split(" ");
            for (String word : words) {
                out.collect(Tuple2.of(word, 1L));
            }
        }).returns(Types.TUPLE(Types.STRING,Types.LONG));


          KeyedStream, String> wordAndOneKeyedStream = wordAndOneTuple.keyBy(data -> data.f0);

        SingleOutputStreamOperator> sum = wordAndOneKeyedStream.sum(1);
        sum.print();
        env.execute();
    }

}

打印结果:

3> (hello,1)
2> (java,1)
7> (flink,1)
6> (word,1)
3> (hello,2)
3> (hello,3)

可以看出,每来一条记录,即产生一条输出。

重点来了,使用DataStream API,以BATCH方式处理数据 只要在env初始化的下面增加一行
env.setRuntimeMode(RuntimeExecutionMode.BATCH);

重新运行,打印结果:

6> (word,1)
2> (java,1)
7> (flink,1)
3> (hello,3)

可以看出,将最终的汇总结果,一次完整的打印出来。

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/855073.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号