使用Stream实现多线程计算

模拟hadoop的计算单词个数统计的helloword程序,计算给定语句的单词出现次数。进一步优化:按照次数进行排序后输出。

使用了parallel并行计算,三个参数的reduce进行缩减计算。三个参数时是最难以理解的。先来看其定义:

<U> U reduce(U identity,
        BiFunction<U, ? super T, U> accumulator,
        BinaryOperator<U> combiner)

分析下它的三个参数:

  1. identity: 一个初始化的值;这个初始化的值其类型是泛型U,与Reduce方法返回的类型一致;注意此时Stream中元素的类型是T,与U可以不一样也可以一样,这样的话操作空间就大了;不管Stream中存储的元素是什么类型,U都可以是任何类型,如U可以是一些基本数据类型的包装类型Integer、Long等;或者是String,又或者是一些集合类型ArrayList等;
  2. accumulator: 其类型是BiFunction,输入是U与T两个类型的数据,而返回的是U类型;也就是说返回的类型与输入的第一个参数类型是一样的,而输入的第二个参数类型与Stream中元素类型是一样的。
  3. combiner: 其类型是BinaryOperator,支持的是对U类型的对象进行操作;

代码如下:

        //1. 给定一段英文句子,单词用空格间隔
        String words = " guo xiu zhi guo map reduce guo hadoop java stream stream parallel guo guo";
        //2.1  由于是多线程要使用 ConcurrentHashMap,HashMap不支持并发操作
        //2.2  给定语句通过空格分割成数组,转换成普通Stream,再转换并行流
        //2.3  并行流进行三参数的reduce计算。第一个参数是返回值,第二个参数是累加器,第三个参数是各个线程返回值的合并操作。
        ConcurrentHashMap<String, Integer> reduceMap = Arrays.stream(words.split(" ")).parallel().reduce(new ConcurrentHashMap<String, Integer>(), (map, w) -> {
            Integer num = map.get(w);
            if (num == null) {//这个单词如果不存在于map中
                map.put(w, 1);
            } else {//这个单词如果存在于map中,数量+1,新值放入map
                map.put(w, num + 1);
            }
            return map;
        }, (m1, m2) -> {
            m1.putAll(m2);//把并行计算的各个结果归并整合到m1中
            return m1;
        });

        //根据单词的出现次数倒序排列后输出到List对象
        List<Entry<String, Integer>> collect = reduceMap.entrySet().stream().sorted((o1, o2) -> o2.getValue() - o1.getValue()).collect(Collectors.toList());
        //输出排序后的list数据
        System.out.println("reduceMap = " + collect);

输出内容:
reduceMap = [guo=4, stream=2, reduce=1, =1, xiu=1, java=1, parallel=1, zhi=1, hadoop=1, map=1]

统计单词数量结果

但是我们发现数据偶尔会有丢失。对于parrallel之后元素数量不固定的原因,就是多线程有可能同时读取到相同的下标n然后同时赋值,这样就会出现元素缺失的问题。无非就是多个线程赋值可能同时操作同一个地址,后赋值的把先赋值的给覆盖掉了,才会出现这种问题。所以在使用paralleStream不使用foreach、map操作,完成collect后的新Stream再使用。

什么方法可以防止并行流出现线程不安全操作?

  1. 【推荐方法】Java8 Stream的collect方法,就是收集Stream里的元素,返回List,Set或Map等,并且它是线程安全的。那就是最后调用collect(Collectors.tolist()),这种收集起来所有元素到新集合是线程安全的。在采用并行流收集元素到集合中时,由于我们使用了并发流要使用Collectors.toConcurrentMap收集到ConcurrentMap,而不是使用普通的toMap(),toList()方法进行收集。
ConcurrentMap<String, Integer> toConcurrentMap = Arrays.stream(words.split(" ")).parallel().collect(Collectors.toConcurrentMap(s -> s, s -> 1,
                (integer, integer2) -> integer + integer2));
List<Entry<String, Integer>> orderedCollection = toConcurrentMap.entrySet().stream().sorted((o1, o2) -> o2.getValue() - o1.getValue()).collect(Collectors.toList());
System.out.println("reduceMap = " + orderedCollection);

没有使用外部定义的集合,并且使用到了parallelStream并行处理的优势。输出的数据不再丢失
reduceMap = [stream=3, guo=2, zhi=2, reduce=1, java=1, xiu=1, parallel=1, hadoop=1, map=1]

  1. 给map操作加锁

        Lock lock = new ReentrantLock();
        ConcurrentHashMap<String, Integer> reduceMap = Arrays.stream(words.split(" ")).parallel().reduce(new ConcurrentHashMap<String, Integer>(), (map, w) -> {
            lock.lock();
            Integer num = map.get(w);
            if (num == null) {//这个单词如果不存在于map中
                map.put(w, 1);
            } else {//这个单词如果存在于map中,数量+1,新值放入map
                map.put(w, num + 1);
            }
            lock.unlock();
            return map;
        }, (m1, m2) -> {
            //把并行计算的各个结果归并整合到m1中,m1和m2是一个对象,所以直接返回m1
            System.out.println(Thread.currentThread().getName() + "," + (m1 == m2));
            return m1;
        });
  1. 抽取map操作片段为单独方法getStringIntegerConcurrentHashMap,加上synchronized
        ConcurrentHashMap<String, Integer> reduceMap = Arrays.stream(words.split(" ")).parallel().reduce(new ConcurrentHashMap<String, Integer>(), (map, w) -> {
            return getStringIntegerConcurrentHashMap(map, w);
        }, (m1, m2) -> {
            //把并行计算的各个结果归并整合到m1中,m1和m2是一个对象,所以直接返回m1
            System.out.println(Thread.currentThread().getName() + "," + (m1 == m2));
            return m1;
        });

    public synchronized static ConcurrentHashMap<String, Integer> getStringIntegerConcurrentHashMap(ConcurrentHashMap<String, Integer> map, String w) {
        Integer num = map.get(w);
        if (num == null) {//这个单词如果不存在于map中
            map.put(w, 1);
        } else {//这个单词如果存在于map中,数量+1,新值放入map
            map.put(w, num + 1);
        }
        return map;
    }
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 215,923评论 6 498
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,154评论 3 392
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 161,775评论 0 351
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,960评论 1 290
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,976评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,972评论 1 295
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,893评论 3 416
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,709评论 0 271
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,159评论 1 308
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,400评论 2 331
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,552评论 1 346
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,265评论 5 341
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,876评论 3 325
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,528评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,701评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,552评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,451评论 2 352