jdk1.8中使用

Set userDoneRecord =records.stream()

.filter(r -> r.getUserCode().equals(s.getUserCode())).map(StuJobRecord::getJobId).collect(

Collectors.toSet());



maps.forEach((k, v) -> {

//k 天 ,v作业

//等级分组

  Map> standGroup = v.stream()

.collect(Collectors.groupingBy(Job::getStandard));

//用户学完成的作业

  Set userNeedJobs = Optional.ofNullable(standGroup.get(s.getStandard()))

.orElseGet(ArrayList::new).stream().map(Job::getId).collect(Collectors.toSet());

if (userDoneRecord.containsAll(userNeedJobs)) {

jobByday.add(k);

}

});


List res = stuClassSchools.stream().map(s -> {

double totalSpend =records.stream().filter(

r -> r.getUserCode().equals(s.getUserCode()))

.map(consu)

.filter(r -> r !=null)

.reduce(0, (a, b) -> a + b).doubleValue();




int sumTime = questionList.stream().filter(x -> x.getExpectTimes() !=0 && x.getStandard().indexOf(a) != -1)

.mapToInt(QuestionJson::getExpectTimes).sum();


Map> maps = mapQue.stream().collect(Collectors.groupingBy(QuestionJson::getRefWord));

©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

  • pyspark.sql模块 模块上下文 Spark SQL和DataFrames的重要类: pyspark.sql...
    mpro阅读 13,216评论 0 13
  • 原文地址: 深蓝至尊 一. 流式处理简介 在我接触到java8流式处理的时候,我的第一感觉是流式处理让集合操作变得...
    咻咻咻i阅读 4,921评论 0 0
  • Streams 的背景,以及 Java 8 中的使用详解 为什么需要 Stream Stream 作为 Java ...
    Java黎先生阅读 4,225评论 0 8
  • 作为研发人员,一些优秀的开发工具可以提升很多工作效率,节省许多时间。今天给大家推荐几款我个人认为比较不错的几款常用...
    代码_搬运工阅读 5,008评论 0 6
  • 生活,如果分阶段,随着你在社会中的成长,有小学,初中,高中,大学,找工作,忙碌,慢慢稳定,安详,如果你足够优...
    卡卡岩阅读 1,792评论 0 0

友情链接更多精彩内容