难得的清闲,却接了个2个小时的电话,朋友在一直抱怨自己的技术团队没有上进心,招聘来的技术总经理又不管落地的事,安慰了半天,又帮着看看哪位总经理写的规划,其实人家总经理做的是总体的战略规划,而且内容很详尽还有很多应对风险的预警措施,其实站在技术管理者的角度已经非常好了,可我这朋友可能在传统行业呆惯了,不太理解技术本质的含义是什么。嘴上喊着要数字化转型,等到落实的时候就不敢动弹了;批评完他,也想想自己,才面试完,人家让评论一下自己,说一下自己的优点,我就说了四个字:“果敢、认知”,一个是形容词,果断+勇敢(实际上勇敢真的是勇敢的进,勇敢的退)而认知更是我职业生涯中一直要提升的,永无止境。
但是还得帮他把个技术问题解决一下,他们公司做GPS的,现在在做应用,实时传来的GPS数据越来越多,分析起来越来越麻烦,以前一直在Storm但是最近经常报错。特别是看了Log,发现Spout的消息队列过大,bolt处理不过来,产生大量堆积。其实我也没有特别好的方案,只是建议他们重新做些优化,Storm是个不错的实时数据处理框架,但随着流式计算的深入人心,加上他们业务上一些反欺诈场景的需要,我还是建议他们用Flink。关于什么是有状态,什么是无状态,请对比Http协议的解释以及幂等的概念。
上面只是做个基础的概念上的对比,按照朋友家的业务场景,大概画了画
逻辑特别简单,数据经过Kafka,Flink直接构建FlinkKafkaConsumerxxx(xxx是数字不知道人家用啥版本),然后Flink Redis sink把数据放在实时的Redis里面。这里提一下,Redis Geo的确很方便,https://blog.csdn.net/zhangcc233/article/details/95809006 csdn上面有篇文章介绍的很详细,代码我也跑过,没问题。只所以把Redis用上,还是因为有些电子围栏的功能需要实时报警,所以还是需要的,而且Spark在读取Redis的数据上也是很方便的:
val posSeq = Seq(Pos("120.032", "83.25"), Pos("155.11", "52.19"))
val df = spark.createDataFrame(posSeq)
df.write
.format("org.apache.spark.sql.redis")
.option("table", "geoAll")
.option("key.column", "pos")
.mode(SaveMode.Overwrite)
.save()
val sf = spark.read
.format("org.apache.spark.sql.redis")
.option("table", "geoAll")
.option("key.column", "pos")
.load()
sf.show(false)
由于场景的需要,很多车辆行驶的数据需要回溯,Redis也不太可能一直保存着所有的数据,这时候历史的数据就都进入到了HBase里面。HBase的结构决定了它更适合做历史数据,只所以没用Hive,也是因为数据结构非常简单,只是量大,不排除有些修正的工作,Hive 又不支持Update,同时动不动就得MR Job一下,所以没必要。况且Hive还是设计的比较复杂的,如下图就是既没有索引,插入延迟还高,却高可靠,可扩展性极强的Hive
当然,由于HBase,Hive都不支持事务,所以这里也不讨论事务。
HBase的结构:每张表都通过行键按照一定的范围被分割成多个子表(HRegion),默认一个HRegion超过256M就要被分割成两个,由HRegionServer管理,管理哪些HRegion由HMaster分配。HRegionServer存取一个子表时,会创建一个HRegion对象,然后对表的每个列族(Column Family)创建一个Store实例,每个Store都会有0个或多个StoreFile与之对应,每个StoreFile都会对应一个HFile, HFile就是实际的存储文件。