一、滴滴(基础平台部)
数据平台技术专家
岗位职责:
1、负责商业化大数据应用产品、数据分析、数据可视化平台的架构设计与核心开发工作;
2、负责百亿数据量级OLAP引擎、分析引擎的架构设计与性能优化;
3、负责公司级数据开发与数据治理完整工具链条开发,深入底层优化开发过程,解决海量数据治理难题;
岗位要求:
1、全日制统招本科及以上学历,计算机相关专业;
2、5年以上工作经验,不少于2年大数据架构经验;
3、精通java编程语言,良好的系统编程、算法基础、系统设计能力;
4、熟悉大型分布式系统设计与开发,熟悉常用web缓存、消息队列技术原理;
5、熟悉常用开源分布式系统,精通Hadoop/Hive/Spark/HBase/Es/Druid其中的一个或多个源代码;
6、熟悉实时计算框架Storm、Flink、Spark Streaming其中之一并有实际项目经验;
大数据开发工程师
岗位职责:
1. 构建分布式大数据服务平台,参与和构建公司包括海量数据存储、离线/实时计算、实时查询,大数据系统运维等系统;
2. 服务各种业务需求,服务日益增长的业务和数据量;
3. 深入源码内核改进优化开源项目,解决各种hadoop、spark、hbase疑难问题,参与到开源社区建设和代码贡献。
任职资格:
1. 计算机或相关专业本科以上学历(3年以上工作经验);
2. 精通C++/Java/Scala程序开发(至少一种),熟悉Linux/Unix开发环境;
3. 熟悉常用开源分布式系统,精通Hadoop/Hive/Spark/Storm/Flink/HBase之一源代码;
4. 有大规模分布式系统开发、维护经验,有故障处理能力,源码级开发能力;
5. 具有良好的沟通协作能力,具有较强的分享精神;
6. 对Kudu、Kylin、Impala、ElasticSearch,github等系统有深入使用和底层研究者加分。
二、雪球财经
大数据平台工程师
岗位职责:
1.负责大数据基础平台的技术规划和数据规划
2.研发基于大数据平台的相关应用
任职要求:
1. 计算机相关专业,3年以上开发经验
2. 熟悉Hadoop、Hive、HBase、Spark等当前主流的开源数据平台
3. 深入理解Hadoop或Spark的原理和机制
4. 熟练掌握Java,Python,Shell编程
5. 良好的逻辑思维能力;做事积极主动;有较强的执行能和和较好的沟通能力