数据平台方面的职位分享

一、滴滴(基础平台部)

数据平台技术专家

岗位职责:

1、负责商业化大数据应用产品、数据分析、数据可视化平台的架构设计与核心开发工作;

2、负责百亿数据量级OLAP引擎、分析引擎的架构设计与性能优化;

3、负责公司级数据开发与数据治理完整工具链条开发,深入底层优化开发过程,解决海量数据治理难题;

岗位要求:

1、全日制统招本科及以上学历,计算机相关专业;

2、5年以上工作经验,不少于2年大数据架构经验;

3、精通java编程语言,良好的系统编程、算法基础、系统设计能力;

4、熟悉大型分布式系统设计与开发,熟悉常用web缓存、消息队列技术原理;

5、熟悉常用开源分布式系统,精通Hadoop/Hive/Spark/HBase/Es/Druid其中的一个或多个源代码;

6、熟悉实时计算框架Storm、Flink、Spark Streaming其中之一并有实际项目经验;

大数据开发工程师

岗位职责:

1. 构建分布式大数据服务平台,参与和构建公司包括海量数据存储、离线/实时计算、实时查询,大数据系统运维等系统;

2. 服务各种业务需求,服务日益增长的业务和数据量;

3. 深入源码内核改进优化开源项目,解决各种hadoop、spark、hbase疑难问题,参与到开源社区建设和代码贡献。

任职资格:

1. 计算机或相关专业本科以上学历(3年以上工作经验);

2. 精通C++/Java/Scala程序开发(至少一种),熟悉Linux/Unix开发环境;

3. 熟悉常用开源分布式系统,精通Hadoop/Hive/Spark/Storm/Flink/HBase之一源代码;

4. 有大规模分布式系统开发、维护经验,有故障处理能力,源码级开发能力;

5. 具有良好的沟通协作能力,具有较强的分享精神;

6. 对Kudu、Kylin、Impala、ElasticSearch,github等系统有深入使用和底层研究者加分。

二、雪球财经

大数据平台工程师

岗位职责:

1.负责大数据基础平台的技术规划和数据规划

2.研发基于大数据平台的相关应用

任职要求:

1. 计算机相关专业,3年以上开发经验

2. 熟悉Hadoop、Hive、HBase、Spark等当前主流的开源数据平台

3. 深入理解Hadoop或Spark的原理和机制

4. 熟练掌握Java,Python,Shell编程

5. 良好的逻辑思维能力;做事积极主动;有较强的执行能和和较好的沟通能力

©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容