到岗时间:1个月之内
婚况要求:不限婚况
岗位职责: 1、负责基于Hadoop、Hbase、Spark、flink生态的大数据分布式存储计算组件的部署、容量规划及扩容;
2、负责大数据平台各组件服务的监控、性能调优和故障处理工作;
3、负责大数据平台各组件服务的用户管理、权限分配、资源调整工作;
4、负责Hadoop生态大数据组件运维的自动化平台建设,提高大数据服务的质量和效率;
5、结合业务对数据平台技术栈进行设计和优化,提供高可用、高性能、高扩展的大数据技术支撑;
任职要求: 1、大数据运维相关岗位工作2年及以上,具备大数据生态各组件的运维能力;
2、熟悉Hadoop体系架构、对该生态圈技术栈有深入的理解,有对源码的阅读和优化经验;
3、精通Yarn、ZooKeeper、Hbase、Spark、Kafka、Storm、Flink、kerberos等开源生态技术的体系结构和运行原理;
4、熟练掌握Java、Python、Shell、Scala其中一种开发语言;
5、有Hadoop相关开发工作经验者优先;
求职提醒:求职过程请勿缴纳费用,谨防诈骗!若信息不实请举报。