到岗时间:1个月之内
婚况要求:不限婚况
职责描述: 1.负责HadoopSpark平台部署和调优,保证其稳定运行;
2.对HadoopSpark平台的运维工作不断优化,探索、研究新的运维技术方向;
3.参与大数据分析平台的架构设计、开发和日常维护工作;
任职要求: 1.本科及以上学历,1年以上相关工作经验;
2.熟悉HadoopSpark框架,熟悉Hive、Hbase、HDFS、Yarn等分布式相关组件的日常维护与使用;
3.具有1年以上基于HadoopSpark框架的开发维护经验,对分布式计算、数据仓库理论有深刻理解;
4.熟练掌握MySQL、DB2等数据库维护管理及常用的SQL语法;
5.熟悉 LinuxUNIX Shell ,熟悉Perl、Python、Ruby等脚本语言中的任意一种;
6.具备HadoopSpark环境安装、维护及性能调优的相关经验;
7.优秀的分析问题和解决问题的能力;
8.具备较强的学习、总结能力和良好的沟通协调能力,思路清晰,擅长总结归纳;
求职提醒:求职过程请勿缴纳费用,谨防诈骗!若信息不实请举报。