到岗时间:1个月之内
婚况要求:不限婚况
1、负责公司大数据平台的部署、管理、优化、监控报警,保障平台服务7*24稳定可靠高效运行;
2、深入理解公司大数据平台架构,发现并解决性能瓶颈,支撑业务和数据量的快速增长;
3、开发大数据自动化运维、监控报警、故障处理相关脚本和工具;
4、负责Hadoop/spark/Kafka等集群服务、业务监控、持续交付、应急响应、容量规划等;
1、1年以上大数据平台运维相关工作经验;
2、具备一定的故障排查能力,有良好的技术敏感度和风险识别能力,精通一门以上脚本语言(shell/python等),;
3、熟悉Linux(redhat/centos)软硬件环境、系统管理和优化,熟练部署、优化各种常用服务;
熟练使用Linux命令和常用的ssh、ftp、git、maven等开发工具;
4、熟悉Hadoop大数据生态圈,包括但不限于CDH/HDFS/YARN/Hive/Hbase/Kafka/zookeeper/Spark/Flume/Impala/Hue/Sqoop/Elasticsearch/kibana/MySQL/Oracle等;
5、熟悉Hadoop各组件的原理和实现,有实际部署维护、管理(包括元数据管理)及优化经验;
并拥有持续调优能力,运维管理过大规模数据平台;
6、熟悉掌握常用的安全协议和组件服务,对hadoop各组件的权限、安全、kerberos进行配置管理;
熟悉SSL、ACL、kerberos等在大数据环境场景的使用;
7、熟悉常用运维监控工具(nagios/ganglia/zabbix/grafan/openfalcon等)和相关插件的开发;
比如邮件、短信、微信报警插件等;
8、熟悉常用nginx/haproxy/varnish/netscaler等代理工具的使用和优化;
9、具备良好的服务意识,善于主动思考,自我驱动力强;
有良好的沟通、协调能力,富有团队精神,有较强的文档编写能力;
10、有大数据开发经验和阅读源码能力者优先;
求职提醒:求职过程请勿缴纳费用,谨防诈骗!若信息不实请举报。