大数据运维工程师(北京)
北京世纪互联宽带数据中心有限公司
- 公司规模:1000-5000人
- 公司性质:民营公司
- 公司行业:通信/电信/网络设备
职位信息
- 发布日期:2020-03-16
- 工作地点:北京-朝阳区
- 招聘人数:1人
- 工作经验:3-4年经验
- 学历要求:本科
- 职位月薪:1.5-2万/月
- 职位类别:技术支持/维护工程师
职位描述
工作职责:
1、负责公司大数据平台的部署、管理、优化、监控报警,保障平台服务7*24稳定可靠高效运行;
2、深入理解公司大数据平台架构,发现并解决性能瓶颈,支撑业务和数据量的快速增长;
3、开发大数据自动化运维、监控报警、故障处理相关脚本和工具;
4、负责Hadoop/Hbase/Spark/Kafka等集群服务、业务监控、持续交付、应急响应、容量规划等。
任职资格:
1、4年以上互联网运维相关工作经验,3年以上大数据平台运维相关工作经验;
2、具备一定的故障排查能力,有良好的技术敏感度和风险识别能力,精通一门以上脚本语言(shell/python等),熟悉Http/Https、TCP/IP等协议;
3、熟悉Linux(redhat/centos)软硬件环境、系统管理和优化,熟练部署、优化各种常用服务。熟练使用Linux 命令和常用的ssh、ftp、git、maven等开发工具;
4、熟悉Hadoop大数据生态圈,包括但不限于CDH/Ambari/HDFS/YARN/Hive/Hbase/Kafka/zookeeper/Spark/Flume/Elasticsearch/kibana/MySQL/Redis等;
5、熟悉Hadoop各组件的原理和实现,有实际部署维护、管理( 包括元数据管理)及优化经验。并拥有持续调优能力,运维管理过大规模数据平台;
6、熟悉掌握常用的安全协议和组件服务,对hadoop各组件的权限、安全、kerberos进行配置管理。熟悉SSL、ACL、kerberos等在大数据环境场景的使用;
7、熟悉常用运维监控工具,包括但不限于nagios/ganglia/zabbix/grafana/open-falcon等,和相关插件的开发。比如邮件、短信、微信报警插件等;
8、熟悉常用运维自动化工具,包括但不限于ansible/puppet/SaltStack等代理工具的使用和优化;
9、具备良好的服务意识,善于主动思考,自我驱动力强。有良好的沟通、协调能力,富有团队精神,有较强的文档编写能力;
10、有大数据开发经验和阅读源码能力者优先。
职能类别:技术支持/维护工程师
公司介绍
世纪互联Switch+高能数据中心,依托世纪互联在数据中心建设、连接、云服务、一站式解决方案等方面的优势,助力中国构建创新型的网络空间基础设施。目前,世纪互联已构建京津冀、珠三角、长三角三个大的数据中心集群,并实现了数据中心之间互联互通,采用SDN技术保障链路的高可靠性,形成庞大的、全连接的数据中心“大底盘”。