头部公募基金,金融科技转型,对技术重视程度高,福利待遇好
工作地点建国门,薪资待遇在金融行业非常具有竞争力,感兴趣可发送简历至wolverinelwd@163.com;或微信wolerine-L详细咨询
一、高级运维开发工程师
岗位职责:
1. 负责公司数字化运维平台的研发与建设工作,根据需求研发新功能、持续提升用户体验、提高运行效率
2. 负责监控平台的各类优化、故障排查及日常运维管理等,确保系统服务安全稳定。
3. 负责各类运维脚本的编写和工具的研发,提高运维效率,规范操作流程。
4. 负责新技术、新工具的调研和应用。我们希望你:
岗位需求:
1. 本科以上学历,计算机相关专业,三年以上开发经验。
2. 掌握python/java/golang等任一种编程语言,并能进行快速开发。
3. 熟悉常见监控系统zabbix、open-falcon、ELK等。
4. 熟练使用git/ansible/saltstack等自动化运维工具,熟悉mysql/redis/kafka等工具。
5. 有运维自动化相关系统开发经验、如CMDB、发布系统、SSO系统等
6. 能够独立完成工作,具有较强的综合分析问题及解决问题的能力。有良好的团队协作能力、沟通能力,乐于分享,有良好的服务意识。
7.具备较好项目管理与沟通技能
二、大数据运维工程师
岗位职责:
1、负责公司大数据平台的部署、管理、优化、监控报警,保障平台服务7*24稳定可靠高效运行;
2、深入理解公司大数据平台架构,发现并解决性能瓶颈,支撑业务和数据量的快速增长;
3、开发大数据自动化运维、监控报警、故障处理相关脚本和工具;
4、负责Hadoop/spark/Kafka等集群服务、业务监控、持续交付、应急响应、容量规划等。
任职要求:
1、3年以上互联网运维相关工作经验,2年以上大数据平台运维相关工作经验;
2、具备一定的故障排查能力,有良好的技术敏感度和风险识别能力,精通一门以上脚本语言(shell/python等),熟悉Http/Https、TCP/IP、SMTP等协议;
3、熟悉Linux(redhat/centos)软硬件环境、系统管理和优化,熟练部署、优化各种常用服务。熟练使用Linux 命令和常用的ssh、ftp、git、maven等开发工具;
4、熟悉Hadoop大数据生态圈、各组件原理及实现,有实际部署维护管理及优化经验,包括但不限于CDH/HDFS/YARN/Hive/Hbase/Kafka/zookeeper/Spark/Flume/Impala/Hue/Sqoop/Elasticsearch/kibana/MySQL/Oracle等;
5、熟悉掌握常用的安全协议和组件服务,对hadoop各组件的权限、安全、kerberos进行配置管理。熟悉SSL、ACL、kerberos等在大数据环境场景的使用;
6、熟悉常用运维监控工具(nagios/ganglia/zabbix/grafan/openfalcon等)和相关插件的开发。比如邮件、短信、微信报警插件等;
7、熟悉常用nginx/haproxy/varnish/netscaler等代理工具的使用和优化;
8、具备良好的服务意识,善于主动思考,自我驱动力强。有良好的沟通、协调能力,富有团队精神,有较强的文档编写能力;
9、有大数据开发经验和阅读源码能力者优先。
--
FROM 121.69.135.*