岗位职责:
1、 负责现有万亿级数据链路升级与维护以及质量建设;
2、负责海量数据实时处理的工具系统的开发建设;
3、负责业务数据和用户行为日志等数据实时采集、计算;
4、负责实时&离线计算相关的方案探索和落地;
5、负责大数据写入组件性能的优化(clickhouse、kudu、redis、hdfs、tidb等) ;
6、负责业界领先数据加工平台的落地实现。
任职要求:
1、计算机相关专业本科及以上学历,5年以上大数据相关工作经验 ;
2、熟悉 Hadoop 生态,包括 HDFS/Mapreduce/Hive/Hbase,有分布式存储开发经验优先;
3、精通Kafka 、flink、spark等开源工具并有项目经验,阅读过源码者优先;
3、精通Java技术,熟悉JVM、分布式、多线程、高并发等原理和应用,有数据平台开发经验优先;
4、熟悉至少俩个大数据计算和存储引擎更佳,如:Impala、ClickHouse、Presto、Druid、Hive、ES等, 有数据湖开发经验优先;
5、责任心强,有担当,有良好的编码习惯,遵守团队开发规范和代码规范,良好的逻辑思维能力,具有很强的分析问题和解决问题的能力、团队协作能力和沟通能力
【联系方式】
有意向的注明岗位标题发送邮件到: windfly@jhsoar.com
有任何疑问欢迎随时微咨询: elitesoar
--
FROM 114.249.233.*