大数据运维工程师:
职责描述:
- 负责 Hadoop/Hive/Yarn/Spark/Kafka 等组件的运维保障;
- 负责大数据平台自动化运维以及数据化运营平台开发工作;
- 深入理解大数据平台架构,发现并解决重大故障及性能瓶颈,提供解决方案;
- 负责大数据平台系统的架构审核、业务监控、持续交付、应急响应、容量规划等
任职要求:
- 具有 100 台+大数据集群运维经验,精通 jVM 性能优化;
- 精通 hadoop、hive、spark 等开源计算框架部署、运维、调优;
- 熟悉 yarn、k8s 等容器化部署经验;
- 熟练 Linux 操作系统,熟悉 Shell 脚本编程及常用 Linux 操作命令
容器运维开发工程师:
职位职责:
- 负责大数据分布式任务调度平台、Flink 实时数据处理平台、机器学习任务管理平台相关
的容器编排自动化发布、开发、运维实施与落地
- 解决在部署、运维过程中遇到的技术、沟通问题。
- 设计承载海量大数据任务及系统管理的 K8S 架构并用于生产产生实际价值。
职位要求:
1、对 docker/Kubernetes 其生态的监控、日志、网络、持久化、及在公有云私有云部署有实
施经验;
2、对 kubernetes 文件系统、网络、dockfile 的制作有深入的理解;
3、深入熟悉 Kubernetes,对其原理,机制,构成有深刻理解,活跃于开源社区优先;
4、熟练 shell、python 脚本,有 go 语言的代码阅读能力;
5、聪明好学,喜欢钻研技术难题
6、自驱驱他,对项目结果负责
7、有大数据及机器学习容器化相关经验优先;
上班地点:近二号线广兰路地铁站
简历发送到以下邮箱( base64 decode ):
NjIzODI3MzEwQHFxLmNvbQo=