公司是一家全球领先的基于人工智能的视频领域分析技术公司。总部硅谷,研发团队有大部分来自卡内基梅隆和伯克利大学硕士或者博士。目前正在中国迅速扩张中。
地点:北京望京 soho
公司提供:硅谷福利+竞争力薪水+期权+技术大牛团队+全球海量数据
感兴趣可以发邮件至:
[email protected] 详细沟通。
基本要求:英语熟练,技术基础扎实,熟悉大数据相关开发,知名大数据公司或者互联网公司大数据方向人选优先考虑。
资深数据开发工程师
要求:
1. 本科及以上学历,计算机、软件工程等相关专业;
2. 5 年以上工作经验,3 年以上数据分析经验;
3. 有大数据系统使用和开发经验,包括但不限于 Hadoop/Spark/Hive/Hbase/Presto 等;
4. 良好的 SQL 语句功底,熟悉 MySQL、PostgreSQL 等数据库中的一种;
5. 有日志收集相关经验或者数据仓库建设和 BI 经验优先;
6. 逻辑清晰,快速的学习能力及良好的沟通能力。
资深后台开发工程师
要求:
1. 计算机或相关专业本科及以上学历,4 年以上作经验,2 年以上数据开发经验, 扎实的数据结构和算法功底;
2. 熟悉 Linux/Unix 开发环境,精通 python/java/shell,熟悉 java 领域内的主流开源项 ;
3. 熟悉开源分布式系统,对 Hadoop/Hive/Spark/Storm/Flink/HBase 中的某项或多项有深入了解;能够独立排查及解决分布式系统的问题;
4. 具有丰富的数据处理经验,对数据处理 、数据清洗,数据建模、数据分析等有深刻认识和实战经验;
5. 清晰的逻辑分析和表达能 ,热爱技术,乐于分享,对行业和技术的发展有独立与深刻的理解;
大数据资深运维工程师
职位要求:
1. 4 年以上的运维或开发经验,对搭建高效的自动化运维平台有兴趣, 熟悉 deveops;
2. 深入理解 Linux 系统,运维体系结构,精于容量规划、架构设计、性能优化;
3. 精通 Hadoop 大数据生态圈,熟悉 Hadoop 各组件的原理,并有实际部署维护经验;包括但不限于 HDFS、YARN、Kafka、Spark、Storm、druid、HBase、Kerberos、Hive、Kudu、Zookeeper 等;
4. 熟练使用 C/Python/Golang,熟悉 Linux Shell 编程;
5. 熟悉操作系统和网络知识,有良好的数据结构和算法基础;
6. 熟悉服务发现/资源配管/监控报警,并有实际二次开发及架构经验;