职位:具有Java Spark经验的Hadoop Scala开发人员
地点:混合(纽约市,纽约)
持续时间:长期
面试方式:电话/视频
职位描述:需要至少11年以上的经验。
所需技能:Hadoop-Spark,Hadoop-MapReduce,Java
• 4年以上的数据处理和软件工程经验,能够构建高质量、可扩展的面向数据的产品
• 在分布式数据技术(例如Hadoop、MapReduce、Spark、EMR等)上具有经验,用于构建高效、大规模的数据流水线
• 有测试驱动开发的经验(例如使用Cucumber、Fitnesse等)
• 具有深入理解Python、Scala、Java或等效语言的强大软件工程经验
• 对数据架构、建模和基础设施有深入理解
• 有构建工作流程(ETL流水线)的经验
• 善于解决问题,注重细节,能够从端到端看到数据领域的复杂问题
• 愿意在快节奏的环境中工作
• 计算机科学硕士/学士学位或相关行业经验