具有Spark、Scala、GCP经验的高级数据工程师
加利福尼亚州圣尼维尔(必须在第一天上班)
长期
必须具备强大的GCP经验
必备技能:
Spark - 8+年经验
Scala - 8+年经验
GCP - 5+年经验
Hive - 8+年经验
SQL - 8+年经验
ETL流程/数据管道 - 8+年经验
职责:
要求:
• 8+年的实际开发数据仓库解决方案和数据产品的经验。
• 4+年的实际开发具有Hadoop、Hive、Scala、Airflow或工作流编排解决方案的分布式数据处理平台的经验是必需的。
. 4+年的GCP、GCS Data proc、BIG Query经验
• 2+年的模型设计(Erwin)和设计数据湖或RDBMS平台的模式的实际经验。
• 具备编程语言的经验:Python、Java、Scala等。
• 具备脚本语言的经验:Perl、Shell等。
• 练习使用、处理和管理大型数据集(多TB/PB规模)。
• 接触过测试驱动开发和自动化测试框架。
• 掌握Scrum/敏捷开发方法论。
• 能够在少量监督下完成多个竞争性任务。
• 优秀的口头和书面沟通能力。
• 计算机科学学士学位或同等经验。
最成功的候选人还应具备以下经验:
• Gitflow
• Atlassian产品 - BitBucket、JIRA、Confluence等。
• Bamboo、Jenkins或TFS等持续集成工具
作为一名高级数据工程师,您将:
• 使用最新的开源技术设计和开发大数据应用程序。
• 愿意在离岸模式下工作并管理结果
• 为大数据平台开发逻辑和物理数据模型。
• 使用Apache Airflow自动化工作流程。
• 使用Apache Hive、Apache Spark、Scala、Apache Kafka创建数据管道。
• 对现有系统进行持续维护和增强,并参与轮换的呼叫支持。
• 快速了解我们的业务领域和技术基础设施,并自由主动地与团队中的其他人分享您的知识。
• 指导团队中的初级工程师
• 主持每日站立会议和设计评审
• 使用JIRA整理和优先处理待办事项
• 充当您分配的业务领域的联系人