GCP 数据负责人 - 混合工作模式

2天前合同 网络
面议 Software International

Software International

多伦多
软件国际(SI)为包括财富 100/500/1000 公司在内的各种客户以及加拿大/美国和欧洲的小型和中型组织提供技术人才。 我们目前与全球 SAP 咨询客户有多个可重新延长的长期合同职位,招聘 GCP 数据负责人 - 混合工作模式,工作地点为多伦多市中心的大型消费品/娱乐客户办公室,每周在现场工作 2-3 天。最初为期 6 个月的合同,但将长期延长。 职位:SAP ABAP 开发人员与 Adobe 表单 类型:合同 职位数量:3 时长:初始 9-12 个月 + 可能的延长 地点:安大略省多伦多 - 混合工作,2-3 天在多伦多市中心现场工作 薪资:基于 C2C 合同的期望开放 角色概述 我们正在寻找一位具有强大 SAP 数据集成专业知识的高技能 Google Cloud Platform (GCP) 数据负责人,负责设计、实施和监督企业级数据解决方案。理想的候选人将结合对云数据平台、数据治理、安全性和数据建模的深厚专业知识,以及在 ETL/ELT 管道、SAP 数据提取、系统迁移和分析方面的实践经验。此角色将与业务利益相关者和工程团队合作,创建一个强大、可扩展且具有成本效益的数据生态系统,连接 SAP 和 GCP 环境。 主要职责 • 指导 • 提供技术方向、代码审查和复杂数据解决方案的支持。 • 领导和指导数据工程师团队,建立从 SAP 和其他 ERP 源到 GCP 的 ETL/ELT 管道。 • 制定工程标准、最佳实践和编码指南。 • 与项目经理合作,提供估算、跟踪进度、消除障碍,以确保工作按时完成。 • 与 BI 团队、数据分析师合作,以实现报告解决方案。 2. 数据架构与建模 • 设计概念、逻辑和物理数据模型,以支持分析和操作工作负载。 • 为分析系统实施星型、雪花型和数据金库模型。 3. Google Cloud Platform 专业知识 • 使用 BigQuery、Cloud Storage、Dataflow 和 Dataproc 设计 GCP 数据解决方案。 • 为 GCP 工作负载实施成本优化策略。 4. 数据管道与集成 • 使用 Apache Airflow(Cloud Composer)和 Dataflow 设计和协调 ETL/ELT 管道。 • 使用 SAP SLT 或 Google Cortex 框架等工具集成来自多个系统的数据,包括 SAP BW、SAP HANA、Business Objects。 • 利用 Boomi 等集成工具实现系统互操作性。 5. 编程与分析 • 开发复杂的 SQL 查询以进行分析、转换和性能调优。 • 使用 Python 构建自动化脚本和工具。 6. 系统迁移 • 领导企业数据平台的本地到云迁移 [SAP BW/Bobj]。 • 管理 SAP 数据集迁移到 GCP,确保数据完整性和最小停机时间。 8. 数据的 DevOps • 使用 GitHub Actions、Cloud Build 和 Terraform 为数据工作流实施 CI/CD 管道。 • 应用基础设施即代码原则,以实现可重复和可扩展的部署。 首选技能 • 8 年以上 GCP BigQuery、Composer、Cloud Storage、Pub/Sub、Dataflow 的验证经验。 • 至少 2-3 年指导小型到中型数据工程团队的领导经验。 • 强大的 SQL 和 Python 编程技能。 • 在从 ERP、BW 和/或 HANA 系统中进行 SAP 数据提取、建模和集成方面的实践经验。 • 了解数据治理框架和安全最佳实践。 • 熟悉数据的 DevOps 工具。 • 理解用于 SAP-GCP 集成的 Google Cortex 框架。