职位名称:高级顾问 - Databricks高级数据工程师
职位概要
作为高级数据工程师,您将负责使用Databricks在任何主要云平台(AWS、Azure或GCP)上监督企业级数据工程解决方案的端到端设计、部署和优化。这个高度战略性的角色专注于在大数据架构和分析中引领创新,制定最佳实践,为高级利益相关者提供建议,并确保数据解决方案与业务目标一致并推动可衡量的结果。
该职位的招聘截止日期为2026年2月13日。
您的工作
主要职责
• 架构和交付解决方案:领导在AWS、Azure或GCP环境中使用Databricks开发、实施和扩展高级数据工程解决方案。
• 倡导最佳实践:建立、记录并推广数据架构、集成和建模的最佳方法。
• 管道所有权:监督支持大规模企业数据需求的稳健数据管道和数据架构的设计、开发和维护。
• 推动卓越:发起和管理提高数据质量、运营效率和流程可扩展性的工作。
• 技术领导力:评估、试点和集成新的大数据和分析技术,确保组织保持在技术前沿。
• 战略数据治理:咨询、设计并实施适合现代云数据生态系统的治理、安全和合规策略。
• 团队领导和指导:领导、指导和发展数据工程师和架构师团队,促进技术成长和有效的项目交付。
• 利益相关者参与:向包括高管、业务负责人和技术团队在内的不同利益相关者传达技术概念和业务价值。
• DevOps和自动化:监督使用Azure DevOps、AWS Code Pipeline、Jenkins、TFS或PowerShell等工具实施CI/CD实践,以实现简化的部署和运营。
资格要求
• 计算机科学、工程或相关领域的学士或硕士学位(优先硕士)。
• 5年以上数据工程实际操作经验,重点是使用Databricks,在任何主要云平台(AWS、Azure、GCP)上部署。
• 至少5年技术熟练度:
• 精通云原生数据库、存储解决方案和分布式计算平台。
• 深刻理解Lakehouse架构、Apache Spark、Delta Lake和相关大数据技术。
• 在数据仓库、3NF、维度建模和企业级数据湖方面的高级技能。
• 具备Databricks组件的经验,包括Delta Live Tables、Autoloader、Structured Streaming、Databricks Workflows和编排工具(如Apache Airflow)。
• 擅长设计和支持增量数据加载,并使用PySpark构建元数据驱动的摄取/数据质量框架。
• 具备Databricks Unity Catalog的实际操作经验,并实施细粒度的安全和访问控制。
• 在通过自动化CI/CD管道部署代码和解决方案方面有成功记录。
• 至少1年管理复杂跨职能数据项目和技术团队的领导经验。
• 具备数据工程管道、代码、计算资源性能优化的经验。
• 根据工作内容和服务的客户及行业/部门,能够平均出差高达50%。
• 可能提供有限的移民赞助。
优先条件:
• 强烈优先考虑对AWS、Azure和GCP云生态系统及相关大数据堆栈的全面了解。
• 在Databricks/Apache Spark环境中表现调优和优化方面展示的技能。
• 及时了解最新的Databricks功能发布和平台增强。
• 出色的沟通和利益相关者管理能力,包括与高管领导层对接的舒适度。
• 具备Databricks Lakeflow经验者优先。
• 具备AI/ML经验者优先。
该职位的工资范围考虑了在做出薪酬决策时考虑的广泛因素,包括但不限于技能组合、经验和培训、执照和认证以及其他业务和组织需求。披露的范围估计尚未根据职位可能填补的地点相关的地理差异进行调整。在德勤,通常不会在其角色的范围顶部或附近聘用个人,薪酬决策取决于每个案例的事实和情况。目前范围的合理估计为$136,700-$188,900。
您也可能有资格参加一个酌情年度激励计划,受该计划的规则约束,其中的奖励(如果有)取决于各种因素,包括但不限于个人和组织的表现。
需要住宿的申请者信息:https://www2.deloitte.com/us/en/pages/careers/articles/join-deloitte-assistance-for-disabled-applicants.html