职位:首席 Databricks 工程师(具备 Pyspark 和 Python 经验)
工作地点:纽约市,纽约 或 新泽西州伊塞林(混合办公 - 每周三天在办公室工作)
工作时长:6 个月及以上
职位描述:
面试必须为面对面
(金融背景必须)
主要职责:
• 处理与抵押品、ETD、OTD、结算市场、现金产品、回购、双回购相关的金融数据。
• 设计、开发和部署 Databricks 作业,以处理和分析大量数据。
• 与数据工程师和数据科学家合作,了解数据需求并实施适当的数据处理管道。
• 优化 Databricks 作业的性能和可扩展性,以处理大数据工作负载。
• 监控和排除 Databricks 作业的故障,识别并解决问题或瓶颈。
• 在 Databricks 环境中实施数据管理、安全性和治理的最佳实践。具有设计和开发企业数据仓库解决方案的经验。
• 展示数据分析和数据洞察的熟练程度。
• 精通 SQL 查询和编程,包括存储过程和反向工程现有流程。
• 具备 Azure Synapse/Bigquery/Redshift 经验者优先。
• 执行代码审查,以确保符合要求、最佳执行模式和遵循既定标准。
技能:
• 5 年以上 - 在金融/银行行业的强大经验 - 资本市场、投资银行 - 抵押品、ETD、OTD、结算市场、现金产品、回购、双回购。
• 10 年以上 - 企业数据管理。
• 10 年以上 - 基于 SQL Server 的大型数据集开发。
• 5 年以上 - 数据仓库架构,具有 Databricks 平台的实际经验。具有丰富的 PySpark 编码经验。
• 具备 Azure Synapse/Bigquery/Redshift 经验者优先。
• 3 年以上 Python(numpy,pandas)编码经验。
• 具备使用 Snowflake 工具(如 SnowSQL 和 SnowPipe)经验者优先。
• 具备数据仓库经验 - OLTP、OLAP、维度、事实和数据建模。
• 之前有领导企业级云数据平台迁移的经验,具备强大的架构和设计技能。
• 能够独立讨论企业级服务,不受技术栈限制。
• 具备云基础数据架构、消息传递和分析的经验。
• 出色的沟通能力。
• 云认证(s)。
• 具备监管报告经验者优先。
教育背景:
• 至少拥有工程和/或计算机科学学科的学士学位。
• 强烈建议拥有硕士学位。