行业领域:金融服务——投资风险分析、投资组合工程和企业数据平台。我们构建可扩展的数据基础设施和分析管道,为机构客户提供风险信号、监管报告和面向客户的分析。
职位名称:数据工程师(远程,美国)
关于这个机会
我们正在招聘一名远程数据工程师,加入一个高绩效的工程团队,专注于大规模ETL/ELT和流数据解决方案的运营化。您将设计、实施和操作弹性数据管道和平台组件,为交易、风险和报告用例提供及时、准确的分析。
角色职责
• 设计、构建和维护可扩展的批处理和流数据管道,以摄取、转换和提供高质量的数据集用于分析和机器学习。
• 使用托管编排(例如,Airflow)和基于Spark的计算编写和优化可重用的ETL/ELT工作流,以提高性能和成本效率。
• 实施和维护云数据平台组件(数据仓库、存储、访问控制),以支持临时分析和生产报告。
• 与数据科学家、分析师和SRE合作,定义生产数据集的数据模式、验证规则、监控和SLA。
• 推动数据工程最佳实践:模块化代码、CI/CD管道、自动化测试、可观测性和基础设施即代码。
• 解决生产事故,进行根本原因分析,并实施长期可靠性改进。
技能资格
必须具备
• Python
• SQL
• Apache Spark
• Apache Airflow
• Snowflake
• AWS
优先考虑
• dbt
• Apache Kafka
• Terraform
资格:在构建分析或风险工作流的生产数据管道方面有丰富经验;具备强大的故障排除和系统设计能力;熟悉数据治理、数据血缘和可观测性实践。候选人应被授权在美国工作。
福利文化亮点
• 完全远程的美国职位,具有灵活的工作政策和分布式工程团队。
• 专注于职业成长:技术指导、学习预算和影响平台设计的机会。
• 高影响力的环境,工程所有权和数据质量推动业务成果。
该职位针对数据工程搜索(ETL、ELT、数据管道、流处理、Snowflake、Spark、Airflow、AWS)进行了关键词优化,非常适合喜欢构建可靠数据平台以支持关键任务金融分析的动手工程师。