纽约,纽约 10001 发布于 2026年2月8日
寻找更多工作机会?点击这里!
工作类型:全职
工作类别:IT
职位描述
职位:数据工程主管
地点:纽约,纽约
仅限全职员工
职位描述
必须具备的技术/功能技能
AWS 数据工程服务(EMR/Glue, Redshift, Aurora, S3, Lambda),Spark,Python,Collibra,Snowflake/Databricks,Tableau。
角色与职责
从 API、文件/SFTP 和关系源获取和建模数据;使用 PySpark/SQL 和 dbt、Python 实现分层架构(原始/清理/服务)。
使用 Prefect(或 Airflow)设计和操作管道,包括调度、重试、参数化、SLA 和完善的运行手册。
在云数据平台上构建,利用 S3/ADLS/GCS 进行存储,使用 Spark 平台(如 Databricks 或同等平台)进行计算;管理作业、密钥和访问权限。
发布受管数据服务,并通过 Azure API 管理(APIM)进行身份验证/授权、策略、版本控制、配额和监控来管理其生命周期。
通过数据合同、验证/测试、血缘、可观察性和主动警报来加强数据质量和治理。
通过分区、聚类、查询优化、作业大小调整和工作负载管理来优化性能和成本。
根据公司标准维护安全性和合规性(例如,PII 处理、加密、掩码)。
与利益相关者(分析、AI 工程和业务团队)合作,将需求转化为可靠的、可生产的数据集。
通过打包数据集和元数据以供下游使用,启用 AI/LLM 用例,适当时通过模型上下文协议(MCP)进行集成。
通过自动化常规任务、减少技术债务和维护清晰的文档,持续提高平台可靠性和开发人员生产力。
4-15 年专业数据工程经验。
强大的 Python、SQL 和 Spark(PySpark)技能,和/或 Kafka。
Snowflake(Snowpipe、Tasks、Streams)作为补充仓库。
Databricks(Delta 格式、工作流、目录)或同等 Spark 平台。
具有使用 Prefect(或 Airflow)、dbt、Spark 和/或 Kafka 构建 ETL/ELT 的实际经验。
具有将数据集引入云数据平台(存储、计算、安全、治理)的经验。
熟悉 Azure/AWS/GCP 数据服务(例如,S3/ADLS/GCS;Redshift/BigQuery;Glue/ADF)。
基于 Git 的工作流 CI/CD 和使用 Docker 进行容器化(Kubernetes 是加分项)。
通用管理技能,如有
战略技术领导:定义数据架构、评估新技术和为基于 AWS 的管道设定技术标准
利益相关者沟通:弥合技术团队和业务利益相关者之间的差距,收集需求并报告进展
风险管理:主动识别数据工作流中的潜在瓶颈、安全风险或可扩展性问题
卓越运营:实施自动化、优化成本并保持高数据质量标准。
必备技能
DEVOPS 工程师
高级电子邮件安全工程师