数据工程主管-4

纽约 4天前全职 网络
面议
纽约,纽约 10001 发布于 2026年2月8日 寻找更多工作机会?点击这里! 工作类型:全职 工作类别:IT 职位描述 职位:数据工程主管 地点:纽约,纽约 仅限全职员工 职位描述 必须具备的技术/功能技能 AWS 数据工程服务(EMR/Glue, Redshift, Aurora, S3, Lambda),Spark,Python,Collibra,Snowflake/Databricks,Tableau。 角色与职责 从 API、文件/SFTP 和关系源获取和建模数据;使用 PySpark/SQL 和 dbt、Python 实现分层架构(原始/清理/服务)。 使用 Prefect(或 Airflow)设计和操作管道,包括调度、重试、参数化、SLA 和完善的运行手册。 在云数据平台上构建,利用 S3/ADLS/GCS 进行存储,使用 Spark 平台(如 Databricks 或同等平台)进行计算;管理作业、密钥和访问权限。 发布受管数据服务,并通过 Azure API 管理(APIM)进行身份验证/授权、策略、版本控制、配额和监控来管理其生命周期。 通过数据合同、验证/测试、血缘、可观察性和主动警报来加强数据质量和治理。 通过分区、聚类、查询优化、作业大小调整和工作负载管理来优化性能和成本。 根据公司标准维护安全性和合规性(例如,PII 处理、加密、掩码)。 与利益相关者(分析、AI 工程和业务团队)合作,将需求转化为可靠的、可生产的数据集。 通过打包数据集和元数据以供下游使用,启用 AI/LLM 用例,适当时通过模型上下文协议(MCP)进行集成。 通过自动化常规任务、减少技术债务和维护清晰的文档,持续提高平台可靠性和开发人员生产力。 4-15 年专业数据工程经验。 强大的 Python、SQL 和 Spark(PySpark)技能,和/或 Kafka。 Snowflake(Snowpipe、Tasks、Streams)作为补充仓库。 Databricks(Delta 格式、工作流、目录)或同等 Spark 平台。 具有使用 Prefect(或 Airflow)、dbt、Spark 和/或 Kafka 构建 ETL/ELT 的实际经验。 具有将数据集引入云数据平台(存储、计算、安全、治理)的经验。 熟悉 Azure/AWS/GCP 数据服务(例如,S3/ADLS/GCS;Redshift/BigQuery;Glue/ADF)。 基于 Git 的工作流 CI/CD 和使用 Docker 进行容器化(Kubernetes 是加分项)。 通用管理技能,如有 战略技术领导:定义数据架构、评估新技术和为基于 AWS 的管道设定技术标准 利益相关者沟通:弥合技术团队和业务利益相关者之间的差距,收集需求并报告进展 风险管理:主动识别数据工作流中的潜在瓶颈、安全风险或可扩展性问题 卓越运营:实施自动化、优化成本并保持高数据质量标准。 必备技能 DEVOPS 工程师 高级电子邮件安全工程师