高级数据工程师 - 航空网络规划

香港 10天前全职 网络
面议
商业智能与分析系统和解决方案;实施商业智能与分析系统和解决方案;数据仓库的全栈和功能设计;自助数据探索;报告和分析应用;数据建模;数据安全和联合策略;商业智能生产流程和最佳实践;用户培训和支持;供应商管理;项目管理;商业案例开发 职位目的 此角色负责设计、构建和维护可扩展、可靠且高质量的数据管道,以支持航空网络规划分析、数字产品和决策支持用例。 您将专注于端到端的ETL/ELT开发、数据集成和数据平台启用,确保分析和运营团队拥有及时、可信赖且良好建模的数据。该角色与数据分析师、数据科学家和业务利益相关者紧密合作,将规划和工程需求转化为企业级数据解决方案。 责任领域 1 – 数据工程与ETL开发 • 设计、构建和维护从多个内部和外部来源获取数据的强大ETL/ELT管道 • 使用Azure和Databricks开发批处理和(如适用)流数据管道 • 实施数据转换、验证和丰富逻辑,以生成可用于分析的数据集 • 确保生产管道的数据质量、数据沿袭、可观察性和可靠性 • 优化管道性能、可扩展性和成本效率 2 – 数据平台与架构支持 • 参与Azure上的航空网络数据平台的设计和演变 • 使用Databricks(Spark,Delta Lake)实现可扩展的数据处理和存储模式 • 与企业平台和安全团队合作,确保符合数据治理、访问控制和安全标准 • 支持将手动或半自动化流程迁移到完全自动化的生产级管道 3 – 分析与业务支持 • 与数据分析师和数据科学家合作,支持下游分析、仪表盘和高级模型 • 将业务和规划需求转化为结构良好的数据模型和管道 • 通过提供可靠的数据集来支持战略航空网络的规划、性能评估和优化用例 • 记录数据管道、模式和集成逻辑,以便解决方案可重用和可维护 要在此角色中取得成功,您需要 • 计算机科学、数据工程、工程、信息系统或相关学科的学士学位或同等学历 • 4年以上数据工程实际操作经验 • 丰富的生产ETL管道和数据工作流构建经验 技术技能(必需/强烈推荐) • Azure数据生态系统(例如,Azure Data Factory,Azure Data Lake,Azure Synapse或同等) • Databricks / Apache Spark,包括Delta Lake概念 • 强大的SQL技能和数据建模(星型/雪花型,分析优化模式)经验 • Python(或同等)数据工程工作流编程经验 • 数据管道的编排、调度和监控经验 • 理解数据质量检查、错误处理、日志记录和警报 技术技能(加分项) • 通过设计良好的数据层支持BI工具(例如,Power BI)的经验 • 熟悉CI/CD、版本控制和数据管道的DevOps实践 • 接触过运筹学、优化或预测数据用例 • 在敏捷/SAFe环境中工作的经验 专业技能 • 强大的问题解决思维和对数据质量的关注 • 能够跨技术和业务团队工作 • 清晰的沟通和文档编写能力 • 良好的规划、优先级排序和利益相关者管理技能 FedEx建立在以人为本的理念上,我们对此非常重视。我们是一个平等机会/肯定行动的雇主,致力于建立一个多元化、公平和包容的员工队伍,在其中我们执行公平待遇,并为每个人提供成长机会。 所有符合条件的申请者都会被考虑录用,不论年龄、种族、肤色、国籍、基因、宗教、性别、婚姻状况、怀孕(包括分娩或相关医疗状况)、身体或精神残疾,或任何其他受适用法律、法规和条例保护的特征。 我们的公司 FedEx是全球最大的快递运输公司之一,并且一直被《财富》杂志评选为全球最受赞赏的公司前十名之一。FedEx每天为客户提供运输和商业解决方案,服务于全球超过220个国家和地区。我们能够服务于这个全球网络,得益于我们出色的FedEx团队成员,他们的任务是让每一次FedEx体验都出色。 我们的理念 以人为本、服务至上、利润为先的理念(P-S-P)描述了指导每一个FedEx决策、政策或活动的原则。FedEx关心我们的员工;他们反过来提供客户所需的无可挑剔的服务,客户则通过给予我们必要的利润来确保我们的未来。使以人为本、服务至上、利润为先的理念成为公司积极力量的基本要素是我们闭合循环,将这些利润返回到业务中,并重新投资于我们的员工。我们在行业中的成功归功于我们的员工。通过我们的P-S-P理念,我们拥有一个鼓励团队成员在为客户提供最高质量服务方面创新的工作环境。我们关心他们的福祉,并重视他们对公司的贡献。 我们的文化 我们的文化因许多原因而重要,我们通过在全球每个地方的行为、行动和活动有意地将其带入生活。FedEx的文化和价值观自我们在1970年代初期成立以来一直是我们成功和增长的基石。虽然其他公司可以复制我们的系统、基础设施和流程,但我们的文化使我们独特,并且在当今全球市场竞争和增长中常常是一个差异化因素。