• 在人工智能和数据方面进行大量投资
• 加入一家快速发展的数十亿美元公司
关于公司
我们的客户是一家快速发展的数十亿美元公司,重金投资于人工智能和数据。随着激进的扩张计划,他们现在正在寻找在新加坡工作的高级数据工程师。
关于职位
您的角色包括:
设计、开发和部署可扩展的、高性能的、可靠的实时数据流管道。
实施和管理我们的数据湖屋架构,确保数据高效存储、组织,并可供各种分析和操作用例访问。
开发和优化ETL/ELT流程,从各种源系统中提取数据。
与数据科学家、分析师和软件工程师合作,理解数据需求,提供干净、可靠的数据集。
监控、维护和排除我们数据基础设施的问题,以确保高可用性和数据质量。
在数据平台内实施数据治理和安全最佳实践。
评估和采用新数据技术和工具,以增强我们数据平台的能力。
创建和维护数据管道、架构和流程的全面文档。
所需技能和经验
作为成功的申请者,您将拥有使用流媒体技术(如Apache Kafka、Apache Flink或Azure Event Hub)的经验。
具有使用数据湖和/或湖屋架构(如Hadoop、Delta Lake、Iceberg和Microsoft OneLake)的经验。
职位福利
这是一个在领先企业中引领数据转型的绝佳机会。您将有机会接触到多种先进的数据分析工具。
如需在线申请,请使用“申请”功能,或者您可以联系Hoon Teck TAN,网址为https://www.linkedin.com/in/hoonteck-nologyrecruitment/(EA:94C3609/R1219669)
技能
Apache Kafka、Apache Flink、Hadoop、Iceberg、Azure 数据湖、数据分析、Azure 数据工厂、Azure 数据湖、Azure Databricks、提取、转换、加载(ETL)、数据管道
资格
无需额外资格
教育
学士学位