高级合伙人,大数据工程师- Spark和Kubernates开发...

15个月前全职
5K - 9K SGD NodeFlair

NodeFlair

location 新加坡
unsaved
职位概述 薪资 S$5,000 - S$9,000 / 月 职位类型 资历要求 高级 工作经验 至少8年 技术栈 TDD Amazon S3 yarn Jenkins ORC Spring Zeppelin CI Avro HortonWorks Cloudera HDFS Apache Git Presto Java Hive Impala Airflow Spark Bitbucket Kubernetes kafka Springboot JSON Hadoop Python 职位描述 业务职能 集团技术与运营(T&O)通过战略性关注生产力、质量和控制、技术、人才能力和创新,为银行提供高效、灵活和弹性的基础设施。在集团T&O中,我们管理银行的大部分运营流程,并通过多个银行交付渠道为业务合作伙伴提供愉悦的体验。 职责 T&O DATA正在寻找一位有经验的Spark、Web服务和云端与本地Kubernetes专家,用于企业级大数据应用。 • 设计、开发和实施可扩展的基于Spark和Hadoop的大数据框架,可以在Kubernetes和云端上运行。 • 设计和实现高度可扩展的、分布式服务的关键组件,跨区域工作。 • 与业务和产品团队合作,对问题进行公式化,并创建解决方案框架。 • 实验评估在各种环境中启用可扩展框架的新解决方案路径。 • 实施敏捷核心实践,利用云原生架构模式,采用测试驱动开发、持续集成/持续交付。 • 持续发现、评估和实施新的云技术,以最大化分析系统的性能。 要求 • 计算机科学或相关学科的大学毕业生 • 在开发、维护和支持企业级大数据应用方面拥有8年以上经验,最好是在银行环境中 • 精通大数据技术/工具/平台,如Hadoop、HDFS、Hive、Impala、HDFS、Presto、Spark、Hive、Impala、Zeppelin、Yarn、Cloudera、Hortonworks • 熟练掌握Java和Python的开发技能。 • 熟练掌握Kafka和K8s的开发技能。 • 有Spring Boot的经验 • 有关系数据库的经验 • 有Airflow的经验 • 了解并熟练调优Spark作业的编码和性能 • 负责理解功能/非功能需求并在Apache Spark中实现它们 • 有使用Jenkins、Git、Bitbucket等CI/CD工具的经验 • 有Apache Spark批处理和流处理框架的经验 • 了解与Parquet、ORC、AVRO和JSON等不同文件格式的工作 • 了解微服务架构 • 必须了解S3。 • 能够积极主动地独立工作,并与跨职能和跨区域团队合作 • 具备良好的沟通和分析能力,以及敏捷项目经验 立即申请 我们提供有竞争力的薪资和福利,并为您提供一个支持您发展和认可您成就的充满活力的环境的职业优势。