大数据开发者-Pyspark

15个月前全职
100K AUD Cognizant Technology Solutions

Cognizant Technology Solutions

location 悉尼
unsaved
职位描述 Cognizant是一个独特的工作场所的原因是什么?快速增长与国际化和创新环境的结合!这为像你这样有企业家精神的人创造了许多机会,他们希望在这个世界上产生差异。在Cognizant,与来自世界各地的同事一起,您将合作解决世界领先公司的问题,并帮助它们变得更加灵活、创新和成功。此外,这是您成为成功故事一部分的机会。 职位摘要: 我们正在寻找一名大数据开发人员,负责收集、加载、处理和分析海量数据。主要重点是选择最佳解决方案,并进行维护、实施和监控。您还将负责将它们与公司使用的架构集成。 · 接触或了解广泛的本地、混合和云数据平台,包括Azure/AWS。 · 在Microsoft Azure/AWS跨多云场景中设计和构建创新的基于云的解决方案。 · 在批处理框架和hive/impala方面拥有7年以上的编码经验。(使用Scala/Java/Python/PL-SQL、Unix等语言) · 在本地云中设计、构建和实施Lambda架构的经验。 · 熟练创建数据工厂管道,以从不同格式的平面文件中摄取数据。 · 具有使用SQL分析存储在数据仓库中的数据的经验。 · 熟练编写存储过程、函数以处理或转换SQL数据库中的大型数据集。 · 内部专有工具-具有3年以上使用JOF Job、Merlin和JOF Ingestion和Replication框架的工作经验,用于开发数据摄取管道并部署代码工件。 · 使用Azure Data Lake、Azure Data factory、Azure Databricks实施端到端数据管道。 · 熟练使用Azure Synapse、Azure SQL、Azure Blob Storage和Azure Data Lake Storage Gen2等数据库服务和数据湖。 · 在使用Azure DevOps、GITHUB集成、Jenkins、Bamboo等设置高级部署技术方面具有丰富经验。 · 参与端到端项目执行,需求收集,将传统设计转换为大数据生态系统。开发、测试、UAT支持和上线支持。 · 了解并创建Tableau/PowerBI报告将是额外的优势。 · 应具备使用Control M创建、监控和调度作业的知识。 强制技能: · 大数据PaaS服务生态系统:Hadoop、Flume、Kafka、Spark Streaming、Spark SQL、Impala、SQL DW、Kudu表。 · 语言:SQL、PL-SQL、Java、UNIX、Scala、Python和Ruby。 · Azure堆栈:Azure Function、Azure EventHub、Azure HDInsight、Azure Data Bricks、Azure VM、Azure Data Factory、Azure存储、Azure Data Lake、Azure Cosmos DB、Azure KeyVault、Azure SQLDW(Synapse)。 · AWS堆栈:Kinesis、Lambda、S3、EC2、DynamoDB、API Gateway、KMS、VPC、CloudWatch、IAM角色和策略。 · Dev-ops工具:Azure DevOps、JIRA、GIT、Bitbucket、Bamboo、Jenkins、Confluence。 · 客户特定:JOF Job、Merlin、JOF Ingestion框架、Control M。 职责: · 负责在本地或云上设计、编码、测试、文档化和维护高质量、可扩展的大数据解决方案。 · 研究、评估和部署新的工具框架和设计模式,构建可持续的大数据平台。 · 积极与利益相关者、产品专家和数据架构师进行沟通和协作,以获取功能和非功能需求。 · 提供准确的开发工作量估计,协助管理层进行项目规划。 · 负责将本地工作负载迁移到云中并调试云堆栈。 · 负责设计和构建CI/CD和/或DevOps流水线,并通过部署自动化改进现有工作流程。 · 及时以专业的方式回应技术问题。 · 确定、设计和实施内部流程改进:自动化手动流程、优化数据交付、重新设计基础架构以提高可扩展性等。 薪资范围:大于100,000美元 下一步:如果您觉得这个机会适合您,或者Cognizant是您想加入的类型的组织,我们希望与您进行交流!请直接与我们申请。有关Cognizant的所有开放机会的完整列表,请访问http://www.cognizant.com/careers。Cognizant致力于提供平等的就业机会。成功的候选人将需要进行背景调查。 #LI-CTSAPAC