职位描述
Cognizant是一个独特的工作场所的原因是什么?快速增长与国际化和创新环境的结合!这为像你这样有企业家精神的人创造了许多机会,他们希望在这个世界上产生差异。在Cognizant,与来自世界各地的同事一起,您将合作解决世界领先公司的问题,并帮助它们变得更加灵活、创新和成功。此外,这是您成为成功故事一部分的机会。
职位摘要:
我们正在寻找一名大数据开发人员,负责收集、加载、处理和分析海量数据。主要重点是选择最佳解决方案,并进行维护、实施和监控。您还将负责将它们与公司使用的架构集成。
· 接触或了解广泛的本地、混合和云数据平台,包括Azure/AWS。
· 在Microsoft Azure/AWS跨多云场景中设计和构建创新的基于云的解决方案。
· 在批处理框架和hive/impala方面拥有7年以上的编码经验。(使用Scala/Java/Python/PL-SQL、Unix等语言)
· 在本地云中设计、构建和实施Lambda架构的经验。
· 熟练创建数据工厂管道,以从不同格式的平面文件中摄取数据。
· 具有使用SQL分析存储在数据仓库中的数据的经验。
· 熟练编写存储过程、函数以处理或转换SQL数据库中的大型数据集。
· 内部专有工具-具有3年以上使用JOF Job、Merlin和JOF Ingestion和Replication框架的工作经验,用于开发数据摄取管道并部署代码工件。
· 使用Azure Data Lake、Azure Data factory、Azure Databricks实施端到端数据管道。
· 熟练使用Azure Synapse、Azure SQL、Azure Blob Storage和Azure Data Lake Storage Gen2等数据库服务和数据湖。
· 在使用Azure DevOps、GITHUB集成、Jenkins、Bamboo等设置高级部署技术方面具有丰富经验。
· 参与端到端项目执行,需求收集,将传统设计转换为大数据生态系统。开发、测试、UAT支持和上线支持。
· 了解并创建Tableau/PowerBI报告将是额外的优势。
· 应具备使用Control M创建、监控和调度作业的知识。
强制技能:
· 大数据PaaS服务生态系统:Hadoop、Flume、Kafka、Spark Streaming、Spark SQL、Impala、SQL DW、Kudu表。
· 语言:SQL、PL-SQL、Java、UNIX、Scala、Python和Ruby。
· Azure堆栈:Azure Function、Azure EventHub、Azure HDInsight、Azure Data Bricks、Azure VM、Azure Data Factory、Azure存储、Azure Data Lake、Azure Cosmos DB、Azure KeyVault、Azure SQLDW(Synapse)。
· AWS堆栈:Kinesis、Lambda、S3、EC2、DynamoDB、API Gateway、KMS、VPC、CloudWatch、IAM角色和策略。
· Dev-ops工具:Azure DevOps、JIRA、GIT、Bitbucket、Bamboo、Jenkins、Confluence。
· 客户特定:JOF Job、Merlin、JOF Ingestion框架、Control M。
职责:
· 负责在本地或云上设计、编码、测试、文档化和维护高质量、可扩展的大数据解决方案。
· 研究、评估和部署新的工具框架和设计模式,构建可持续的大数据平台。
· 积极与利益相关者、产品专家和数据架构师进行沟通和协作,以获取功能和非功能需求。
· 提供准确的开发工作量估计,协助管理层进行项目规划。
· 负责将本地工作负载迁移到云中并调试云堆栈。
· 负责设计和构建CI/CD和/或DevOps流水线,并通过部署自动化改进现有工作流程。
· 及时以专业的方式回应技术问题。
· 确定、设计和实施内部流程改进:自动化手动流程、优化数据交付、重新设计基础架构以提高可扩展性等。
薪资范围:大于100,000美元
下一步:如果您觉得这个机会适合您,或者Cognizant是您想加入的类型的组织,我们希望与您进行交流!请直接与我们申请。有关Cognizant的所有开放机会的完整列表,请访问http://www.cognizant.com/careers。Cognizant致力于提供平等的就业机会。成功的候选人将需要进行背景调查。
#LI-CTSAPAC