职位:Hadoop开发人员
地点:远程(必须在PST工作)
持续时间:长期
雇佣类型:合同到雇佣
技术知识和技能:
• 在大数据、Cloudera分布式x、云迁移方面有强大的项目经验。必须具备关系型数据库知识。
• 在Amazon EMR/Databricks/Cloudera CDP方面有强大的项目经验。
• 必须具备4-5年的Python、Java和Scala编程经验。
• 具备使用Hadoop组件Hive、Som、MR、Impala、Spark、Spark SQL、HBase、NIFi构建数据流水线的实际经验。
• 在Spark/Kafka/Storm等实时分析方面有丰富的经验。
• 使用Spring进行微服务/网络服务开发经验。
• 使用Python框架(Django、Flask)开发REST API的丰富经验。
• 有Jenkins、JIRA使用经验。
• 在Unix/Linux环境中编写脚本和计划/执行方面具备专业知识。
• 在经理或团队负责人的监督下,在合理的时间范围内完成工作。
• 规划和管理支持功能的所有方面。
• 对数据处理系统有广泛的知识和经验,并具备开发、测试和移动解决方案的方法的证明。• 熟悉项目管理实践,并能根据需要记录过程和程序。• 与其他支持团队成员合作,并独立完成分配的任务和交付物,最少的监督。
• 与用户进行有效的沟通,无论是从数据输入技术人员到高级管理人员,都能口头和书面地进行沟通。
• 自我激励,与团队成员密切合作并积极沟通,以完成时间紧迫的任务。
• 提出问题并与其他支持团队成员共享获得的信息,记录和记录这些信息。
• 征求并收集用户需求和/或问题描述信息,并记录这些信息。
• 仔细倾听并根据用户的要求采取行动。
• 以可理解的语言传达和解释复杂的问题和解决方案,面向技术和非技术人员。
• 向管理层和决策者呈现技术解决方案。
• 在分配的项目上遵循他人的领导,同时在适当时采取领导角色。
• 创造性和批判性思考,分析复杂的问题,权衡多个解决方案,并仔细选择与业务需求、项目范围和可用资源相适应的解决方案。
• 对数据完整性负责。