资格要求
• 学士或硕士学位,重点在计算机科学和/或工程方向
• 最少工作经验:5年
• 至少1年的Hadoop组件开发解决方案的经验
• 能够跳出固定思维模式,理解整体思维过程
• 能够清晰地向业务所有者沟通
• 在Unix/Linux上有工作经验
• 数据挖掘/数据仓库/商业智能经验为佳
负责作为大数据运维工程师工作:
• 熟练掌握并实践使用大数据工具和技术进行大数据编码,以下是相关技术(Cloudera):
• Hive
• Kudu
• Impala
• 数据集成:
• Spark
• Sqoop
• 对数据管理领域有很好的理解:
• 数据关系(ERD)
• 数据集成(ETL)
• 数据处理(转换和聚合)
• 数据湖
• 数据仓库
原始工作信息来自GrabJobs ©。如有任何问题,请使用GrabJobs上的“报告工作”按钮。