角色 - Hadoop 开发人员
混合型 - 丹佛,科罗拉多州 - 1天现场
注意:
应该在丹佛,科罗拉多州当地(不提供搬迁)
需要是永久居民或美国公民。没有签证候选人(无例外)
应该有至少10年以上的整体IT经验(无例外)
必备技能:
• Hadoop
• Hive
• Impala
• SPARK
• Kafka
• Python
• 云计算
Spark/Scala经验 - 需要使用这些技术或者impala和hive来提取数据,使用SPARK Structured Streaming进行开发
• 基本的SQL技能 - 至少熟悉MySQL、HIVE、Impala、SPARK SQL中的一种或多种
• 有从消息队列、文件共享、REST API、关系型数据库等进行数据摄取的经验,并熟悉json、csv、xml、parquet等数据格式
• 有使用Spark、Sqoop、Kafka的工作经验,至少熟练掌握Scala、Python、PHP或Shell脚本等一种编程语言
• 必须具备Linux操作系统的使用经验
• 解决平台问题和连接问题
• 有使用Cloudera管理平台和YARN的经验
• 在共享集群/云环境中处理复杂的资源争用问题
工作类型:合同
经验水平:
• 10年
工作时间表:
• 8小时轮班制
工作地点:丹佛,科罗拉多州80206,混合远程办公