职位名称:Hadoop 大数据管理员
工作期限:12 个月,可能延长至 18 个月
工作地点:伊利诺伊州芝加哥(每周 3 天到办公室)
其他批准地点:北卡罗来纳州夏洛特
薪资范围:每小时 $60-65(W2,不能分包或 C2C)
职位描述:
Matlen Silver 与一家领先的全球金融服务公司合作,招聘一名具有网站可靠性或 DevOps 背景的 Hadoop 大数据管理员,以支持围绕大数据技术(Hadoop、Spark、Kafka、Impala、Hbase)构建的下一代平台,以及 Docker 和 Ansible 等容器和自动化技术。此角色需要具备管理基于供应商的 Hadoop 和数据科学(AI/ML)产品(如 Cloudera、Databricks、Snowflake、Talend、Greenfield、ELK、KPMG Ignite 等)的集群管理经验。Hadoop 工程师参与应用程序的完整生命周期,并且是敏捷开发过程的一部分。他们需要能够与客户、开发团队、供应商和其他合作伙伴在最高技术水平上进行互动、开发、工程和协作沟通。
以下部分旨在作为该角色项目复杂性、责任和教育/经验相对维度的一般指南。
职责:
- 在支持多个项目的复杂、重要或高度可见的任务中工作,这些任务需要多个专业领域的知识
- 团队成员将被期望在管理 Hadoop 和数据科学平台操作方面提供主题专家支持,重点围绕 Cloudera Hadoop、Jupyter Notebook、OpenShift、Docker 容器集群管理和管理
- 将解决方案与框架外的其他应用程序和平台集成
- 他/她将负责管理所有环境中的平台操作,包括升级、错误修复、部署、度量/监控以解决和预测、灾难恢复、事件/问题/容量管理
- 在项目经理的协调下,作为客户合作伙伴和供应商之间的联络人,提供满足用户需求的技术解决方案
所需经验:
- Hadoop、Kafka、Spark、Impala、Hive、Hbase 等
- 深入了解 Hadoop 架构、HDFS 和 Hadoop 集群
- 了解完全集成的 AD/Kerberos 认证
- 具备设置最佳集群配置的经验
- 具备调试 YARN 的知识
- 具备分析各种 Hadoop 日志文件、压缩、编码和文件格式的实践经验
- 对 Cloudera Hadoop 组件(如 HDFS、Sentry、HBase、Kafka、Impala、SOLR、Hue、Spark、Hive、YARN、Zookeeper 和 Postgres)具备专家级知识
- 对以下某些技术有深入了解:Unix/Linux;数据库(Sybase/SQL/Oracle)、Java、Python、Perl、Shell 脚本。
- 具备监控警报和作业调度系统的经验
- 对自动化/DevOps 工具(如 Ansible、Jenkins、SVN、Bitbucket)有深入了解
关于 Matlen Silver
经验至关重要。让您的经验由我们的经验驱动。四十多年来,Matlen Silver 为财富 500 强公司和行业领袖提供复杂的人才和技术需求解决方案。在勤奋工作、诚实和受信任的专家团队的带领下,我们可以说 Matlen Silver 技术创造了一个解决方案体验和成功遗产,这就是世界运作方式的不同之处。
Matlen Silver 是一个平等机会雇主,考虑所有申请人而不考虑种族、肤色、宗教、性别、国籍、年龄、性取向、退伍军人身份、非工作相关医疗状况或残疾的存在,或任何其他法律保护状态。
如果您是需要在申请或招聘过程中任何阶段获得帮助的残疾人士,请通过电子邮件和/或电话与我们联系:info@matlensilver.com // 908-393-8600.