Hadoop管理员

16个月前全职
133.3K - 227.7K USD ServiceNow

ServiceNow

location 芝加哥
unsaved
请注意:此职位将包括支持我们的美国联邦客户。 此职位要求通过ServiceNow背景筛查,USFedPASS(美国联邦人员授权筛查标准)。 这包括信用检查、犯罪/轻罪检查和药物测试。任何雇佣都取决于通过筛查。 由于联邦要求,只有美国公民、美国入籍公民或持有绿卡的美国永久居民才会被考虑。 作为我们的大数据联邦团队的一名员工DevOps工程师-Hadoop管理员,您将帮助提供我们政府云基础设施的24x7支持。 联邦大数据团队有3个班次,为我们的大数据政府云基础设施提供24x7的生产支持。 以下是一些亮点。 •无轮班 •第2和第3班次的轮班奖金 •这是一个第3班次的职位,工作时间为太平洋时间晚上11点至上午10点 大数据团队在确保ServiceNow能够超出ServiceNow云和Azure云上部署的ServiceNow平台供电客户实例的可用性和性能SLA方面发挥着关键和战略性的作用。我们的任务是: 通过采用新工具、大数据系统、企业数据湖、人工智能和机器学习方法,提供先进的监控、分析和可操作的业务洞察,提高公司各个职能部门的效率:云操作、客户支持、产品使用分析、产品增值机会,从而对公司的营业额和利润增长产生重大影响。 大数据团队负责: •收集、存储和提供对大量数据的实时访问 •为各种功能提供实时分析工具和报告功能,包括: •监控、警报和故障排除 •机器学习、异常检测和P1预测 •容量规划 •数据分析和提取可操作的业务洞察 在这个角色中,您将做以下工作: •负责部署、生产监控、维护和支持大数据基础设施、ServiceNow云和Azure环境上的应用程序。 •从愿景到交付大数据基础模块(Cloudera CDP)、先决组件和应用程序的自动化部署,使用Ansible、Puppet、Terraform、Jenkins、Docker、Kubernetes实现端到端的部署自动化。 •使用Jenkins、Ansible和Docker等工具,为应用程序自动化持续集成/持续部署(CI/CD)数据流水线。 •对环境中的各种Hadoop组件和其他数据分析工具进行性能调优和故障排除:HDFS、YARN、Hive、HBase、Spark、Kafka、RabbitMQ、Impala、Kudu、Redis、Hue、Kerberos、Tableau、Grafana、MariaDB和Prometheus。 •提供生产支持,解决关键的大数据流水线和应用程序问题,并减轻或最小化对大数据应用程序的任何影响。 •与站点可靠性工程师(SRE)、客户支持(CS)、开发人员、QA和系统工程团队密切合作,利用广泛的UI、SQL、全栈和大数据技术经验复制复杂问题。 •负责在商业和受监管的大数据环境中执行数据治理政策。 资格要求 要在这个角色中取得成功,您需要: •在Cloudera上拥有4年以上的Hadoop系统管理经验 •对Hadoop/大数据生态系统有深入的了解。 •熟练使用Bash和Python创建自动化脚本 •熟练使用Ansible playbook、roles和自动化脚本有效地管理和配置系统。 •在Hadoop HDFS上使用Hive和Spark Streaming查询和分析大量数据,并在HDFS、YARN、Hive、HBase、Spark、Kafka、RabbitMQ、Impala、Kudu、Redis、Hue、Tableau、Grafana、MariaDB和Prometheus等系统上工作。 •在原生云和Azure/AWS环境上支持Cloudera上的CI/CD流水线的经验 •使用Sentry、Ranger、LDAP、Kerberos KDC等工具保护Hadoop堆栈的经验 •较强的Linux系统管理技能 •深入了解Linux内部(Centos 7.x)和Shell脚本编程 •能够在快节奏、动态的团队环境中快速学习 对于在湾区的职位,我们提供的基本工资为133,300美元至226,700美元,另外还有股权(适用时)、可变/激励报酬和福利。 销售职位通常提供有竞争力的目标收入(OTE)激励报酬结构。请注意,所示的基本工资只是一个指导,个人总薪酬将根据资格、技能水平、能力和工作地点等因素而有所不同。 我们还提供健康计划,包括灵活支出账户、401(k)计划与公司配对、ESPP、配对捐赠、灵活休假计划和家庭离职计划。 薪酬根据角色所在的地理位置确定,并可能根据工作地点变化而变动。 最后更新日期:2023年12月20日