高级DevOps工程师,大数据平台

15个月前全职
Roku, Inc.

Roku, Inc.

location 纽约
unsaved
团队合作使流媒体更顺畅。 Roku正在改变世界观看电视的方式 Roku是美国排名第一的电视流媒体平台,我们的目标是为全球每一台电视提供动力。Roku是电视流媒体的先驱。我们的使命是成为连接整个电视生态系统的电视流媒体平台。我们将消费者与他们喜爱的内容连接起来,使内容发布者能够建立和变现庞大的受众,并为广告商提供与消费者互动的独特能力。 从您加入Roku的第一天起,您将做出有价值且受到重视的贡献。我们是一家快速发展的上市公司,没有人是旁观者。我们为您提供了在各种领域获得有意义经验的机会,同时让全球数百万电视观众感到愉悦。 职位描述 我们正在寻找一位具有出色的DevOps技能的工程师加入我们的团队。职责包括在云基础设施上自动化和扩展大数据和分析技术堆栈,构建CI/CD流水线,为生产基础设施设置监控和警报,并保持我们的技术堆栈更新。 您将做什么 制定云基础设施供应、灾难恢复的最佳实践,并指导开发人员采用 与开发人员合作,共同设计系统架构,以实现最佳扩展、资源利用、容错性、可靠性和可用性 在大型生产集群和低延迟服务上进行低级系统调试、性能测量和优化 创建能够快速响应基础设施问题并采取纠正措施的脚本和自动化工具 参与架构讨论,影响产品路线图,并对新项目负责和承担责任 与分布在不同地理位置的团队合作和沟通 具备Kubernetes、Terraform经验 具备以下至少3种技术/工具的经验:HAProxy、Kafka、大数据/Hadoop、Presto、Spark、Airflow、Pinot、Druid、Opensearch、Gcp、Data Proc 如果您具备以下经验,我们会很高兴 学士学位或同等学历 8年以上的DevOps和/或可靠性工程经验 具备使用监控和警报工具(如Datadog和PagerDuty)并参与呼叫轮班的经验 具备围绕边缘情况、故障模式和灾难恢复进行系统工程的经验(优先考虑GCP背景) 在Linux/Unix shell脚本(或Python等编程技能)方面有扎实的基础 具备扩展运行Spark、Hadoop、Apache Druid、Looker等大数据工具的生产系统的经验 了解Ansible、Terraform、AWS Opswork等自动化工具 Apache Airflow #LI-SR2福利 Roku致力于提供多样化的福利,作为我们的薪酬套餐的一部分,以支持我们的员工和他们的家庭。我们全面的福利包括全球范围内的心理健康和财务健康支持和资源。当地福利可能包括法定和自愿福利,例如医疗保健(医疗、牙科和视力)、人寿保险、意外保险、残疾保险、通勤和退休选择(401(k)/养老金)。我们的员工可以休假和其他个人原因离开工作,以平衡他们不断变化的工作和生活需求。需要注意的是,并非每种福利在所有地点或所有职位上都可用。有关您所在地的具体细节,请咨询您的招聘人员。 Roku文化 Roku是一个适合那些想在一个快节奏的环境中工作的人的好地方,这里的每个人都专注于公司的成功而不是个人的成功。我们试图与那些工作能力出色、易于合作且保持谦逊的人为伍。我们欣赏幽默感。我们相信,少数非常有才华的人比较多才能以更低的成本做更多的事情。我们是独立思考者,拥有伟大的想法,勇于行动,迅速前进,并通过合作和信任取得非凡的成就。简而言之,在Roku,您将成为改变世界观看电视方式的公司的一部分。 我们有一种独特的文化,我们为此感到自豪。我们主要将自己视为解决问题者,这本身是一个两部分的想法。我们提出解决方案,但在将解决方案构建并交付给客户之前,解决方案并不真实。这种对行动的偏好使我们对创新采取务实的态度,这个态度自2002年以来一直为我们服务良好。 要了解有关Roku、我们的全球业务范围以及我们的发展情况,请访问https://www.weareroku.com/factsheet。