任务:
我们与网络恶棍的日常斗争需要我们收集和分析大量的数据。很多数据!随着我们的客户基础不断增长,我们必须寻找更快速和更强大的工具,以帮助我们和我们的客户做出最佳决策。
凭借您对Hadoop和大数据技术的了解,您将为一个小团队增添构建工具的超能力,该团队负责构建一个DevOps自动化环境,提升我们的商业智能水平,并帮助我们保护客户免受网络入侵者的侵害。
我们提供了参与一项重要任务的机会:终结违规行为,保护我们的数字生活方式。如果您是一个有动力、聪明、有创造力和勤奋的个人,那么这份工作适合您!
工作内容:
• 作为一名大数据工程师,您将成为我们的大数据和分析团队的重要成员,负责设计和开发工作。
• 与数据分析师、产品所有者和数据科学家合作,更好地理解需求,找到瓶颈、解决方案等。
• 您将成为“大数据”领域的专家,并指导其他团队成员。
• 为可扩展的数据处理和可扩展的数据存储设计和开发不同的架构模型。
• 使用异构数据源构建数据管道和ETL。
• 使用Kafka、Flume、Sqoop、Spark Streaming等工具,将数据从各种源系统导入到Hadoop中。
• 使用数据映射和数据处理能力(如MapReduce、Spark SQL)转换数据。
• 负责确保平台通过DevOps自动化进行持续集成(CI)和持续部署(CD)。
• 扩展和增强数据平台的能力,以解决新的数据问题和挑战。
• 支持利用Apache Beam等变革性技术的大数据和批处理/实时分析解决方案。
• 具备研究和评估开源技术和组件的能力,以推荐并集成到设计和实施中。
• 与开发和质量保证团队合作,设计数据摄取管道、集成API,并提供Hadoop生态系统服务。
所需技能:
• 在Hadoop生态系统和大数据技术方面具有8年以上的经验。
• 熟练掌握Hadoop生态系统(HDFS、MapReduce、Hbase、Hive、Impala、Spark、Kafka、Kudu、Solr)。
• 使用Spark Streaming、Storm或Flink等解决方案构建流处理系统的经验。
• 具备其他开源技术(如Druid、Elastic Search、Logstash等)的经验将是一个加分项。
• 了解开发可扩展、弹性、始终可用的数据湖的设计策略。
• 了解敏捷(Scrum)开发方法论的知识将是一个加分项。
• 具备较强的开发/自动化技能。对于阅读和编写Scala、Python或Java代码非常熟悉。
• 优秀的人际交往和团队合作能力。
• 在解决问题、质量和执行能力方面具有积极的态度。
计算机科学学士学位或同等学历。了解更多关于Palo Alto Networks的信息,请点击这里,并查看我们的快速事实。
最近更新:2023-12-19