大数据分析师 - Hadoop 和 Spark 基础设施

温哥华 7天前全职 网络
139 - 208 / 时
职位概要 The Elite Job 正在寻找一位具备 Hadoop 和 Spark 专业知识的高技能大数据分析师,加入我们充满活力的分析团队。成功的候选人将利用先进的大数据技术来处理、分析和解释庞大的数据集,提供可操作的见解,以推动战略业务决策。此职位需要一位积极主动、注重细节的专业人士,他们在快节奏的环境中茁壮成长,并热衷于将原始数据转化为有意义的业务成果。 主要职责 • 设计、开发和维护基于 Hadoop 和 Spark 的可扩展数据管道,用于大规模数据处理。 • 从多个结构化和非结构化来源提取、转换和加载(ETL)复杂数据集。 • 与数据工程师、数据科学家和业务利益相关者合作,了解数据需求并提供分析解决方案。 • 优化和排除大数据工作流故障,以确保高性能、可靠性和数据准确性。 • 实施并执行数据治理、质量标准和最佳实践。 • 执行高级数据分析、模式识别和预测建模,以支持战略计划。 • 准备详细的报告和可视化,以向技术和非技术利益相关者传达发现。 • 了解最新的大数据技术、趋势和最佳实践,不断增强基础设施和分析能力。 所需技能和资格 • 具有 Hadoop 生态系统工具(HDFS、Hive、Pig、HBase)的丰富实践经验。 • 具备 Apache Spark 分布式数据处理的专业知识。 • 熟练掌握 Python、Java 或 Scala 等编程语言。 • 具有 SQL 和 NoSQL 数据库的经验。 • 熟悉数据仓库、ETL 过程和数据建模技术。 • 对大数据架构、框架和云平台(AWS、Azure 或 GCP)有扎实的理解。 • 能够处理大型数据集,进行数据清理,并确保数据质量。 • 优秀的问题解决、分析和批判性思维能力。 经验 • 至少 3-5 年大数据分析经验,最好是在专注于 Hadoop 和 Spark 基础设施的角色中。 • 在复杂的企业环境中成功交付数据驱动项目的良好记录。 • 在金融服务、电子商务或技术行业的经验是一个加分项。 工作时间 • 全职职位。 • 灵活的工作时间,提供远程或混合工作安排的选项。 • 可能需要偶尔加班以满足项目截止日期或支持全球团队。 知识、技能和能力 • 具有将数据洞察转化为业务价值的强大分析思维。 • 出色的沟通和协作能力,能够与跨职能团队有效合作。 • 能够在快节奏、动态环境中管理多个优先事项。 • 注重细节,具备强大的组织和文档编写能力。 • 自我激励,具备对新技术和工具的持续学习态度。 福利 • 具有竞争力的薪资和基于绩效的奖励。 • 健康、牙科和视力保险。 • 灵活的远程工作选项和慷慨的带薪休假。 • 职业发展机会,包括培训和认证支持。 • 重视创新和创造力的协作和包容性工作文化。 为什么加入 The Elite Job 在 The Elite Job,我们赋予员工利用尖端技术的能力,提供真正产生影响的数据驱动解决方案。您将成为一个鼓励创新、学习和成长的前瞻性组织的一员。加入一支充满热情的专业团队,他们重视创造力、协作和卓越。 如何申请 有兴趣的候选人请提交简历和求职信,突出相关经验。请在主题行中注明“大数据分析师 – Hadoop & Spark”。入围的候选人将被联系以进行进一步评估和面试。