数据工程师

洛杉矶 28天前全职 网络
面议
公司与愿景 PlanetArt的愿景是成为全球领先的个性化和按需制作产品的销售商。我们为消费者提供无与伦比的工具和内容,以及无与伦比的端到端客户体验,从而创造出高质量、有意义的成品和难忘的现场活动庆祝。 公司的品牌包括流行的FreePrints和FreePrints Photobooks应用程序,以及行业领先的SimplytoImpress卡片和文具网站,还有Personal Creations、CafePress和ISeeMe!访问www.planetart.com了解更多关于我们的品牌信息。 我们在多个办公室拥有超过500名团队成员,主要位于加利福尼亚州的卡拉巴萨斯、圣地亚哥、伊利诺伊州的伍德里奇、明尼苏达州的明尼阿波利斯和加利福尼亚州的普莱森顿。我们在中国拥有两个公司自有办公室的团队成员,以及在欧洲的团队成员。 职位概述 PlanetArt正在寻找一名数据工程师来支持公司的预测与定价小组。此角色负责将生产系统中的数据通过ETL导入数据仓库以支持数据科学项目。 请注意:候选人必须是本地居民或愿意搬迁到卡拉巴萨斯地区,因为我们采用混合工作模式(3天现场,2天远程)。 工作内容 主要职责 - 使用提取、转换和加载过程创建数据管道,以简化和管理来自不同来源的数据,使其易于理解、访问和使用。 - 优化数据库系统性能,并集成各种数据库、仓库和分析系统。 - 实施数据转换和使用算法以及机器学习模型,使数据更有用。 - 与跨职能团队(数据科学、销售、财务、供应链、市场营销、运营)合作,特别是在战略和运营规划中对齐预测。 - 识别预测假设中的关键风险和机会,并向领导层提出建议。 - 监控已部署的预测模型性能,跟踪差异,并不断优化方法。 - 通过识别主要原因和修复数据管道中的常见问题来解决与数据相关的问题。 - 为高级领导设计和提供定期报告、仪表板和演示文稿。 - 指导和为初级分析师提供分析最佳实践的指导。 要求 您应该具备的技能、资格和要求 - 3年以上数据工程经验,设计和开发使用Apache Kafka、Apache Spark和工作流管理工具(Airflow)的大型数据管道。 - 2年以上数据仓库和数据湖管理经验,包括Amazon Redshift和AWS S3数据湖。 - 2年以上使用AWS Glue、AWS Lambda无服务器计算和在AWS上使用Airflow的云服务经验。 - 3年以上使用分析SQL、传统关系数据库和/或分布式系统(Amazon S3、Redshift、MySQL、SQLServer)的经验。 - 3年以上编程语言(如Python、Pyspark、Spark)经验。 - 2年以上使用Tableau和PowerBI仪表板和报告进行数据可视化的经验。 - 对数据建模原则有深入理解,包括维度建模、数据规范化原则。 - 能够独立执行数据管道和机器学习部署的性能优化和故障排除。 - 强大的沟通能力——书面和口头演示。 - 出色的概念和分析推理能力。 - 能够在快节奏和高度协作的环境中工作。 - 熟悉敏捷Scrum原则和Atlassian软件(Jira、Confluence)。 工作条件 - 工作在低到中等噪音水平的办公室环境中进行。 - 偶尔需搬运重达20磅的物品。 - 职位需要定期、持续使用计算机。 - 职位需要定期坐着和站着。 - 职位需要通过以下方式与团队成员定期互动:面对面、电话、Zoom、Slack或电子邮件。 - 可能需要偶尔出差。 - 这是一个混合职位;员工预计每周三天在办公室工作(周一、周二和周四),可以选择远程工作两天(周三和周五)。 福利 该职位的薪资范围为每年92,000美元至100,000美元。 PlanetArt提供全面的福利套餐,包括: - 健康、牙科和视力保险 - 人寿保险 - 心理健康福利 - 宠物保险 - 401(k)计划匹配