84.51° 概述
84.51° 是一家零售数据科学、洞察和媒体公司。我们帮助Kroger公司、消费品公司、代理商、出版商和关联合作伙伴在购买路径上为购物者创造更个性化和有价值的体验。
凭借尖端科技的支持,我们利用近一半美国家庭的第一方零售数据和超过20亿笔交易数据,为客户提供更加以客户为中心的旅程,利用84.51°洞察、84.51°忠诚度营销和我们的零售媒体广告解决方案Kroger Precision Marketing。
加入我们的84.51°!
__________________________________________________________
作为高级数据工程师,您将有机会构建解决方案,将我们的大数据进行摄取、转换、存储和分发,供数据科学家和我们的产品使用。
我们的数据工程师使用PySpark/Python、Databricks、Hadoop、Hive和其他数据工程技术和可视化工具,为我们的科学家、产品和工具提供数据能力和服务。
84.51°采用混合工作时间表,员工每周3天上班,从周一到周三。候选人必须住在辛辛那提,俄亥俄州或芝加哥,伊利诺伊州。
职责
负责功能的所有权,并通过整个84.51° SDLC的所有阶段推动其完成。包括内部和外部应用程序以及流程改进活动:
• 参与Databricks和基于云的解决方案的设计和开发。
• 实施自动化单元测试和集成测试。
• 与架构和首席工程师合作,确保一致的开发实践。
• 对初级工程师进行指导。
• 参与回顾审查。
• 参与新工作和发布的估算过程。
• 与其他工程师合作解决复杂问题并带来新的视角。
• 推动数据工程实践、流程和工作方式的改进。
• 接受新技术和不断变化的环境。
要求
• 4年以上专业数据开发经验
• 3年以上Databricks或Hadoop/HDFS开发经验
• 3年以上PySpark/Spark开发经验
• 3年以上SQL开发经验
• 3年以上Python、Java或Scala开发经验
• 完全理解ETL概念和数据仓库概念
• 有CI/CD经验
• 有版本控制软件经验
• 对敏捷原则(Scrum)有深入理解
• 学士学位(计算机科学、管理信息系统、数学、商业分析或STEM)
以下经验加分
• Azure经验
• Databricks Delta Tables、Delta Lake、Delta Live Tables经验
• 精通关系型数据建模
• Python库开发经验
• 结构化流处理经验(Spark或其他)
• Kafka和/或Azure Event Hub经验
• GitHub SaaS / GitHub Actions经验
• Snowflake经验
• 接触过BI工具(Tableau、Power BI、Cognos等)