HireClout
我们的客户是内容创作领域的领先者,使全球创作者能够达到新的高度并扩展他们的品牌
你将会做什么
• 设计和管理可扩展的数据工作流,包括具有单节点和多节点配置的ETL流水线
• 为新的和现有的流水线建立数据质量保证协议
• 生成带有附加属性的增强数据集
• 处理分析就绪的数据集,以赋予内部和创作者中心的工具更强大的功能
• 及时解决问题,并与内部数据使用者直接合作
• 通过调度和编排工具自动化流水线执行
• 处理大量数据集,并集成各种外部API以丰富数据
• 配置数据库表以便分析用户使用数据
• 利用大数据技术,在AWS云环境中提高数据的可用性和质量
你需要什么
• 学士学位,最好是计算机科学或计算机信息系统专业。
• 4年以上软件工程专业知识。
• 3年以上数据工程专业知识,利用Apache Spark或Apache Flink。
• 展示在云环境中操作软件和服务的3年以上实际经验。
• 熟练使用DataFrame API(Pandas和Spark)进行并行和单节点处理。
• 展示在使用Python、Scala等语言方面的高级熟练程度,包括使用现代数据优化文件格式(如Parquet和Avro)。
• 展示在关系数据库管理系统和数据仓库解决方案(包括Redshift等平台)中使用SQL的能力。
为什么选择我们
福利和优惠
• 有竞争力的薪水:每年$170,000 - $190,000
• 提供全面的健康、视力和牙科保险
申请人必须目前在美国有全职工作授权,现在和将来都可以。
此职位不提供赞助。
参考:职位编号 JOB-4266
分享这个职位
名
姓
电子邮件
附上简历*
• 职位类型:永久
• 地点:
• 发布日期:1个月前发布
• 薪水:每年$170,000 - $190,000