职位:数据工程师
地点:芝加哥,伊利诺伊州(从第一天开始每周3天现场工作)
持续时间:12个月以上,合同到期后可转为正式员工
只接受W2,不接受C2C
所需资格、能力和技能:(需要有AWS S3、Databricks经验)和(具备Hadoop/Abinitio/Informatica经验者优先考虑)
• 计算机科学学士学位或软件工程认证。
· 面试1-2轮
· 从FRB获取运营数据并将其放入客户系统中
· 将数据移入档案以满足FDIC的要求
· 需要掌握的前两项技能是AWS S3和Databricks
• 如果他们不了解Databricks,他们必须能够快速学习
• Hadoop/Abinitio/Informatica将会有帮助
· 将与管道工作并归档数据
· 可能将数据移入新的数据湖
首选资格、能力和技能:
• 有与数据密集型软件(如大数据、数据仓库、数据湖)工作的经验。
• 在AWS上开发经验,熟悉S3、Lambda、MSK、EC2、IAM和相关数据产品。
• 有Databricks、Amazon RDS、Oracle、Hadoop/Cloudera、HUE、Hive、Impala的经验。
• 有GraphQL的经验。
职位类型:全职,合同制
薪水:每小时55.00美元至60.00美元
预计工作时间:每周40小时
经验水平:
• 10年
• 11年以上
• 6年
• 7年
• 8年
• 9年
工作时间表:
• 8小时轮班
鼓励有犯罪记录的人申请
申请问题:
• 领英个人主页链接
• 是否愿意接受W2?
教育背景:
• 学士学位(优先考虑)
经验:
• AWS S3:4年(必需)
• Databricks:5年(必需)
• Hadoop:3年(必需)
• Ab Initio:3年(必需)
• Informatica:3年(必需)
• 数据湖:2年(必需)
• 数据仓库:2年(必需)
通勤能力:
• 芝加哥,伊利诺伊州60609(必需)
工作地点:现场工作