7年以上的实际工作经验,熟悉Map-Reduce、Hive、Spark(核心、SQL和PySpark)具备扎实的数据仓库概念知识,了解金融报告生态系统将是一个加分项
具备使用大数据技术进行数据工程/数据仓库工作的7年以上经验将是一个额外的优势
精通分布式生态系统,具备使用核心Java或Python/Scala进行编程的实际经验AC
精通Hadoop和Spark架构及其工作原理,具备编写和理解复杂SQL(Hive/PySpark-数据框架)的实际经验,在处理大量数据时优化连接
具备UNIX shell脚本编写经验Ac能够设计和开发用于批处理和实时数据处理的优化数据管道
应具备分析、设计、开发、测试和实施系统应用程序的经验,具备开发和文档化技术和功能规范以及分析软件和系统处理流程的能力。
工作类型:合同
薪资:每小时45.00美元 - 50.00美元
工作时间:
• 8小时轮班
工作地点:亲自前往