Hadoop OR Snowflake OR Teradata开发领导 - 悉尼
这些是金融服务领域的6-12个月合同
Hadoop, 大数据开发领导
• Hadoop * Spark, Hive * Python & PySpark * ETL工具 * Teradata * Unix * Oracle / SQL Server / MySQL * AWS, Snowflake
• 有建立数据管道的经验
• 使用Spark、TCF和各种ETL框架的Hadoop / Teradata平台
• 熟练掌握Java或Python脚本编写
• 能够阅读和解析数据算法
• 利用大数据技术解决客户最困难的数据问题
• 与解决方案设计师和业务分析师密切合作进行数据摄取、增强和输出
• 在集团数据仓库、大数据平台、Ab Initio和Data Stage之间工作
• 通过整合来自数百个内部和外部来源的多样化数据来设计和构建集团数据产品
• 采用工具、编程语言和模板来提高数据质量和效率
• 构建和优化大数据管道、架构和数据集
• 对业务需求、设计和代码审查负责,识别技术/性能问题并解决
• 学习和适应新技术以解决问题和改进现有解决方案
• 在团队内指导和支持初级数据工程师
Snowflake开发领导
• SnowFlake * Python & PySpark * ETL工具 * BigData * Teradata * Hadoop * Unix * Oracle / SQL Server / MySQL * AWS
• 有建立高度可扩展的数据仓库系统的经验
• 必须具备Unix经验
• 有SnowFlake数据仓库的经验
• 深入了解SnowFlake架构和处理过程
• 在Snowflake Cloud开发方面有实际经验
• 有Snowflake管理管理经验
• 有SQL和PLSQL的经验,熟悉SQL查询调优、数据库性能调优
• 有编写复杂SQL、分析查询性能、查询调优、数据库索引分区和存储过程开发的经验
• 有将数据摄取到SnowFlake中的经验,如Snowpipe
• 最好有Hadoop到Snowflake / Databricks迁移经验
Teradata开发领导
• Teradata * TCF(Teradata控制框架) * GCFR(Teradata全局控制框架) * SQL * ETL工具 * BigData
• 有设计解决方案和改进现有架构的经验
• 作为Teradata工程师/开发人员的经验,具备TCF(Teradata控制框架)或GCFR(Teradata全局控制框架)等高级数据处理经验;以及Teradata Multi-Load或FastLoad工具的经验
• 有Teradata BTEQ实用程序的经验,并使用高级SQL脚本运行DDL、DML和宏和存储过程
• 在Unix或Linux环境中具有Shell脚本编程经验
• 应具备Teradata性能调优的强大技能;创建存储过程和宏;运行Teradata实用程序的经验
• 使用数据模型概念,如数据仓库、企业数据模型
• 使用ETL工具,如DataStage、Informatica的经验更佳
• 必须具备性能调优和设计模式的实际经验
• 必须有指导团队内初级数据工程师的经验
• 有使用Spark和各种ETL框架的Hadoop经验是一个加分项
请将您的详细简历发送至peter@klareconsulting.com