概述
此职位为远程职位,仅可在以下地点招聘:北卡罗来纳州、德克萨斯州、亚利桑那州。
该职位负责设计、开发和维护数据管道和基础设施。在敏捷环境中实施数据集成、处理和分析解决方案,同时与跨职能团队合作,提供高效且可扩展的数据系统。
职责
- 数据管道:设计、开发和维护数据管道,以实现实时和批处理的数据高效处理和集成。实施和优化ETL流程,从各种来源提取、加载、转换和集成数据。增强数据流和存储解决方案以提高性能。
- 数据仓库:设计和实施数据仓库结构。确保数据仓库内的数据质量和一致性。应用数据建模技术以实现高效的数据存储和检索。
- 数据治理、质量与合规:实施数据治理政策和程序。实施数据质量框架、标准和文档。确保符合相关数据法规和标准。
- 安全与访问管理:实施数据安全措施和访问控制。维护数据保护协议。
- 性能优化和故障排除:分析和优化大规模数据操作的系统性能。排除数据问题并实施强有力的解决方案。
- 测试与自动化:编写单元测试用例,验证数据完整性和一致性要求,采用GitLab、Github、CICD工具实现自动化数据管道。
- 代码部署与发布管理:采用发布管理流程,将代码部署到包括生产、灾难恢复和支持活动在内的各种环境中。
- 跨职能合作:与数据科学家、分析师和其他团队合作,理解并满足数据需求。参与跨职能项目以支持数据驱动的举措。
资格
学士学位和2年数据工程、数据库管理或相关领域经验,或高中毕业或GED和6年数据工程、数据库管理或相关领域经验。
优先经验:
技术/业务技能:
- 拥有利用现代云数据技术和工具构建强大的元数据驱动的自动化数据管道解决方案的实际经验。
- 拥有利用数据安全、治理方法满足数据合规要求的实际经验。
- 具有构建自动化ELT数据管道、利用Qlik Replicate、DBT Cloud、Snowflake与CICD的Snowpipe框架的经验。
- 拥有在多个数据源和目标(如SQL Server、Oracle、Mainframe-DB2、文件、Snowflake)之间构建数据完整性解决方案的实际经验。
- 具有处理各种结构化和半结构化数据文件(CSV、固定宽度、JSON、XML、Excel和主机VSAM)的经验。
- 使用S3、Lambda、SQS、SNS、Glue、RDS AWS服务的经验。
- 熟练掌握Python、Pyspark、高级SQL用于摄取框架和自动化。
- 拥有使用DBT Cloud、Astronomer Airflow进行数据编排的实际经验。
- 在实施日志记录、监控、警报、可观测性、性能调优技术方面的经验。
- 实施和维护敏感数据保护策略——令牌化、Snowflake数据掩码策略、动态和条件掩码以及基于角色的掩码规则。
- 在设计、实施RBAC、数据访问控制、采用Snowflake及支持系统的治理标准方面的丰富经验。
- 在采用发布管理指南、将代码部署到各种环境、实施灾难恢复策略、领导生产活动方面的丰富经验。
- 实施模式漂移检测和模式演变模式的经验。
- 必须拥有一个或多个相关技术领域的认证。
- 有金融银行经验者优先。
功能技能:
- 团队合作:支持同事、团队和部门管理。
- 沟通:优秀的口头、书面和人际沟通能力。
- 问题解决:优秀的问题解决能力、事件管理、根本原因分析以及改进质量的主动解决方案。
- 合作与协作:与业务和IT利益相关者发展和维护合作关系。
- 注重细节:确保所有任务的准确性和彻底性。
福利是整体奖励的重要组成部分,First Citizens Bank致力于提供具有竞争力、精心设计和高质量的福利计划,以满足员工的需求。更多信息可在网站上找到。