你的工作职责:
• 构建大规模实时和批处理数据平台的组件,并负责大数据应用的特性,以适应不断变化的业务需求
• 构建下一代基于云的大数据基础设施,用于批处理和流数据应用,并不断提高性能、可扩展性和可用性
• 贡献最佳的工程实践,包括设计模式的使用、持续集成/持续交付、代码审查和自动化测试
• 参与开创性创新,并应用最先进的技术
• 作为团队的重要成员,参与软件生命周期的各个方面:设计、实验、实施和测试。
• 在开放和创新的环境中与项目经理、产品经理、软件开发工程师和研究人员合作
你需要具备的条件:
• 计算机科学或电子工程学士学位及以上学历
• 4年以上Java、Scala、Python等专业编程经验
• 3年以上大数据开发经验,熟悉Spark、Flink、Singlestore、Kafka、Nifi和AWS大数据技术等技术栈
• 系统、应用设计和架构知识
• 具备构建行业级高可用和可扩展服务的经验
• 对技术充满热情,并愿意进行跨学科的工作
优先条件:
• 有处理PB级大数据的经验
• 熟悉云基础设施技术,包括Terraform、K8S、Spinnaker、IAM、ALB等
• 有使用ClickHouse、Druid、Snowflake、Impala、Presto、Kinesis等技术的经验
• 对广泛使用的Web框架(React.js、Vue.js、Angular等)有经验,并对Web技术栈HTML、CSS、Webpack有良好的了解
必备技能:
1. Scala/Java角色-几乎所有的编码都是Scala-必须是Scala专家-其次是Java
2. 大数据-Spark是最受欢迎的,因为团队使用Spark和Flink
3. 必须具备编程经验-从软件开发角度来看,必须有面向对象的经验
4. React是可选的,但不是必需的
批处理方面-将使用Spark进行编写,数据提取和数据清洗
必备技能集:
1. AWS
2. S3用于存储
3. Spark/Scala用于处理
4. Airflow
5. Snowflake-包括SQL知识
6. Tableau/Microstrategy用于报告