必备条件:
• 5-8年与Hadoop/大数据和分布式系统的工作经验
• 最重要的是:在Kafka中强调实时流处理
• 强大的SQL技能 - 至少掌握MySQL、HIVE、Impala、SPARK SQL中的一种或多种
• 从消息队列、文件共享、REST API、关系型数据库等进行数据摄取,并具备处理json、csv、xml、parquet等数据格式的经验
• 有Spark、Sqoop、Kafka、MapReduce、HBase、SOLR、CDP或HDP、Cloudera或Hortonworks、Elastic Search、Kibana、Jupyter Notebook等工作经验
• 至少一种编程语言的实际编程经验,如Scala、Python、PHP或Shell脚本
• 熟悉Linux操作系统
• 有使用Cloudera管理门户和YARN的经验
• 在共享集群/云环境中处理复杂资源争用问题的经验
加分项:
• 有SPARK结构化流处理的工作经验
• 通过性能调优提高spark/MapReduce或SQL作业的经验
• 具备近实时和批处理数据管道的端到端设计和构建经验
• 在敏捷开发过程中工作的经验,并深入了解软件开发生命周期的各个阶段
• 使用SVN、Git、Bit Bucket等源代码和版本控制系统的经验
• 有使用Jenkins和Jar管理的经验
• 能够自主工作,并具备在技能多样的团队中工作的能力
日常工作:
Insight Global正在寻找Hadoop开发人员,为我们最大的金融客户之一提供服务,可以在BOA中心混合工作。这些大数据平台开发人员/工程师将帮助构建新的数据管道,识别现有的数据空白,并提供自动化解决方案,为支持运营团队的应用程序提供先进的分析能力和丰富的数据。资源将支持数据与工程分析团队的2024个项目。
日志记录和监控 - 实施一种网络安全日志记录和监控策略,标准化GIS使用的基础设施/应用程序/安全日志。信号情报 - 自动化的ETL和丰富功能,以便规模、速度和深度上对抗者的行为、基础设施、技术和能力进行主动识别和分析,这是现有基础设施和计算能力所无法实现的。
该职位的福利待遇将在就业的第31天开始,包括医疗、牙科和视力保险,以及HSA、FSA和DCFSA账户选择,以及401k退休账户并提供雇主匹配。该职位的员工还享有带薪病假和/或其他根据适用法律规定的带薪休假。