工作要求:
• 信息技术或相关领域学士学位。
• 必须具备至少35年的大数据平台管理和工程经验,包括Hadoop、Kafka、Hbase和Spark集群。
• 必须具备实施、管理和维护整个Hadoop基础架构的经验。
• 必须具备在大数据生产环境中的经验,包括Hadoop(HDFS和YARN)、Hive、Spark、Livy、SOLR、Oozie、Kafka、Airflow、Nifi、Hbase等。
• 最好具备非关系型数据库HBASE的实际经验。
• 最好具备Linux / Unix操作系统服务、管理、Shell、awk脚本编写经验。
• 最好具备Hortonworks发行版或开源软件方面的经验。
• 优秀的书面和口头沟通能力。