**工作要求**:
- 信息技术或相关领域学位。
- 必须具有3-5年以上的大数据平台管理和工程经验,包括在Hadoop、Kafka、Hbase和Spark集群上进行活动。
- 必须具备实施、管理和管理整个Hadoop基础设施的经验。
- 必须具备在包括Hadoop(HDFS和YARN)、Hive、Spark、Livy、SOLR、Oozie、Kafka、Airflow、Nifi、Hbase等的大数据生产环境中的经验。
- 最好具备非关系型数据库HBASE的实际经验。
- 最好具备Linux / Unix操作系统服务、管理、Shell和awk脚本编写经验。
- 最好具备Hortonworks发行版或开源软件的经验。
- 优秀的书面和口头沟通能力。