不接受H1转移。美国公民、永久居民、L2、H4 EAD
• 有使用Google数据平台、BigQuery的经验
• 可以考虑有Spark、Hadoop或Databricks经验的候选人,但至少需要2年GCP经验
• 使用Azure云服务设计、开发、文档化和设计大数据应用程序。
• 使用SQL、NoSQL、数据仓库、Scala、Spark、Hive和Hadoop的知识开发代码。
• 成为Google BigQuery/BigTable、Apache Spark和Scala编程等新概念的专家。
• 管理和监控Hadoop日志文件。
• 开发在Hadoop集群上无缝运行的MapReduce编码。
• 无缝地将难以理解的技术要求转化为出色的设计。
• 为快速数据跟踪和高速查询设计网络服务。
• 测试软件原型,提出标准,并将其顺利转移到运营部门。