最低资格要求:
• 在以下一个或多个领域具有工作或教育背景:运筹学、计算机科学、数学、数据科学、业务分析或知识管理。
• 在AWS云环境中使用R/Python、Linux和Spark进行编程的经验,或者在Python/C#/C++中具有知识和算法设计经验(3年以上)
• 熟练使用Amazon AWS Sagemaker、Jupyter Notebook和Python Scikit、TensorFlow等机器学习工具
• 具备构建Vector DB、NLP、LLM和GenAI工具的经验。具备使用LoRA、LangChain、RAG、LLM Fine Tuning和PEFT的经验者优先考虑。
• 具有SQL和关系数据库技术的实际经验,如Oracle、PostgreSQL、MySQL、RDS、Redshift、Hadoop EMR、Hive等。
• 具有处理结构化和非结构化数据源、数据清洗、数据规范化和准备分析的实际经验
• 具有自然语言处理、BERT、RoBERT、GPT和大型语言模型等机器学习技术的实际经验。
• 具有代码存储库和构建/部署流水线的实际经验,特别是Jenkins和/或Git。
• 具有使用Apache Hadoop和/或Apache Spark堆栈进行大数据处理或类似的分布式计算平台的实际经验。
• 具有使用Kafka、Rabbit MQ、NiFi、Kinesis或类似工具的数据流技术的实际经验
• 具有使用Tableau、Kibana、Quicksights或其他类似数据可视化工具的实际经验。
• 能够处理以时间序列和横截面数据为基础的大量数据,并从其中提取明确定义的alpha
• 对于处理模糊数据(例如不完整的数据、定义不明确的概念、思想或目标)非常熟悉
资格要求:
• 学历:计算机科学、统计学、数学、工程或相关领域的硕士学位,博士学位优先
• 在构建大规模机器学习或深度学习模型和/或系统方面具有3年以上相关经验
• 具有深度学习(例如CNN、RNN、LSTM)方面的1年以上经验
• 具有构建NLP、LLM和GenAI工具的1年以上经验。具备使用LoRA、LangChain、RAG、LLM Fine Tuning和PEFT的经验者优先考虑。
• 具备在Jupyter Notebook、AWS Sagemaker或Domino Datalab等环境中的技能,或类似环境的经验
• 热衷于在快节奏的环境中解决复杂的数据问题并生成跨职能解决方案
• 具备Python或C++/C#、SQL、面向对象编程、面向服务的架构的知识
• 具备Shell脚本和SQL的强大脚本编写能力
• 具备Python(包括SciPy、NumPy和/或PySpark)和/或Scala的强大编码能力和经验。
• 具备统计和机器学习模型的知识和实施经验(回归、分类、聚类、图模型等)
首选资格:
• 具有使用MXNet、Tensorflow、Keras、Caffe、PyTorch、Theano或类似的深度学习框架构建模型的实际经验
• 具有构建搜索架构(如Solr、ElasticSearch)的经验
• 具有构建查询本体(如Zeno、OWL、RDF、SparQL或类似)的知识和实施经验
• 具有自然语言处理技术(LDA、TF/IDF、情感分析)和Python NLTK、Spacy或类似技术的知识和实施经验
• 具备微服务、服务网格、API开发和测试自动化方面的知识和经验。
• 具备使用Docker、Kubernetes或其他类似容器框架的实际经验。
工作类型:固定期限合同
合同期限:12个月
工作时间:
• 周一至周五