开放职位:LLM数据科学家

15个月前远程全职
500-1910

500-1910

location 多伦多
unsaved
我们目前正在招聘以下职位:LLM数据科学家 简历提交截止日期:2024年1月12日星期五(下午5:00 EST) 职位空缺数量:1 级别:MP4(高级) 持续时间:12个月 工作时间:每周35小时 地点:800 Kipling(混合工作模式,2天远程办公) 职位概述 作为LLM模型微调专家,您将负责通过利用您在LLM微调方面的专业知识,推进我们的语言模型的能力。理想的候选人应具备丰富的自然语言处理知识、深度学习架构的熟练运用能力,以及在商业SaaS平台(如Databricks和Azure)上部署模型的经验。您将与我们的团队密切合作,开发和部署最先进的模型,为我们的产品的成功做出重要贡献。 • 领导大型语言模型(LLM)的微调,以优化在各种NLP领域和任务中的性能。 • 运用深度学习和机器学习架构的专业知识,定制和优化模型的准确性和效率。 • 与跨职能团队合作,将微调的模型集成到工业级应用和产品中。 • 评估和预处理大规模文本和数值数据集,用于模型训练,确保高质量的输入。 • 支持在本地硬件和Databricks和Azure ML等商业SaaS平台上开发和部署模型。 • 了解LLM的最新进展,并实施模型微调和NLP技术的最佳实践。 资格要求 • 计算机科学、人工智能、数据科学或相关领域的学士或硕士学位(博士学位优先)。 • 在微调语言模型(LLM)方面有经验(>3年),深入了解LLM架构(如GPT、BERT、Transformer)。 • 在深度学习和机器学习方面具有广泛的专业知识,重点关注自然语言处理(NLP)。 • 有开发和部署工业级深度学习模型和应用的实际经验。 • 熟练运用本地硬件进行模型训练和部署;有Databricks和Azure ML等商业SaaS平台的经验是一个强有力的加分项。 • 熟练掌握Python等编程语言的编程技能,熟悉相关库(TensorFlow、PyTorch、Hugging Face Transformers等)。 • 出色的问题解决能力和积极解决挑战的态度。 • 良好的沟通能力,能够在团队环境中有效合作。