您的新公司
一家中国对冲基金/高频交易公司。
您的新角色
• 通过动态路由、稀疏激活和可扩展训练架构推进专家混合(MoE)。
• 创新Transformer-MoE集成,以提升大规模部署中的模型效率和性能。
• 通过稀疏和线性机制优化多头注意力(MHA),并进行理论和多模态增强。
• 开创分词研究,包括子词/字节级算法和多语言框架开发。
• 通过压缩和语义空间优化提升嵌入技术,以改善模型表示。
您成功所需的条件
• 拥有计算机科学、人工智能、数学或相关学科的硕士或博士学位。
• 在MoE、MHA或分词方面具有强大的研究经验,有出版物或深度项目经历。
• 精通PyTorch/JAX,并具有训练和微调大规模模型的经验。
• 深入了解Transformer架构和Megatron、DeepSpeed等框架。
• 将学术好奇心与工程思维相结合,并具备自我驱动的实际实施方法。
您将获得的回报
作为回报,您将成为一个重视员工的组织的一部分。您将获得:
• 结构化的职业发展和大量的成长机会
• 稳定的工作环境
您现在需要做的
如果您对这个角色感兴趣,请点击“立即申请”,或者如需更多信息和对此角色的保密讨论,或想了解技术领域的更多机会,请联系Yuki Cheung,或发送电子邮件至yuki.cheung@hays.com.sg。欢迎推荐。
在Hays,我们重视多样性,并热衷于将人们放置在能够茁壮成长和成功的角色中。我们积极鼓励来自不同背景的人申请。
EA注册号:R22110258 | EA许可证号:07C3924 | 公司注册号:200609504D