Cerebras Systems 构建了世界上最大的 AI 芯片,其规模是 GPU 的 56 倍。
我们新颖的晶圆级架构在单个芯片上提供了数十个 GPU 的 AI 计算能力,同时具备单一设备的编程简便性。
这种方法使 Cerebras 能够提供行业领先的训练和推理速度,使机器学习用户能够轻松运行大规模的 ML 应用程序,而无需管理数百个 GPU 或 TPU 的麻烦。
Cerebras 的现有客户包括多个行业的全球公司、国家实验室和顶级医疗系统。今年一月,我们宣布与 Mayo Clinic 达成一项为期多年的数百万美元合作伙伴关系,强调了我们在各个领域转变 AI 应用的承诺。
今年八月,我们推出了 Cerebras Inference,这是世界上最快的生成式 AI 推理解决方案,其速度比基于 GPU 的超大规模云推理服务快 10 倍以上。
关于职位:
您想参与创建世界上最快的生成模型推理吗?加入 Cerebras 推理团队,参与开发市场上推理特性最佳的独特软件和硬件组合,同时运行可用的最大模型。
Cerebras 晶圆级推理平台能够以空前的速度运行生成模型,这要归功于其独特的硬件架构,提供最快的本地内存访问、超快速互连和大量可用计算能力。
您将成为团队的一员,与最新的开放和封闭生成 AI 模型合作,以优化 Cerebras 推理平台。
您的职责将包括处理模型表示、优化和编译栈,以在 Cerebras 当前和未来的平台上产生最佳结果。
职责:
分析生成 AI 领域的新模型并了解其对编译栈的影响
开发和维护前端编译器基础设施,该基础设施摄取 PyTorch 模型并生成中间表示(IR)。
扩展和优化基于 PyTorch FX / TorchScript / TorchDynamo 的工具,用于图形捕获、转换和分析。
与 ML 和编译器团队合作,以确保与原生 PyTorch 的保真度和性能一致。
在功能实现过程中与其他团队合作
研究新的模型优化方法以改善 Cerebras 推理
资格:
工程、计算机科学学位或同等经验和卓越能力的证明
强大的 Python 编程技能和深入的 PyTorch 内部经验(例如,TorchScript、FX 或 Dynamo)。
对计算图、张量操作和模型跟踪的扎实理解。
有构建或扩展编译器、解释器或 ML 图优化框架的经验。
熟悉 C++ 扩展、LLVM、MLIR 或其他基于 IR 的编译器基础设施。
有使用 PyTorch 和 HuggingFace Transformers 库的经验
有大型语言模型的知识和经验(理解 Transformer 架构变体、生成周期等)
了解基于 MLIR 的编译栈是一个加分项
优先资格
之前有为 PyTorch、TensorFlow XLA、TVM、ONNX 或类似编译器栈做出贡献的经验。
了解硬件加速器、量化或运行时调度。
具有多目标推理编译的经验(例如,CPU、GPU、定制 ASIC)。
理解数值精度权衡和操作符降低。
对开源 ML 编译器项目的贡献。
为什么加入 Cerebras
认真对待软件的人会自己制作硬件。在 Cerebras,我们构建了一种突破性的架构,为 AI 行业开辟了新的机会。随着数十个模型的发布和快速增长,我们的业务已达到一个转折点。
我们团队的成员告诉我们,他们加入 Cerebras 的五个主要原因:
构建突破性的 AI 平台,超越 GPU 的限制。
发布和开源他们的尖端 AI 研究。
在世界上最快的 AI 超级计算机之一上工作。
享受创业活力带来的工作稳定性。
我们简单、非企业化的工作文化,尊重个人信仰。
阅读我们的博客:
加入 Cerebras 的五个理由(2025 年)。
今天申请,成为 AI 突破性进展前沿的一部分。Cerebras Systems 致力于创造一个平等和多元化的环境,并自豪地成为一个平等机会的雇主。
我们庆祝不同的背景、观点和技能。我们相信包容性团队可以构建更好的产品和公司。我们每天都在努力通过持续学习、成长和支持周围的人来建立一个让人们能够发挥最佳工作能力的工作环境。
本网站或其第三方工具处理个人数据。有关更多详细信息,请点击此处查看我们的 CCPA 披露通知。
#J-18808-Ljbffr